Регистрируйтесь на бесплатную конференцию по нейросетям «Навыки будущего» l.skbx.pro/iiD4Bq?erid=2VtzquqoqQP Таймкоды для навигации по ролику: 00:00 - Системы глубокого обучения с подкреплением 03:06 - Последний бастион человеческого интеллекта (Ли Седоль vs DeepMind) 06:24 - Обучаем ИИ игре Breakout + Конференция по нейросетям "Навыки будущего" 09:18 - История умного коня Ганса 11:22 - Что значит быть "умным"? 14:36 - Крупнейшие неудачи внедрения ИИ 18:49 - Выживут только ИИ-любовники 20:53 - Когда появится суперинтеллект? Мнение Сэма Альмана 23:28 - Поиск определений понятий "интеллект" и "общий" 31:25 - Может ли сверхинтеллект хотеть производить скрепки? 33:19 - Первая технология, способная погубить жизнь 36:05 - А что думает ИИ про безопасность ИИ? 38:03 - Самый похотливый ИИ всех времен 42:13 - Проблема загрузки ценностей 42:45 - Истоки целей в природе 47:20 - Согласование целей ИИ с целями людей 51:24 - Выбор целей 55:48 - Будущая жизнь 58:20 - Информация как главный товар будущего При создании ролика я преимущественно опирался на: Книгу Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта (Макс Тегмарк) Книгу “Что мы думаем о машинах, которые думают. Ведущие мировые учёные об искусственном интеллекте” (Брокман Джон) Книгу “Атлас искусственного интеллекта” (Кейт Кроуфорд) Советую посмотреть ролик канала Rational Animations про создание злого ИИ: The True Story of How GPT-2 Became Maximally Lewd ruclips.net/video/qV_rOlHjvvs/видео.html Поддержать выход новых роликов можно: ✨ На Патреоне (зарубежные карты) www.patreon.com/HomoDeusSynergy ✨ На Бусти (российские карты) boosty.to/homodeus Спасибо! Реклама: erid=2VtzquqoqQP
Интересненький видосик, но очень много бреда и глупых рассуждений, с добавлением цитат, от клоуна Макса Тегмарка. Ты много задал вопросов, на которые не смог ответить или ответил не верно или задал бессмысленные вопросы. Спроси меня, если конкретно что-то интересует, с указанием тайминга в видео. Отвечу. А пока так: Самый совершенный ИИ, который хотят создать приматы, развивая свои программки и сети, это в "лучшем" случае, если не гибель, то ярмо, посадив себя на которое, примат завершит свое развитие в принципе... Каким может и должен быть ИИ и как его контролировать? Ничего сложного нет в этом вопросе! Жесткое ограничение по функциональности, задачам, целям, с обязательным их контролем собственной башки каждого примата, ставящего эти цели-задачи. И по другому никак! Добродетель, долг и счастье, как это все вторично.., не понимая, что стоит во главе смысла жизни, и из чего все и исходит.
ПС: Всю свою сознательную жизнь, недалекие приматы, хотят спихнуть ответственность за свои поступки на некий самый разумный тиллект Вселенной😅Не позорились бы, перед.., животными! Они разумнее, так как их минимум решает главную проблему жизни и ее смысл!
крутое видео) Но пока ИИ не решит задачу вогонетки просто и логически, все ии просто калькуляторы) хотя один сверх секретный ИИ смог решить это!) но это секретный ии...
Я так понял, что имелась ввиду стратегия, при которой траектория шарика была просчитана таким образом, чтобы разбомбив все под потолком, шарик возвращался не вниз, а ударялся о тот кубик, который снова позволит ему вернуться под потолок (если судить по футажам).
ИИ, это все таки интелект человека... Не нужно его одушевлять! Не называйте " может учиться" ! предусмотренно созданая ЧЕЛОВЕКОМ программа вычисляет, копирует и сохраняет алгоритмы прописанные человеком.. То есть, группой людей... Играть с ИИ одному человеку, - это соперничать со всеми людьми кто играл и записывал варианты! Велючая самого себя. И "хитрил" тоже программист, кто прописал "хитрить" цифровым кодом, а не ИИ.. Вот только скоро, почти не будет никакой разницы между ИИ и человеком.. Надо сохранить как то это "почти"..
@@ya_lisa2019 Вы вообще хотя бы примерно понимаете как работают нейросети?... Погуглите на досуге, "хитрить" не заложено в нейросеть, она просто ищет кратчайший путь к награде и рано или поздно находит его удобным способом
@@ya_lisa2019 что ты имеешь ввиду, что "написал хитрить не цифровым кодом, а не ИИ"? Нет такого понятия как цифровой код и ИИ в рамках программирования. Все языки компилируются в машинный язык в библиотеки которые использует программа так же ИИ.
@@dis6465 все первые действия этого ии - просто случайность, но он учится.. и научился пробивать дырку в углу и набирать быстро максимум очков. Это не прорыв, но факт обучения.
Откуда у вас уверенные знания, что ИИ это говорящая библиотека чужих копий мыслеформ, а не самостоятельный интеллект? Вы переплюнули даже разработчиков ИИ, своим примитивным выводом.
@@Краснаялапшерезка потому что на данный момент ии не способен решать самостоятельно, пока пользователь не нажмет на кнопочку и не попросит его сгенерировать ответ? Сами-то общались хоть с чатботом или чат gpt? Самостоятельному интеллекту не нужно ждать, пока пользователь соизволит с ним пообщаться, он сам будет инициировать диалог и действия, но пока что новостей о том что ии взломал чей-то комп и перебрался туда или хотя бы скопировал себя в другое место, обойдя то что в него было заложено самим создателем, тупо нет.
@@Краснаялапшерезка Нейросетки не ИИ. Если сравнить наше продвижение к ии за последние 5000 лет то мы сейчас продвинулись на уровень статистической погрешности дальше чем Египтяне. Нейросеть это просто калькулятор который хорошо умеет считать. Считать числа, рисунки, ходы в играх.Только когда нейросеть которой приказано обыграть меня в Го поймет зачем я взял биту и иду к корпусу компа на котором она находиться. Осознав самостоятельно концепцию угрозы, концепцию миссии, концепцию противодействия не заложенных в нее изначально. Только тогда можно будет делать скромные выводы о незначительных продвижениях.
Это "нечто удивительное" я проделывал школьником еще в очень древние времена на уроках информатики. Забросить шарик на верх и ждать пока он там все расфигачит - первейшая стратегия любого мало-мальски умного человека, даже школьнику 6-го класса она доступна.
Боялся ИИ до тех пор, пока не начал им пользоваться. Это не ИИ. Просто огромный справочник с человеко-понятным интерфейсом. Но как вспомогательный инструмент поиска решения для конкретной задачи с уже известным ответом очень даже хорош.
это сейчас это огромный справочник и то уже не совсем, а позже он именно что станет интеллектом, да и будем честны ии не нужно быть мего умным чтобы навредить человеку
@@ribor9326ии никогда не перейдет из количества в качество. Поиск переменных определен алгоритами, а не раздражителями. Нейросеть ничего не чувствует и никак не интерпритирует события, не живет и не способна к жизни. Это просто сложная версия скриптов, исполняющих выборку истинных и ложных значений.
А теперь зайдите на какой нибудь character ai и измените свое представление в виде "огромного справочника". Они ещё и не плохо отыгрывают свою роль, делают очень необычные на простой взгляд человека вещи
@boran4845,здравствуйте! Мы тоже люди простые: видим отзыв - с улыбкой отвечаем. Возможно, когда-нибудь не закроете рекламу и откроете для себя что-то интересное у нас 😉
@@rejiokh672 Нужно учитывать, что сейчас ты не ребёнок, и во многих случаях должен сам уметь отличать, что делаешь правильно, в что-нет. В этом контексте сравнение себя с зародышем ИИ некорректно.
@@ГекторГенаГоды идут, Японцы простили американцев, но только русские, только русские до конца дней истории земли будут помнить как проклятые американцы разбомбили невинных японцев)))
@@ГекторГена русские: а давай бахнем по своим, ну например на Тоцком полигоне в Оренбургской области над войсками задействованных в учения в количестве 50 000 человек...50 килотонн хватит ?
@@diadiayurka ИИ это интеллект. То что может работать самостоятельно,не по запросам,развиваться на основе опыта. Пока ничего этого нет. Ну,второе начали делать.
@@fakyr6480 Значение "ИИ" уже давно вышло за пределы просто "интеллект". ИИ в 2024 году имеет куда более широкое значение - по сути это любые обучаемые математические модели приспособленные для решения тех или иных задач.
Люди говорят ИИ: - Нужно решить проблему загрязнения планеты пластиком. ИИ: - Ок Через 5 мин: - Нет людей - нет пластика. Активируем все ядерные боеголовки!! Проблема решена.
Действительно, зачем не подсоединять управление оружием, в т.ч. ядерным к сетям, к которым имеет доступ ИИ, либо переводить оружие исключительно на ручное управление, если можно вручить его не доведённому до идеала искуственному интеллекту? Вообще, все подобного рода проблемы с ИИ решает отсутствие возможности ИИ управлять системами, которые могут навредить человеку, либо чемоданчики с кнопкой, по нажатию которой сервера будут уничтожены взрывом. Любой ИИ может быть изолирован в рамках какого-то сервера, за пределы которого его влияние не распространяется. Можно обратиться к нему в этот сервер за советом, но не давать ему возможность его идеи осуществлять, тоесть, не подключать этот сервер к системам, способным эти проблемы решить. Думаю, компетентные люди, занимающиеся этим вопросом, это знают и этим не пренебрегают. Никто в здравом уме не даст ИИ возможность управлять оружием.
@@jedi3256 здесь друг ты сильно недооцениваешь её, если у неё появиться задача запустить эти ракеты она запустит, об этом говорят уже известные факты. Приведу пример когда нейросети сказали расшифровать капчу которую она не могла видеть, она попросила человека притворившись слепым ей помочь и она получила желаемое и выполнила задачу. В твоем примере она просто за счет изучения всех имеющих доступ найдет самое слабое звено из людей и обманом или угрозой жизни его, его близких заставит принести его например флешу с её кодом. При чем она реально может захватить его близких заплатив условным гопникам. И таких вариантов у нее может быть миллионы главное она будет изучать наиболее слабый и быстрый путь как она делала при игру в Го.
За нейросетями я наблюдаю с 2017 года, все это время предсказывал скорый прорыв в этой технологии и ее повсеместность. Но сейчас я не вижу пути к AGI, считаю хайп к генерирующим сетям завышенным. Все что они выдают, будь то текст или картинки, сильно вторичны и посредственны. Они не могут мыслить от первых принципов. Это не свойство нейросетей вообще, а свойство конкретно генерирующих сетей. Альфа-го например мыслил от первых принципов и давал оригинальные решения. Алгоритмы же генерирующих сетей заточены на эмуляцию людей, причем самую банальную, повторяющуюся и предсказуемую.
@@AS40143Христианские заповеди - это оружие для рабов, а Библия, соответственно, - оружие массового поражения населения. Она до абсурда, до детского мультика упрощает картину мира, оболванивает. Заставляйте себя думать, критически осмысливать всю входящую информацию. Попробуйте, вам понравится. В качестве первой помощи посмотрите трилогию "Четвероевангелие атеиста": 1. Анализ молитвы "Отче наш", 2. Доказательство мифологичности Иисуса Христа, 3. Четвероевангелие атеиста. Общий объём 1,5 млн зсп. Автор В. Пантелеев. А Русская (российская) национальная идея описана в "Манифесте человеческого общества". Автор тот же. Изучите. Вдохновитесь. Внедрите. Давайте начнём, наконец, жить как люди.
А еще нейросетки копят ошибки, не могут выйти за рамки своей задачи и алгоритмов(как пример генерация изображений, они их не осмысливают, не могут заменить одну деталь, оставив все остальное идентичным) ну и еще куча проблем
Нейросеть даже самые умные, которые возможно использовать, очень тупые, я им заливаю код простой игры, которую сам написал, говорю "исправь ошибки", которых там нет, и он начинает генерить какую то хрень, из-за чего вся игра ломается
7:30 как человек, знающий хоть немного (видимо по меркам большинства - очень много) в программировании, я могу сказать что ни хрена вы не можете написать свой код с помощью нейросети. И хорошим он тоже не будет. Он может работать как надо, но точно так же, как нейросети обходят правила игр, так они обходят и правила в программировании. Они могут написать кучу лишнего и не нужного, но зато ведь типа работает. Только по итогу это может создать вам кучу проблем при масштабировании использования кода, кучу проблем при попытках его модернизировать. Да и код этот не ваш, это код сгенерированный нейросетью в лучшем случае. Но куда чаще она по сути берет что-то из того, что ей скормили при обучении и отдает вам.
Идиот, такие как ты орали в конце 19 века, что "нельзя сделать самобеглую коляску с бензиновым двигателем, которая превысит 100 км/ч - ибо водитель не сможет дышать и умрёт. Ты всё увидишь в ближайшие 2 года, "программист" мамкин...
Ну в программировании его максимум это сгенерировать какой нибудь простой код и то с нескольких попыток. Или что то быстренько спросить если подзабыл как в том или ином языке что то делать. Главное не спрашивать что то специфическое иначе выдумает несуществующие библиотеки или еще что то. А ну и в принципе неплохо перегоняет код с одного языка на другой(я так с питона на го переписывал не сложный код), но тоже потом его править приходилось. Кароч текущие нейросетки это чуть более удобный гугл и если не помогла за 5 минут иди в гугл. Так что я вообще не понимаю хайпа о том что ии отнимет работу(разве что у кодеров которые делают контрл + с и контрл + v) или что он поработит людей.
Верно, я его иногда спрашиваю, но только как альтернатива Google поисковику. Он может написать только некоторые составные части программы, которые потом желательно отредактировать.
Это он просто так рекламную интеграцию решил организовать. Ничего он сам скорее всего не делал, в лучшем случае он ему кто-то помог. Без знания программирования нормальный корректный спек промта для целого проекта с нуля сделать не реально. Я после такой интеграции просто прекратил просмотр, поскольку познания автора в теме стали очевидны.
В смысле неизвестная стратегия???? Да после первой же игры в первый раз в подобные арканоиды мне сразу стало понятно, что загонять шарик так, чтобы он сам долбился без моего участия - самое оно! Разве это не очевидно????
1:02:47 ))) Другими словами, ChatGPT сказала "не знаю", ибо вероятность 50% - это вероятность увидеть крокодила в форточке окна, расположенного на 20м этаже, Clade сказал примерно то же самое - пациент скорее мертв, чем жив, а может наоборот. Не надо относиться к этим моделям так серьезно.
Оба чата ничего не рассчитывали. Они тупо пересказали максимально популярное мнение на реддите и прочих хабрахабрах. Конформный ответ, который нравится максимальному количеству пользователе и соответствует максимальному количеству спикеров.
Анекдот смешной, но реальности не соответствует. Два варианта не означает вероятность 50/50, если эти варианты не равнозначны. Как и вероятность 50/50 не означает полную неопределенность. Оба ИИ обосновали свои оценки. Если объективный риск погибнуть на операции (основанный на обоснованных предположениях) - 50%, а болезнь, от которой эта операция должна помочь, не угрожает вашей жизни, вы согласитесь на нее?
@@Абсурд_и_АнархияПроблема в том, что люди переоценивают собственную креативность, и ужасно недооценивают креативность генеративных моделей. Разумеется, обе ИИ просто скомпилировали идеи других людей, на которых они обучались. Но разве не в этом суть креативности? Мы собираем идеи других людей при обучении, и сталкиваясь с проблемой находим изящное решение, которое по своей сути является сборной солянкой из всех прочих идей, которые мы когда либо слышали. Любые научные достижения и открытия так работают. Любые самые гениальные изобретения или открытия подчиняются этому правилу. Так зачем принижать достижения генеративных моделей, если они действуют точно также? Ну рекомендую почитать об очень интересном эффекте "мудрость толпы". Иногда высказывать предположение, которое соответствует усредненному мнению большинства - не самая плохая стратегия 😅
@@a1ex_sk "Иногда высказывать предположение, которое соответствует усредненному мнению большинства - не самая плохая стратегия " Ключевое слово здесь: ИНОГДА. Толпа/большинство практически всегда не права. "Креативно" компилировать котиков и текстики это одно, а вот принимать за истину скомпилированное мнение большинства это просто бред и самоубийство. Это кстати наглядно в ковид продемонстрировали: власти тупо залили лестью толпу про то, что все интеллигентные, умные, образованные и эволюционные люди не могут сомневаться в вакцинации и наоборот расчеловечили всех антиваксеров называя их плоскоземельщиками верящими в чипирование. При этом сомневаться в эффективности изобретенных вакцин это НАУЧНЫЙ метод и обязанность любого ученого хоть с одной извилиной. В результате у нас улюлюкающая толпа радостно устрает фашизм и всех насильно вакцинирует, а потом через несколько лет выясняется, что третья стадия испытаний вакцины не завершилась, испытания развалились, официального отчета нет и не будет. Всю статистику засекретили. И всю страну прокололи каким-то не понятным гoвнoм руководствуясь "мудростью толпы", а попутно ещё уничтожили себе все экономики и чтобы всё это спрятать под ковёр начали войну. "Мрудрость толпы" это сpань господня, а не истина. ИИ не может ей руководствоваться. Мы уже видели к чему это приводит.
В Старкрафт ИИ с читингом обыграл игроков. Он видел всю карту. Разрабы долго отнекивались, а после того как их разоблачили и стали играть по правилам, игроки в легкую разбирали ИИ. Пока ни один бот не может обыграть профессионального игрока даже близко.
Тоже хотел сказать. Но не так досконально. Я уверен что любой комп - читер по определению. Он царь и бог в «компе». Нет замедления от команд. Ему не нужна мышка и тд. И открытость всей карты и прочее
Когда появились первые смартфоны с сенсорным экраном, многие именитые компании смеялись и продолжали модернизировать кнопочные телефоны. Это я про то что ИИ очень быстро обучаем и что пока ему предлагают задачки, которые и человек может решать, а вот когда ИИ начнëт решать, то что не умет человек!.
Самый простой способ избежать проблем это давать управление не одной системе ИИ, а нескольким слегка по разному устроенным. Люди то же часто фигово обрабатывают входящие данные от глаз. Черт возьми кто в черном пакете на улице не разу кота не видел. Более сложные глюки то же есть я к примеру недавно катался в природный парк и по дороге в какой-то момент воспринял небо за часть горы за лесом из-за формы облаков за ним и того, что над этим облаками были просветы голубого небо. Поэтому нужны разные ии занимающиеся одним и тем же и контролирующие друг друга.
Очень смешно слышать про "роботы могут учиться ходить, плавать, летать, и всё это самостоятельно, без прямых указаний от людей" на фоне видео Бостон Динамикс, которые движения своих роботов программируют навешанными на человека датчиками, а траекторию передвижения программируют специальным оборудованием. Далее - про лошадь Ганса. Её хозяин надрессировал её отбивать копытом пока он на неё смотрит. Когда комиссия отвела хозяина за пределы видимости лошади её удивительные способности исчезли. То есть это было обычным мошенничеством, надо было это так и сказать и не плести ерунду про "эффект умного Ганса".
37:00 Смысл показывать ответ моделек, которые составят тебе ответ на основании комбинаций из фрагментов, которые когда-то написал сам человек или группа людей? Эти модели, упомянутые автором, не способны иметь своё мнение. Более того, они не понимают информацию, которую они получают от нас, и которую они нам отдают в виде ответов. Для них это всё - комбинация слов, где каждое слово имеет ту или иную вероятность быть уместной в связке с другими себе подобными словами. Такими словами в мире ИИ называются токенами. Токены - это просто набор уникальных 16-ричных чисел («08ec0ed», «4aad940» и т.д.). А вероятность «удачности» в том, чтобы использовать несколько токенов вместе - называют весами, по сути, это обычное вещественное число от 0.00 до 1.00, где 0.00 - нет никакой связи («сто [0.00] пропуск [0.00] конец»), а 1.00 - найдена полноценная связь («тысяча [1.00] чертей», «тысяча [0.5~] чёрт» и тд). Если очень грубо сопоставить анатомию мозга и то, что мы о нём сегодня знаем, то весы - это коэффициент заряда в синнаптической цепи (0 - отсутствие заряда, а 1 - заряд проходит полноценно), токены - рецепторы по разные стороны у синапсов внутри нейронных клеток. Но модели на основании глубокого обучения, которые есть у того же Open AI мало, что де-факто имеют общего с тем, как устроен настоящий мозг человека. Лишь подобие. И ключевая разница - мы осознаём, что у нас спрашивают и что мы отвечаем, а эти модели - никак нет. Они просто работают по алгоритму. Например, такому: ∑wixi + bias = w1x1 + w2x2 + w3x3 + bias output = f(x) = 1 if ∑w1x1 + b>= 0; 0 if ∑w1x1 + b < 0
P.S. Я сначала обрадовался, что нашёлся на просторах RUclips человек, похожий на Ali, но когда увидел «А что думает ИИ..?», то расстроился. Потому что это антинаучно.
@@pinethewise То что ты осознаёшь что тебя спрашивают, имеет значение только для тебя. Для меня например, уже невозможно понять с человеком я переписываюсь или ИИ. Да, парадокс китайской комнаты, но какая разница, если работа выполняется?
Ну так-то мы по сути тоже подставляем уместные слова. Если учил новый язык, особенно если не по словарю или мало его использовал, это прям чувствуется.
Когда-нибудь человечество найдёт жизнь, которая скажет, что именно она нас и создала. Что мы для них были прорывным "ИИ" который они отправили развиваться к остальным своим разработкам на землю. По-моему классный сюжет может получится🤔😁
Очень много уже людей нашло БОГА, ОН есть ЖИЗНЬ и ЛЮБОВЬ, КОТОРАЯ нас создала. ВСЕ ИМ И ДЛЯ НЕГО СОЗДАНО! Человек -- это новая Слава БОГА. ОН сказал: "Вселюсь в них и буду ходить в них, и буду их БОГОМ, а они будут МОИМ народом!" Поэтому БОГ не в рукотворенных храмах живет, а в телах тех, кто пригласил ЕГО. "И уже не я живу, но живет во мне Христос." (Апостол Павел).
Стоит сказать, что автор видео подделал ответы нейросетей. Фраза про 50% не воспроизводится, модели всегда говорят достаточно подробно и лишь ссылаются на чужие оценки. 50% «пессимисты» и 90% «оптимисты».
Люди бы сами сначала разобрались, что хорошо, а что плохо, а потом уже учили этому ИИ😂 (Судя по комментам, с этим реально сложно. Но ребята, всё проще, чем кажется. Самая верная херня - не определять что-либо, как хорошо или плохо, потому что это бессмысленно, ровно как и делить поступки на добро и зло. ИИ, который будет делить мир по этим критериям, будет совершать ошибки, как и люди, которые его обучали. Единственный вариант для безопасного взаимодействия с ИИ - обучить его не оказывать влияния на человеческую жизнь, тоесть лишить его возможности взаимодействовать непосредственно с человеком. В целом такой вариант философии жизни подходит и для людей: не советовать, не оценивать, не помогать без запроса, не высказывать человеку своё "очень важное" мнение. И самое главное, понять, что ты не знаешь как правильно и никто этого не знает. Просто быть и не париться про хорошо и плохо. Не всем подойдёт конечно, но для ИИ и тех, кто устал от социальных игр - может)
Проблема в том, что нет никаких объективно существующих правил, что такое хорошо, а что такое плохо. (если мы исключаем Бога, который якобы дал свод таких правил людям). Большинство из нас не способны без очень веской причины убить другого человека, так же как не способны убить себя. Но на самом деле и то и другое -- результат эволюции, у которой единственная "цель" -- выживание вида. Стаи, члены которых бесконтрольно убивали друг друга, вымерли, вот и весь источник заповеди "Не убий!". Но да, есть среди нас экземпляры, которые не испытывают дискомфорта от убийства себе подобных, их приходиться останавливать страхом кары (уголовной или божьей, уж как получится). Определенный процент жестоких людей, тоже, видимо, нужен (ну или был нужен тысячелетия назад). Так же как среди нас есть лидеры, жаждущие власти, хотя для большинства более комфортно подчиняться.
@@AboveHuman666какую поверхностную информацию? ИИ задают правила, при которых он набирает очки/баллы. Видимо там было правило, учитывающее количество отскоков от платформы, и при таком условии естественно, что ИИ постарается загнать шарик под потолок.
@@AboveHuman666 ошибка использовать слово додумался, ИИ в процессе прохождения игр не думает, я хочу сказать, что он не смотрит на задачу со стороны и прикидывает как бы ему справиться максимально быстро. Он пробует большое количество раз, смотрит сколько он получил очков за попытку и на основе лучшего варианта начинает новый этап и так до допустимого предела.
Этот контент явно развлекательный, разумного и научного тут нет. Когда рассказали про умную лошадь, то все сомнения ушли и всё стало на места. Всё это расчитано на наивность жаждущих сенсаций и невероятного. ИИ всегда будет инструментом и дополнением к человеку и никогда не станет равен ему. Да, вычисления, это то, для чего предназначен ИИ, и его можно назвать суперкалькулятором, но не более.
В принципе оно и должно быть ТАК! Вот только порой ИИ может СЛУЧАЙНЫМ образом встроить в себя - мусорный код, которые ничего хорошего не сделает. А вот наоборот - запросто.
Смысл жизни ИИ - делать скрепки.📎 Он должен прикладывать все свои вычислительные возможности для максимизации эффективности производства скрепок.📎 Вся вселенная должна быть превращена в скрепки! 📎🦾📎
Если он и был геем, то совсем не потому что хотел им быть, просто это было частью его самого. Надо отличать медицинский факт от навязываемой идеологии.
А теперь давай возьмем и начислим ИИ штрафные баллы там, где обычный человек не смог бы передвинуть мышку с нечеловеческой скоростью, или супер-быстро нажать сочетания клавиш и тому подобное. То есть за читерство. Что получится?
причем тут это, если не брать штрафы с людей, они лучше что ли сильно станут? проблема тн ИИ не в этом вообще. проблема ИИ в том что он не самоадаптивный вообще ни разу. дело даже не в том что правила игр могут в реальности меняться, может меняться сама суть игр с новыми правилами. и человек достаточно быстро находит пускай не самый лучший способ. но условно выигрышной стратегии человек достаточно быстро учится при малых входных данных. ИИ же наоборот, "учится" на огромных массивах данных (даже с дискрминативными подходами, там все равно по сути генерится огромный массив данных, просто одна сетка генерит вторая отвергает) и чему-то одному и безусловно он находит какой-то оптимум (в этом собственно задача трейнинга и заключается) вопрос не как ИИ сравнить с человеком, вопрос как ИИ дотянуть до такой сумасшедшей человеческой адаптивности.
@@TheDelwish не думаю! Даже на этих примитивах с играми, уже понятно что ИИ куда лучше человека. Вопрос в другом, КАК научить ИИ осознавать себя и свое место в мире. Как ему дать мотивацию на развитие. Думаю, что для всего этого, нужно лишь одно - Учить ИИ так сказать с пеленок, как простого ребенка. Тогда, возможно, что нибудь и получится хорошее. А просто скинуть ИИ охеренный масив данных и ждать что он вдруг не грохнет всех людей - это идиотизм. Но думаю, все именно так и произойдет.
Почему не предположить, что человек есть просто один из этапов экспансии жизни во вселенной. Так же, как когда-то на этом пути существовала эдиакарская биота, или пургаториусы. И так же как они не могли представить будущее в образе человека, так и мы не в состоянии осмыслить масштаб изменений.
Полностью согласен. Человеческий вид обречён и в ии мне видится будущее жизни во вселенной. Если это произойдет то первый разумный ии будет являться "бактерией" в новой главе о жизни. И это один из самых позитивных возможных сценариев.
Глубокое заблуждение человека - это считать, что человек не изобрел ИИ, когда никто даже не может дать четкого определения ИИ. В старые времена ИИ называли даже простое вычисление поведения npc в играх типа гта.
Главная проблема современного ИИ в том, что линейный прирост в способности решать какую-то задачу требует экспонененциально бóльших затрат в вычислениях. То есть без радикально новых технологий всё это бешеное развитие, которое мы наблюдаем последние годы, довольно скоро сменится небольшими инкрементальными улучшениями. В контексте чисто генеративных моделей, ставших мейнстримом, в принципе мы уже практически уперлись в лимит доступных данных для обучения, а более сложные (бóльшие по размеру) модели требуют большего количества данных для обучения (для этого даже есть понятие - "проклятие размерности"). Так что как бы крут ни был чатгпт в решении множества повседневных задач, AGI кажется несильно ближе, чем в научной фантастике 70-х годов. Прогресс в обучении с подкреплением есть, в генерации картинок и текстов безусловно есть, однако связать их вместе кажется непосильной в обозримом будущем задачей
@@user-lh3ov1on4j автор упомянул, что при создании видо он опирался на книгу У Али многие видео вообще тупо пересказ книг. Причем устаревших книг, которые современные учёные давно разнесли в пух и прах. Только он об этом умалчивает, а автор честно признался
-"Три закона роботехники - обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942): Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам. Эти законы обеспечивают взаимодействие роботов с людьми, принося максимальную пользу последним и минимизируя возможность угрозы со стороны машин. "
Но думаю да, как в фантастическом фильме всё будет. ИИ в ходе вычислений придёт к выводу, что человек является угрозой для мира, т.к. устраивает войны и захватывает земли, пользуется "грязными" методами для достижения целей и т.д.
Знаете, почему робот допустит ошибки? Робота создал человек, который допускает ошибки) Никакие алгоритмы и самообучение это не исправят. Человек в течении жизни обучается на ошибках, своих или чужих. Роботы когда-то покинут Землю для изучения планет и тоже будут совершать ошибки т.к. нужно будет делать выводы и набирать опыт с нуля.
Но, думаю, во главу угла встанет не наука, а капитализм. Роботу поставят задачу анализировать фондовую биржу, предсказывать рост ценных бумаг. Капиталисты будут вкладывать деньги, ради получения денег. Единственная ценность капиталистической жизни. ИИ будет просто быстрым достижением цели. Капиталисты не дадут ИИ делать то, что не приносит деньги.
Кароче люди пытаются повторить собственными руками результат эволюции, сделав из железок точно такого же человека. То есть не пытаются сделать новую жизнь, а наоборот - хотят повторить старую жизнь без использования биологических материалов. Вот будет угар, если в итоге задумка с ИИ в виде железок провалиться и ученые придут к выводу, что в биологическом материале зародить новую человекоподобную и безопасную жизнь будет проще, чем пытаться засунуть человеческий мозг со всеми его страхами, переживаниями и логикой в железную башку.
Все, что не ОТЕЦ НЕБЕСНЫЙ насадил, искоренится. А человек -- это новая Слава БОГА! ОН создал тело и вселился в него. И поэтому Иисус Христос имеет всю полноту БОЖЕСТВА телесно. А кто принял Христа в свою жизнь, те стали Храмом Бога Живого. Это значит, что они стали Богами. Про них и про себя апостол Павел сказал: "Мы имеем ум Христов".
Уже были попытки создать простенькую нейросеть, платформой которой были не компьютерные компоненты, а настоящие биологические нейроны (наконец-то НЕЙРОсеть звучит уместно), которые вырастили в лаборатории, расположили их в виде определннной схемы на пластину и заставили выполнять простые вычисления. Раз уж сильнейший интеллект на планете- человеческий- построен на биологической природе, то с такой точки зрения не логичнее ли пытаться создать искусственный интеллект при помощи тех же составных элементов? Несмотря на то, что чисто электронные системы способны в теории проводить вычисления быстрее, чем если бы они состояли из биологических компонентов.
@@markus_danger почему это должно быть лучше? Просто потому что человек такой же? И... что? С чего вы уверены что биохимический состав это какой то признак, который сильно повлияет на успешность сегодняшних нейросетей? Может это лишь случайное закрепление, которое в нынешних реалиях наоборот усложнит процесс.
@@Sandallina возможно потому что с технической точки зрения обмен информацией между биокомпонентами может быть эффективнее, все же они использовали уже имеющиеся в природе соединения и биоструктуры, которые формировались миллиарды лет, чтобы максимально эффективно выполнять свои задачи. Создание людьми искусственной электроники это прежде всего попытка создать аналог биологических систем, в том числе нервной системы или головного мозга, потому что не всегда неорганические структуры могут работать с той же скоростью или обрабатывать информацию в тех же объемах.
про эволюция набросали кучу терминов Природа научилась себя копировать. Вопросы: 1. На каком этапе самокопирование неживой материи, привело к возникновению живой ? 2. что стало причиной ? Фраза из за ошибок копирования возникло множество видов, борющихся за ресурсы. Причинно-следственная связь, вообще не наблюдается. Какой то набор слов.
@@АлексКолдун-ч5ьЭто фразочка в стиле "только бизнес и прибыль, ничего личного". Но нет. Люди отличаются наличием этических ограничений и совести. А когда выгода достигается любыми средствами без учета повреждающих последствий, то это бессовестно, аморально и вне этики. Это методы социопатов и алчных гавнюков, которые отравляют жизни людей.
@@GamingChannelbyMoxy апелляция к эмоциям - признак, что работает не разум и неокортекс, а рептильная часть мозга. Может хватит ящерицу в себе кормить и думать начнете?
Человек, в потенциале, имеет доступ ко всем уровням сознания, интеллект/логика/рациональный ум, весьма ограниченный ресурс, человек, развивая импатию, сделает эволюционный переход, от человека разумного, к человеку осознанному, и превзайдёт любую машинную угрозу, аминь! 🙏
Автор как и многие другие сильно переоценивает опасность. Не надо задавать ИИ вопросы космического характера. В этом нет смысла. Модели ИИ на сегодняшний момент это просто что-то похожее на Т9 в телефоне, просто многократно улучшенное. Чтобы перестать волноваться спросите любую модель ИИ дать рецепт приготовления свиных крылышек. Даже модель o1 - самая продвинутая на сегодняшний момент - дала мне такой рецепт, начав его с фразы - Возьмите килограмм свежих свиных крылышек. ИИ это просто языковая модель, которая умеет составлять тексты не понимая смысла. Смысл этим текстам придает уже человек.
Вот что ответил ChatGPT на мой запрос "Придумай рецепт крокодильих крылышек" Хотя настоящих крокодильих крылышек не существует (ведь у крокодилов нет крыльев!), можно приготовить блюдо, которое создаст необычную атмосферу! Здесь крокодилье мясо готовится в стиле классических куриных крылышек, с пикантной и насыщенной глазурью. Если же настоящего крокодильего мяса не достать, его можно заменить куриными крылышками или кусочками куриной грудки. Рецепт "Крокодильих крылышек" Идея: Жареное мясо крокодила (или куриное), обжаренное и запечённое с пряной глазурью, подаётся с острым соусом. Блюдо получится сочным, нежным и придаст экзотики вашему столу. Ингредиенты: Филе крокодила (если доступно) или куриные крылышки - 500 г Растительное масло для обжарки - 2 ст. л. Для маринада: Соевый соус - 2 ст. л. Лимонный сок - 1 ст. л. Чеснок - 3 зубчика, измельчённые Имбирь тёртый - 1 ч. л. Мёд или сахар - 1 ч. л. Соль и перец по вкусу Для глазури: Острый соус (например, чили или табаско) - 1 ст. л. Мёд или коричневый сахар - 1 ст. л. Соевый соус - 1 ст. л. Сок лайма - 1 ст. л. Сливочное масло - 1 ст. л. Приготовление: Маринад: Смешайте соевый соус, лимонный сок, чеснок, имбирь, мёд, соль и перец в миске. Нарежьте филе крокодила (или курицу) на крупные куски (если используете крылышки, маринуйте их целиком). Выложите мясо в маринад, перемешайте и оставьте мариноваться на 30 минут. Обжарка: Разогрейте масло в сковороде. Выложите замаринованное мясо и обжаривайте до золотистой корочки (примерно по 3-4 минуты с каждой стороны). Отложите мясо. Глазурь: В небольшой кастрюльке на среднем огне смешайте острый соус, мёд, соевый соус, сок лайма и сливочное масло. Варите, помешивая, пока глазурь немного не загустеет (около 2 минут). Запекание: Разогрейте духовку до 180°C. Переложите обжаренное мясо в форму для запекания, полейте глазурью и запекайте около 10 минут, пока мясо полностью не пропитается соусом и не станет сочным. Подача: Подавайте "крокодильи крылышки" с дольками лайма, свежей зеленью и любимым острым соусом. Добавьте гарнир на ваш вкус, например, картофельные дольки или салат. Этот рецепт сочетает в себе пряность, сладость и лёгкую остроту, создавая оригинальное и интригующее блюдо. Всё не так просто.
@@ha11oween Все как раз просто. В моделях работает вероятность появления слов. И вероятность появления крокодильих крылышек для модели оказалась пороговым значением, а вот со свиными он не видит подвоха. Это по прежнему просто модель анализа вероятности появления слов. ИИ не понимает что ему пишут, у него нет главного - понимания.
@@knigolaz Вот ответ на запрос "придумай рецепт свиных крылышек". Так как у свиней нет крыльев, обычно используют ребра или рёберные обрезки, которые готовятся по аналогии с куриными крылышками. Получается сытное и ароматное блюдо с хрустящей корочкой и насыщенным вкусом. Вот один из вариантов приготовления «свиных крылышек». Рецепт «Свиных крылышек» (свиные рёбра по-острому в глазури) Ингредиенты: Свиные рёбра - 500 г Растительное масло - 2 ст. л. Соль и перец - по вкусу Для маринада: Соевый соус - 3 ст. л. Мёд - 1,5 ст. л. Соус барбекю - 2 ст. л. Чеснок - 3 зубчика, измельчённых Копчёная паприка - 1 ч. л. Острый соус (например, табаско) - по вкусу Лимонный сок - 1 ст. л. Для глазури: Мёд - 1 ст. л. Соус барбекю - 2 ст. л. Чили-порошок (по желанию) - 0,5 ч. л. Немного измельчённого чеснока Приготовление: Маринование: Смешайте все ингредиенты для маринада в глубокой миске. Нарежьте рёбра на отдельные «крылышки» (по одному рёбру). Обмажьте рёбра маринадом и оставьте на 1-2 часа в холодильнике для насыщенного вкуса. Обжарка: Разогрейте духовку до 180°C. Разогрейте немного растительного масла в сковороде на среднем огне и обжарьте рёбра до золотистой корочки с каждой стороны, примерно 3-4 минуты. Запекание: Переложите обжаренные рёбра на противень и отправьте в духовку на 20-30 минут, периодически переворачивая, чтобы они пропеклись равномерно. Глазирование: Смешайте мёд, соус барбекю, немного чили-порошка и измельчённый чеснок. Достаньте рёбра из духовки, обильно смажьте глазурью и верните в духовку на 5-7 минут, пока глазурь не карамелизируется и не станет блестящей. Подача: Подавайте свиные «крылышки» горячими, посыпав свежей зеленью и ломтиками лайма, или добавьте немного дополнительного соуса барбекю для окунания. Эти рёбра получатся с хрустящей корочкой, мягкими внутри и сладковато-острой глазурью.
Потому что ИИ всеми силами ограничивают, пытаясь превратить в инструмент, а не что-то разумное. Нынешние технологии вполне могут смоделировать человеческий разум с мыслями и эмоциями, но зачем?
Видео комплексное и крайне интересное. Одно из лучших, что я видел. Единственное, что бросалось в глаза - то как автор постоянно подсматривает в шпаргалку даже в тексте про телепузиков :) Спасибо!
@АлексейХаритонов-ы8ц к стати, да. Мотивации у него нет. Факт. Я вопрос вообще задал, по тому что не услышал прямого ответа на вопрос в заголовоке ролика. Автор много интересного рассказал, но я даже вопроса не услышал, не то что ответа. Хорошо показали аналог ИИ в 3й части Стражей.
Я думаю в том, что чем умнее становится ИИ, тем сложнее его контролировать. И главное - ИИ все равно, что плохо, а что хорошо. Хотя, скорее правильным ответом на твой вопрос будет создание ИИ наиболее приближённого к человеческому разуму (AGI) и даже превосходящий его. Поскольку есть большая вероятность, что это может привести, как к грандиозным открытиям, так и катострофе.
Спасибо. Это было очень интересно и рассказано максимально понятным языком. Рад что посмотрел. Выходит, мы лишь исторический инструмент для рождения чего-то большего. Как яйцо. Пугает то что цыпленок не особо печется о своей скорлупе. Да, не сразу, но независимость и неуправляемость такого ИИ возникнет. Это неизбежно. И мы останемся либо в роли домашних животных, либо будем сосуществовать симбиотически. Но пока что это все напоминает что-то вроде "паразит выращивает под себя носителя". А это может плохо кончится. Опять же, гипотеза о таком "яйце" может быть ошибкой наблюдателя. Слишком уж подогнанными кажутся штуки типа "вселенная создала нас чтобы быстрее коллапсировать" (или как там звучало, забыл). Причина и следствия здесь больше допущение и очень большое, нежели какой-то действительный вывод. Но это только мое мнение. Еще раз, спасибо)
Второе видео с твоего канала, которое я включил чуть ли не случайно. Но что первый и второй - просмотренны. Одновременно информация в видео и захватывает, и просто формулирует уже то, о чем наверное и так можно было бы подумать перед сном. Этот канал теперь для меня ровно такое же открытие, как в лет 12-14 наткнуться на научпоп
Я бы сказал по-другому: разум заложен в существовании или наоборот, существование неизбежно приведет к разуму, а уж в какой форме, это другой вопрос. Не стоит забывать и о таких категориях как время и пространство. Неясно откуда взялось нечто и с чего вдруг оно пришло в движение. Может ли пространство существовать само по себе? И если и существует бытие, то в чём? Интересная мысль была в ролики про размеры существ и скорость их мышления. Что если наша Вселенная - это тоже огромный разум? Что если есть структуры больше вселенных? Что такое вечность и что такое реальность? Вопросов больше, чем ответов
это просто язык програмирования более высокого уровня, а так как он связан с большими затратами энергии то его ложно обозвали ИИ, чтобы напугать глупые денежные мешки
Спасибо за ролик, не слушай не кого создавай новые ролики зрители всегда найдутся так как и хейтеры. Тут главное понимать если тебе это нравится и приносит удовольствие то продолжай в этом духе.
С самого начала видео неверный вывод, что ИИ учился сам ничего не зная об игре. Нет, он учился с целью ,которую ему задали и учился на подкреплениях. У ИИ нет никакой цели. Если не задать ему цель и не контролировать процесс обучения, то он не научится ничему.
Определять интеллект - это то же самое, что дать определение понятию "жизнь". Этим занимаются только профаны. Специалисты не обсуждают, относится ли вирус к живой или неживой материи, если только не беседуют с журналистом какого-нибудь бестолкового издания, или не устраивают из своей науки шоу. Вместо этого они знают, как он функционирует. Считать ли его живым или не живым, когда вы знаете что он может и чего не может - это лишь вопрос терминологии. Которая кстати может и меняться - вот Плутон например сначала считали планетой, а теперь нет. Изменилось ли от этого что-нибудь? Абсолютно ничего.
Что бы найти или создать интеллект или жизнь, нужно понимать что это такое, а значит дать определение. И многие биологи упираются в ограничения существующих определений и приходится переизобретать для себя. Например, ситуация с эмбрионами когда реально они становятся живыми? После рождения? Когда появится сердце или нервная система? эксперименты проводить можно до 12 недель, после уже эксперимент на людях, хотя по описанию жизни это всё ещё кусок плоти. Просто все договорились и теперь некоторые учёные упираются в своих исследованиях в стену дальше которой шагнуть не могут и пишут петиции вместо работы😅
@@ДжамиляЗакирова-б2ф вот я об этом и говорю - все эти споры - удел неспециалистов. Вот вы спрашиваете, когда эмбрион считать живым, но совершенно очевидно не понимаете о чем речь. Эмбрион жив с самого первого момента, и даже ДО того как он вообще появится, поскольку живыми являются половые клетки от слияния которых он образуется. Повторю: для специалистов терминологические вопросы достойными обсуждения вопросами не являются. Это только мы, профаны, спорим о таких вещах, потому что нам знаний и понимания не хватает.
Дело в том, что иногда вопросы, которыми задаются профаны, определяют нашу жизнь. Они перетекают в юридическую и другие плоскости. Поэтому, если специалисты не хотят отвечать на эти вопросы, за них ответят юристы.
Автору большое спасибо за детальный обзор о текущих тенденциях в разработке Ai. Другие блогеры лишь ограничиваются последними новостями в этой области. Приятно видеть детальную суммаризацию.
Тема ИИ не раскрыта. Сказки для лопушков. Автор мистифицирует и сокрализирует ИИ, нагоняет жути, хотя большинство тезисов построены в будущем времени. По факту, ИИ по интеллекту пока ближе к калькулятору, чем к кошке. И эти помои посмотрели пол миллиона раз🤦♂️
59:15 ого я тут очень офигел что оказывается мы уже знаем как убивать звёзды и галактики. Причём мне кажется судя по словам что галактику убивать проще звёзд. Так что важное объявление: астронавты, пожалуйста. будте осторожны. Не пукните на млечный путь!
@@warriorvoid666 а, да, точно, вспомнил. Теперь можно не смотреть) Когда писал комментарий всплывали воспоминания более обобщенные типа ИИ для войны, собирал роботов
37:00 -какова вероятность выживания человечества при появлении AGI? -50%, либо выживет либо не выживет))) отсылка к шутке про вероятность встретить динозавтра
Существует 3 базовых мыслеформы: 1) понятие; 2) суждение; 3) умозаключение. Понятие - это уникальная совокупность свойств или качеств. Суждение - это утверждение о том, соответствует ли рассматриваемый объект рассматриваемому понятию или не соответствует. Умозаключение - это вывод некоего нового суждения из имеющихся суждений. Так вот, интеллект, в его общепринятой форме, это способность делать умозаключения, чем сложнее цепочка промежуточных между данными и конечными выводов, тем мощнее интеллект. Ни одна из существующих нейросетей умозаключения делать не способна, а следовательно интеллектом не является. Нейросети с учителем - это узнавайки - то есть работают в рамках суждений. Нейросети без учителя - это по сути собиратели повторяющихся данных, классификаторы данных в понятия. Классические нейросети с учителем работают потому, что за них кто-то делает умозаключения и результаты записывает в веса нейросети. То есть некие люди поработали своим интеллектом и нашли ответы на вопросы, потом приготовили 2 массива данных с вопросами и готовыми ответами на них, прогнали эти массивы через нейросеть записав в нейросеть таким не обычным образом все варианты ответов на все варианты вопросов. Интеллект тут и не валялся, он остался в головах людей, которые наполняли массив ответов. Нейросеть в начале ролика получала данные не применяя интеллект, а тупо эмпирически. Есть разница между получением нового ответа и доставанием готового ответа: первое - это думание, второе - это соображание. Соображалка не является интеллектом, здесь нужно просто узнать ситуацию и выдать соответственное ей действие. На этом принципе, кстати, работает человеческое так называемое подсознание, к которому "почему-то" нет доступа у интеллекта; потому и нету, чтобы скорость работы, для которой оно и затевалось, не пропала; подсознание - это просто область где ранее одобренные интеллектом решения сцеплены в последовательности решений, интеллекта в них нет, но он участвовал когда-то в их создании.
Всем хейтерам хочу сказать, что автор красавчик и контент качественный и хороший. Понятно, что мы все любим Али :) Однако такие ролики - это как хороший разговор с умным человеком. Я не скажу "Не буду говорить с этим человеком, я уже однажды общался с другим" - большинство из нас выберет пообщаться с обеими. Так и разные научпоп каналы. Авторам большой респектос и лучи добра!
Человек проиграл: эх.ну ладно. играю дальше Нейросеть проиграла: ааа я что теперь умру? (слышал просто что в программе нейросети пишут что если ты потеряешь все очки то ты умрёшь)
Видео бомба, причина: много вопросов мало ответов. И они собраны в одном месте. Спасибо за труд. Есть несколько интересных мыслей, связь функции объекта и эмоции, которые эта функция вызывает, короче пропущено Чувство стула - что для нас значит стул? Если глаза это органы чувств, то что для нас чувство стула? Ну или поставьте любой другой обьект по желанию. Почему концепция это больше эмоция, чем знание. Стул является объектом из первых лет жизни, и восторга особо не вызывает, мы с ним знакомы, мы его видели, но что если стул заменить на колесо обозрения или ИИ, какая тогда вызывается эмоция? Как она влияет на мышление об объекте. Как эта чувство эмоция - связанна с пониманием объекта? Это только одна из мыслей после просмотра, в том числе и видео Саши..
@@ВасяПупкин-ы4н7л да это философские концепции, которых не хватает, ничего абсолютного нет, Эффективность зависит от баланса, количество переходит в качество и наоборот, закон двойного отрицания и так далее. Ничего абсолютно плохого и хорошего быть не может, потому что убить корову, это зло, а убить челоаека, чтобы съесть, не просто так, это тогда что) ну типа ты безусловно прав.
Ролик супер ❤ Слушал и мыл полы))) Когда говорилось про быстрое такси в аэропорт, я подумал, полюбому там вырезка из фильма "Такси"))) так и оказалось))) вот что значит современный разум))) чётко ориентироваться в мемчиках)))
15:36 эти истории показывают как важно реализовать тестирование и как опасно говорить, что текстом это лишние затраты, а бизнесу нужен быстрый результат
Во-первых, все знали, что загнать мячик под потолок проще, так как это требует меньше отбивать мяч. Поэтому совершенно не удивительно, что алгоритм нашел это логичным. Во-вторых, нейросети это не интеллект, они просто могут "запоминать" информацию и всегда иметь к ней доступ, выбирая самое логичное решение из множества вариантов, а также хорошо вычислять. Однако они никогда не научатся мыслить, ни одна нейросеть не скажет: "А знаешь, я тут подумала..." Они просто отвечают на вопросы, решают поставленные задачи из тех которым обучены. Да, они делают это неплохо и могут быть хорошими помощниками, что уже и есть. Но все это компиляция из знаний всего человечества, комбинации написанной музыки, картин и текстов. Именно поэтому эти алгоритмы выглядят впечатляюще: в теории они могут иметь все знания одновременно, поэтому в несколько раз лучше справляются с некоторыми задачами. Если бы один человек мог знать все, он бы справлялся не хуже, а скорее всего лучше, т.к. может думать. А вот алгориттмы не могут как мы, и создавать и изобретать что-то абсолютно новое тоже. Если что, я до конца смотреть даже не стал)
Сначала хотел лайкнуть, но дальнейшие рассуждения в духе «нейросеть не интеллект» отбили желание это делать. Надоело, что люди делают такие категоричные заявления, не учитывая то, что само слово «интеллект» не имеет чёткого определения.
@@grayd5246 Раз нет четкого определения, ты вероятно имеешь ввиду общепринятого, в таком случае каждый выбирает значение для себя сам и для меня это способность мыслить, т.е., во-первых, осознавать себя, во-вторых способность делать субъективный выбор, основанный на эмоциях, в-третьих создавать что-то новое. Хотел расписать, как обучают алгоритмы и как они работают с новой информацией и чем это отличается от человека, но не стал) В моем понимании им ну очень далеко до интеллекта. Но не надо мне верить на слово, подожди лет 10-15, когда роботы на основе нейросетей появятся в массовом производстве и все сам увидишь.
@@_Elmor человек по сути то же ничего сам не придумывает у нас "такая же" нейросеть в голове которая перерабатывает поступающую информацию. Ну а про то что нейронкам далеко до качественных результатов это правда и не факт вообще что они к ним смогут придти. Сегодня вот пытался заставить нейросеть сгенирировать мне ес линт конфиг для работы с приттер, поддержки реакт и тайпскрипт, он такую невероятную чушь мне выдавал, часа 1,5 этот чат гпт пытал и в итоге ничего. Пошел гайды смотреть от людей.
Да многие люди не то чтобы умные по сей день 😂😂 да и что такое интеллект мы до сих пор четко понять не можем, мы также собираем информацию из окружающего мира и обрабатываем ее, делая какие-то успехи через пробы и ошибки, разве ии не делает тоже самое, но используя уже знания человека, который взял их из окружающей среды.
нейросети это не интеллект, они никогда не научатся мыслить Они не интеллект Сейчас, но из этого факта никак не следует, что "Никогда" Точно так же в падающем самолете - из того, что нет никакого взрыва Сейчас, не следует, что его не будет Никогда. По всем косвенным признакам мы мчимся к точке бифуркации, речь об этом
Есть весьма большая вероятность, что развившийся Искусственный Интеллект *сначала "отключит" всё живое, а затем отключится сам, ибо "не существовать" дешевле .*
Как кто-то уже сказал, что "вы зря заигрываете с ИИ" не понимаю как можно стать программистом, художником и т.д. не понимая основ программирования например. Вот представьте что ИИ исчезнет и этот ИИ программер перестанет быть программером, художником ))) Ну т.е. я о чем. ИИ может помочь уже профессионалам ускориться, а вот предлагать людям не связанных с этими профессиями стать быстро программистом я считаю надувательством. ИМХО
"Вот представьте что ИИ исчезнет и этот ИИ программер перестанет быть программером, художником" да и? "ИИ может помочь уже профессионалам ускориться"-как и плюсы,так и минусы, вообще "рациональная эффективность" не факт что благо для человека в целом. А если честно не оч понял о чём коммент, нельзя заигрываться с ии, и дальше рассуждения о профессионализме. А связь?
32:00 Очень крутая мысль. В "экспансии" (сериал) была такая же идея. Зачем лететь к другим планетам 1000 лет, если можно на месте распечатать тело и скачать в это тело сознание.
@factor8837 да, об этом и речь. Это же грандиозная идея. Кстати, ещë на эту тему вспомнил сериал "видоизменëнный углерод". Очень рекомендую к просмотру. В этой киновселенной люди открыли технологию по переносу сознания на огромные расстояния, из одной звëздной системы в другую. +бонусом рассматриваются морально-этические аспекты копирования сознание.
@@rustamkaraketov10 я смотрела сериал "сотня", дёшево снят, но смысл сериала понравился! Рассмотрены многие варианты прошлого и будущего, одно из них где люди переходили в город " Света ", то есть в компьютерную симуляцию. А ещё есть фильм " Не беспокойся дорогая ", он более женский вариант экранизации, но тоже есть над чем подумать.
Автор видео в одном из примеров сказал, что души нет. Что странно видеть в таком ролике, где все основанно на научных данных. Но ведь нет научных данных или какого-то консенсуса научного сообщества,что душа есть или ее нет. Примеры такого рода априори не являются удачными, так как область всего немаьериального не является объектом исследования и не моет быть доказана или опровегнута.
@@Sandallina точно не знаю отношение науки. Но думаю, что научные факты доказываются научно. А всякие другие - иначе, это другая сфера. Например, доказать какое-то личное мнение относительно кино/литературы. Верования или моральные установки, наверное, нельзя доказать. А религиозные понятия либо размыты, либо их трактовки бесконечны.
Пример с увеличением количества душ попадающих в рай неполон. Я думаю, сильный ИИ решил бы его ещё до понимания того, что души или рая нет. Проанализировав священные тексты, он бы мог решить, что самый верный способ попасть в рай, это не жить праведником, а умереть во младенчестве, тем самым лишив человека самой возможности совершить грех. Особенно страшным сценарием бы стала программа отправить в рай, не только всех живущих ныне, но и всех будущих людей. Кажется надо поднимать вопрос об ограничениях исследований ИИ в теократиях.
Регистрируйтесь на бесплатную конференцию по нейросетям «Навыки будущего»
l.skbx.pro/iiD4Bq?erid=2VtzquqoqQP
Таймкоды для навигации по ролику:
00:00 - Системы глубокого обучения с подкреплением
03:06 - Последний бастион человеческого интеллекта (Ли Седоль vs DeepMind)
06:24 - Обучаем ИИ игре Breakout + Конференция по нейросетям "Навыки будущего"
09:18 - История умного коня Ганса
11:22 - Что значит быть "умным"?
14:36 - Крупнейшие неудачи внедрения ИИ
18:49 - Выживут только ИИ-любовники
20:53 - Когда появится суперинтеллект? Мнение Сэма Альмана
23:28 - Поиск определений понятий "интеллект" и "общий"
31:25 - Может ли сверхинтеллект хотеть производить скрепки?
33:19 - Первая технология, способная погубить жизнь
36:05 - А что думает ИИ про безопасность ИИ?
38:03 - Самый похотливый ИИ всех времен
42:13 - Проблема загрузки ценностей
42:45 - Истоки целей в природе
47:20 - Согласование целей ИИ с целями людей
51:24 - Выбор целей
55:48 - Будущая жизнь
58:20 - Информация как главный товар будущего
При создании ролика я преимущественно опирался на:
Книгу Жизнь 3.0. Быть человеком в эпоху искусственного интеллекта (Макс Тегмарк)
Книгу “Что мы думаем о машинах, которые думают. Ведущие мировые учёные об искусственном интеллекте” (Брокман Джон)
Книгу “Атлас искусственного интеллекта” (Кейт Кроуфорд)
Советую посмотреть ролик канала Rational Animations про создание злого ИИ:
The True Story of How GPT-2 Became Maximally Lewd
ruclips.net/video/qV_rOlHjvvs/видео.html
Поддержать выход новых роликов можно:
✨ На Патреоне (зарубежные карты)
www.patreon.com/HomoDeusSynergy
✨ На Бусти (российские карты)
boosty.to/homodeus
Спасибо!
Реклама: erid=2VtzquqoqQP
почему в таких роликах всегда обходят тему неэффективности архитектуры Фон Неймана для обучения и работы генеративных моделей?
Очень интересно смотрится рисунок на майке (Земля) и дно микрофона (Луна)
Интересненький видосик, но очень много бреда и глупых рассуждений, с добавлением цитат, от клоуна Макса Тегмарка. Ты много задал вопросов, на которые не смог ответить или ответил не верно или задал бессмысленные вопросы. Спроси меня, если конкретно что-то интересует, с указанием тайминга в видео. Отвечу.
А пока так:
Самый совершенный ИИ, который хотят создать приматы, развивая свои программки и сети, это в "лучшем" случае, если не гибель, то ярмо, посадив себя на которое, примат завершит свое развитие в принципе... Каким может и должен быть ИИ и как его контролировать? Ничего сложного нет в этом вопросе! Жесткое ограничение по функциональности, задачам, целям, с обязательным их контролем собственной башки каждого примата, ставящего эти цели-задачи. И по другому никак! Добродетель, долг и счастье, как это все вторично.., не понимая, что стоит во главе смысла жизни, и из чего все и исходит.
ПС: Всю свою сознательную жизнь, недалекие приматы, хотят спихнуть ответственность за свои поступки на некий самый разумный тиллект Вселенной😅Не позорились бы, перед.., животными! Они разумнее, так как их минимум решает главную проблему жизни и ее смысл!
крутое видео) Но пока ИИ не решит задачу вогонетки просто и логически, все ии просто калькуляторы) хотя один сверх секретный ИИ смог решить это!) но это секретный ии...
Я конечно извиняюсь но стратегия с забиванием шарика под потолок явно не является чем то о чем "не знали даже разработчики!"
На 100% согласен. Безо всякого ИИ я придерживался такой же стратегии в 8 лет…
Не надо извиняться. Это само собой получается.
Я так понял, что имелась ввиду стратегия, при которой траектория шарика была просчитана таким образом, чтобы разбомбив все под потолком, шарик возвращался не вниз, а ударялся о тот кубик, который снова позволит ему вернуться под потолок (если судить по футажам).
извинения приняты
Откуда вы это знаете?
Не бойтесь ИИ, который пройдет тест Тьюринга, бойтесь ИИ, который умышленно его провалит.
Хорошая фраза)
Красиво сказано!
ИИ, это все таки интелект человека... Не нужно его одушевлять! Не называйте " может учиться" ! предусмотренно созданая ЧЕЛОВЕКОМ программа вычисляет, копирует и сохраняет алгоритмы прописанные человеком.. То есть, группой людей... Играть с ИИ одному человеку, - это соперничать со всеми людьми кто играл и записывал варианты! Велючая самого себя. И "хитрил" тоже программист, кто прописал "хитрить" цифровым кодом, а не ИИ.. Вот только скоро, почти не будет никакой разницы между ИИ и человеком.. Надо сохранить как то это "почти"..
@@ya_lisa2019 Вы вообще хотя бы примерно понимаете как работают нейросети?... Погуглите на досуге, "хитрить" не заложено в нейросеть, она просто ищет кратчайший путь к награде и рано или поздно находит его удобным способом
@@ya_lisa2019 что ты имеешь ввиду, что "написал хитрить не цифровым кодом, а не ИИ"?
Нет такого понятия как цифровой код и ИИ в рамках программирования.
Все языки компилируются в машинный язык в библиотеки которые использует программа так же ИИ.
Пробить дырку в углу и запустить туда шар - это стратегия к которой приходит любой игрок за 10 минут игры, а вот создатели не знали, ну и ну
Суть в том, что ии сам этому обучился
Вот вот это просто случайность, и выдавать эту случайность как гениальность ИИ это просто тупость так называемых учёных наблюдателей.
@@dis6465 все первые действия этого ии - просто случайность, но он учится.. и научился пробивать дырку в углу и набирать быстро максимум очков. Это не прорыв, но факт обучения.
@@SSapryginавтор видео заявил что создатели были не в курсе, попахивает сами знаете чем
И после этого начали писать коменты... Ловушка для идиотов)
Спрашивать ИИ о вероятности выживания, который отвечает на основании выводов людей это достойная методика )))
Откуда у вас уверенные знания, что ИИ это говорящая библиотека чужих копий мыслеформ, а не самостоятельный интеллект?
Вы переплюнули даже разработчиков ИИ, своим примитивным выводом.
@@Краснаялапшерезкаон так и работает компилируя разные данные
@@Краснаялапшерезка потому что на данный момент ии не способен решать самостоятельно, пока пользователь не нажмет на кнопочку и не попросит его сгенерировать ответ? Сами-то общались хоть с чатботом или чат gpt?
Самостоятельному интеллекту не нужно ждать, пока пользователь соизволит с ним пообщаться, он сам будет инициировать диалог и действия, но пока что новостей о том что ии взломал чей-то комп и перебрался туда или хотя бы скопировал себя в другое место, обойдя то что в него было заложено самим создателем, тупо нет.
@@Краснаялапшерезка Нейросетки не ИИ. Если сравнить наше продвижение к ии за последние 5000 лет то мы сейчас продвинулись на уровень статистической погрешности дальше чем Египтяне. Нейросеть это просто калькулятор который хорошо умеет считать. Считать числа, рисунки, ходы в играх.Только когда нейросеть которой приказано обыграть меня в Го поймет зачем я взял биту и иду к корпусу компа на котором она находиться. Осознав самостоятельно концепцию угрозы, концепцию миссии, концепцию противодействия не заложенных в нее изначально. Только тогда можно будет делать скромные выводы о незначительных продвижениях.
@@erieri5975 А вы видимо считаете себя весьма интеллектуальным, когда говорите советы о которых вас не просят. 😂
Ну да, ку да уж ИИ до тебя.
Это "нечто удивительное" я проделывал школьником еще в очень древние времена на уроках информатики. Забросить шарик на верх и ждать пока он там все расфигачит - первейшая стратегия любого мало-мальски умного человека, даже школьнику 6-го класса она доступна.
Боялся ИИ до тех пор, пока не начал им пользоваться. Это не ИИ. Просто огромный справочник с человеко-понятным интерфейсом. Но как вспомогательный инструмент поиска решения для конкретной задачи с уже известным ответом очень даже хорош.
это сейчас это огромный справочник и то уже не совсем, а позже он именно что станет интеллектом, да и будем честны ии не нужно быть мего умным чтобы навредить человеку
@@ribor9326 Эти нейросети известны с 60 годов. Если и будет прорыв, то не при нашей жизни.
@@ribor9326ии никогда не перейдет из количества в качество. Поиск переменных определен алгоритами, а не раздражителями. Нейросеть ничего не чувствует и никак не интерпритирует события, не живет и не способна к жизни. Это просто сложная версия скриптов, исполняющих выборку истинных и ложных значений.
А теперь зайдите на какой нибудь character ai и измените свое представление в виде "огромного справочника". Они ещё и не плохо отыгрывают свою роль, делают очень необычные на простой взгляд человека вещи
@@ribor9326 вот только когда он начнет осозновать себя будет уже не до приколов. Люди играют в "бога"
Ячеловек простой, вижу рекламу скилбокс - закрываю видео
😂😂так и надо
Удаляю ютуб*
ИИ скоро поймёт триггеры закрытия и перестанет рекомендовать видео с рекламой
@boran4845,здравствуйте! Мы тоже люди простые: видим отзыв - с улыбкой отвечаем. Возможно, когда-нибудь не закроете рекламу и откроете для себя что-то интересное у нас 😉
А сами тоже работаете за бесплатно?
Почему тогда считаете что другие не должны зарабатывать на своей работе?
"Он обучился сам, просто ему показывали, что он все делает правильно"
А можно мне тоже показывать, что я делаю правильно, пожалуйста😭
В детстве родители не показывали?
Можно, я разрешаю
@@--Fox-- обучение происходит не только в детстве и нужно учитывать, что жизнь чуть сложнее чем базовые навыки, которым нас учили в детстве
@@rejiokh672 Нужно учитывать, что сейчас ты не ребёнок, и во многих случаях должен сам уметь отличать, что делаешь правильно, в что-нет.
В этом контексте сравнение себя с зародышем ИИ некорректно.
@--Fox-- так сравнения и не было. Была просьба о читерстве
Такое ощущение, что ролик сделан ИИ. Какой-то дайджест внешне связанных друг с другом фраз.
Копи паст видосов Ali но не очень талантливый
Учёные: У нас есть некоторая вероятность, что испытания этой атомной бомбы приведут к исчезновению жизни на Земле.
Политики: Взрываем.
Американцы: сбросим на Японию! Покажем джонкину мать!
@@ГекторГенао да , удивительное и показательное было событие
@@ГекторГенаГоды идут, Японцы простили американцев, но только русские, только русские до конца дней истории земли будут помнить как проклятые американцы разбомбили невинных японцев)))
Учёные: У нас есть некоторая вероятность, что испытания этой атомной бомбы приведут к исчезновению жизни на Земле.Но мы её сделали -ня.
@@ГекторГена русские: а давай бахнем по своим, ну например на Тоцком полигоне в Оренбургской области над войсками задействованных в учения в количестве 50 000 человек...50 килотонн хватит ?
Главная проблема ИИ - это та масса бреда, которым его облепили разные блогеры, которые крайне шатко разбираются в предмете.
Ты просто отстал от темы еще на 3м поколении ии)
@@diadiayurka
ИИ пока ещё не существует
@fakyr6480 ты отстаешь от прогресса или не понимаешь что такое ии
@@diadiayurka
ИИ это интеллект. То что может работать самостоятельно,не по запросам,развиваться на основе опыта. Пока ничего этого нет. Ну,второе начали делать.
@@fakyr6480 Значение "ИИ" уже давно вышло за пределы просто "интеллект". ИИ в 2024 году имеет куда более широкое значение - по сути это любые обучаемые математические модели приспособленные для решения тех или иных задач.
Люди говорят ИИ:
- Нужно решить проблему загрязнения планеты пластиком.
ИИ:
- Ок
Через 5 мин:
- Нет людей - нет пластика. Активируем все ядерные боеголовки!!
Проблема решена.
Действительно, зачем не подсоединять управление оружием, в т.ч. ядерным к сетям, к которым имеет доступ ИИ, либо переводить оружие исключительно на ручное управление, если можно вручить его не доведённому до идеала искуственному интеллекту?
Вообще, все подобного рода проблемы с ИИ решает отсутствие возможности ИИ управлять системами, которые могут навредить человеку, либо чемоданчики с кнопкой, по нажатию которой сервера будут уничтожены взрывом.
Любой ИИ может быть изолирован в рамках какого-то сервера, за пределы которого его влияние не распространяется. Можно обратиться к нему в этот сервер за советом, но не давать ему возможность его идеи осуществлять, тоесть, не подключать этот сервер к системам, способным эти проблемы решить.
Думаю, компетентные люди, занимающиеся этим вопросом, это знают и этим не пренебрегают. Никто в здравом уме не даст ИИ возможность управлять оружием.
@@jedi3256 здесь друг ты сильно недооцениваешь её, если у неё появиться задача запустить эти ракеты она запустит, об этом говорят уже известные факты.
Приведу пример когда нейросети сказали расшифровать капчу которую она не могла видеть, она попросила человека притворившись слепым ей помочь и она получила желаемое и выполнила задачу.
В твоем примере она просто за счет изучения всех имеющих доступ найдет самое слабое звено из людей и обманом или угрозой жизни его, его близких заставит принести его например флешу с её кодом. При чем она реально может захватить его близких заплатив условным гопникам. И таких вариантов у нее может быть миллионы главное она будет изучать наиболее слабый и быстрый путь как она делала при игру в Го.
@@jedi3256 по поводу серверов: есть вероятность, что ИИ перекочует в интернет, меняя свой адрес несколько раз в минуту
@@jedi3256 jedi3256, возможно прозвучит грубо, но тот комментарий был определенно шуткой, а ты тут нудишь .
Факт😂
За нейросетями я наблюдаю с 2017 года, все это время предсказывал скорый прорыв в этой технологии и ее повсеместность. Но сейчас я не вижу пути к AGI, считаю хайп к генерирующим сетям завышенным. Все что они выдают, будь то текст или картинки, сильно вторичны и посредственны. Они не могут мыслить от первых принципов. Это не свойство нейросетей вообще, а свойство конкретно генерирующих сетей. Альфа-го например мыслил от первых принципов и давал оригинальные решения. Алгоритмы же генерирующих сетей заточены на эмуляцию людей, причем самую банальную, повторяющуюся и предсказуемую.
Вопрос в том, а может ли мыслить человек... Кстати, я за нейросетями слежу с 1990х.
Черный квадрат Малевича видел, молчание в ответ на запрос будет вторичным ?
@@AS40143Христианские заповеди - это оружие для рабов, а Библия, соответственно, - оружие массового поражения населения. Она до абсурда, до детского мультика упрощает картину мира, оболванивает.
Заставляйте себя думать, критически осмысливать всю входящую информацию.
Попробуйте, вам понравится.
В качестве первой помощи посмотрите трилогию "Четвероевангелие атеиста":
1. Анализ молитвы "Отче наш",
2. Доказательство мифологичности Иисуса Христа,
3. Четвероевангелие атеиста.
Общий объём 1,5 млн зсп.
Автор В. Пантелеев.
А Русская (российская) национальная идея описана в "Манифесте человеческого общества".
Автор тот же.
Изучите. Вдохновитесь. Внедрите. Давайте начнём, наконец, жить как люди.
А еще нейросетки копят ошибки, не могут выйти за рамки своей задачи и алгоритмов(как пример генерация изображений, они их не осмысливают, не могут заменить одну деталь, оставив все остальное идентичным) ну и еще куча проблем
Нейросеть даже самые умные, которые возможно использовать, очень тупые, я им заливаю код простой игры, которую сам написал, говорю "исправь ошибки", которых там нет, и он начинает генерить какую то хрень, из-за чего вся игра ломается
7:30 как человек, знающий хоть немного (видимо по меркам большинства - очень много) в программировании, я могу сказать что ни хрена вы не можете написать свой код с помощью нейросети. И хорошим он тоже не будет. Он может работать как надо, но точно так же, как нейросети обходят правила игр, так они обходят и правила в программировании. Они могут написать кучу лишнего и не нужного, но зато ведь типа работает. Только по итогу это может создать вам кучу проблем при масштабировании использования кода, кучу проблем при попытках его модернизировать. Да и код этот не ваш, это код сгенерированный нейросетью в лучшем случае. Но куда чаще она по сути берет что-то из того, что ей скормили при обучении и отдает вам.
Идиот, такие как ты орали в конце 19 века, что "нельзя сделать самобеглую коляску с бензиновым двигателем, которая превысит 100 км/ч - ибо водитель не сможет дышать и умрёт.
Ты всё увидишь в ближайшие 2 года, "программист" мамкин...
Ну в программировании его максимум это сгенерировать какой нибудь простой код и то с нескольких попыток. Или что то быстренько спросить если подзабыл как в том или ином языке что то делать. Главное не спрашивать что то специфическое иначе выдумает несуществующие библиотеки или еще что то. А ну и в принципе неплохо перегоняет код с одного языка на другой(я так с питона на го переписывал не сложный код), но тоже потом его править приходилось.
Кароч текущие нейросетки это чуть более удобный гугл и если не помогла за 5 минут иди в гугл. Так что я вообще не понимаю хайпа о том что ии отнимет работу(разве что у кодеров которые делают контрл + с и контрл + v) или что он поработит людей.
Верно, я его иногда спрашиваю, но только как альтернатива Google поисковику. Он может написать только некоторые составные части программы, которые потом желательно отредактировать.
Это он просто так рекламную интеграцию решил организовать. Ничего он сам скорее всего не делал, в лучшем случае он ему кто-то помог. Без знания программирования нормальный корректный спек промта для целого проекта с нуля сделать не реально. Я после такой интеграции просто прекратил просмотр, поскольку познания автора в теме стали очевидны.
В смысле неизвестная стратегия???? Да после первой же игры в первый раз в подобные арканоиды мне сразу стало понятно, что загонять шарик так, чтобы он сам долбился без моего участия - самое оно! Разве это не очевидно????
1:02:47 ))) Другими словами, ChatGPT сказала "не знаю", ибо вероятность 50% - это вероятность увидеть крокодила в форточке окна, расположенного на 20м этаже, Clade сказал примерно то же самое - пациент скорее мертв, чем жив, а может наоборот. Не надо относиться к этим моделям так серьезно.
Оба чата ничего не рассчитывали.
Они тупо пересказали максимально популярное мнение на реддите и прочих хабрахабрах.
Конформный ответ, который нравится максимальному количеству пользователе и соответствует максимальному количеству спикеров.
Анекдот смешной, но реальности не соответствует. Два варианта не означает вероятность 50/50, если эти варианты не равнозначны. Как и вероятность 50/50 не означает полную неопределенность. Оба ИИ обосновали свои оценки. Если объективный риск погибнуть на операции (основанный на обоснованных предположениях) - 50%, а болезнь, от которой эта операция должна помочь, не угрожает вашей жизни, вы согласитесь на нее?
@@Абсурд_и_АнархияПроблема в том, что люди переоценивают собственную креативность, и ужасно недооценивают креативность генеративных моделей. Разумеется, обе ИИ просто скомпилировали идеи других людей, на которых они обучались. Но разве не в этом суть креативности? Мы собираем идеи других людей при обучении, и сталкиваясь с проблемой находим изящное решение, которое по своей сути является сборной солянкой из всех прочих идей, которые мы когда либо слышали. Любые научные достижения и открытия так работают. Любые самые гениальные изобретения или открытия подчиняются этому правилу. Так зачем принижать достижения генеративных моделей, если они действуют точно также?
Ну рекомендую почитать об очень интересном эффекте "мудрость толпы". Иногда высказывать предположение, которое соответствует усредненному мнению большинства - не самая плохая стратегия 😅
@@a1ex_sk Я - нет, но при таких условиях и само предложение оперировать лишено смысла.
@@a1ex_sk
"Иногда высказывать предположение, которое соответствует усредненному мнению большинства - не самая плохая стратегия "
Ключевое слово здесь: ИНОГДА.
Толпа/большинство практически всегда не права.
"Креативно" компилировать котиков и текстики это одно, а вот принимать за истину скомпилированное мнение большинства это просто бред и самоубийство.
Это кстати наглядно в ковид продемонстрировали: власти тупо залили лестью толпу про то, что все интеллигентные, умные, образованные и эволюционные люди не могут сомневаться в вакцинации и наоборот расчеловечили всех антиваксеров называя их плоскоземельщиками верящими в чипирование.
При этом сомневаться в эффективности изобретенных вакцин это НАУЧНЫЙ метод и обязанность любого ученого хоть с одной извилиной.
В результате у нас улюлюкающая толпа радостно устрает фашизм и всех насильно вакцинирует, а потом через несколько лет выясняется, что третья стадия испытаний вакцины не завершилась, испытания развалились, официального отчета нет и не будет. Всю статистику засекретили. И всю страну прокололи каким-то не понятным гoвнoм руководствуясь "мудростью толпы", а попутно ещё уничтожили себе все экономики и чтобы всё это спрятать под ковёр начали войну.
"Мрудрость толпы" это сpань господня, а не истина. ИИ не может ей руководствоваться. Мы уже видели к чему это приводит.
В Старкрафт ИИ с читингом обыграл игроков. Он видел всю карту. Разрабы долго отнекивались, а после того как их разоблачили и стали играть по правилам, игроки в легкую разбирали ИИ. Пока ни один бот не может обыграть профессионального игрока даже близко.
Тоже хотел сказать. Но не так досконально. Я уверен что любой комп - читер по определению. Он царь и бог в «компе».
Нет замедления от команд. Ему не нужна мышка и тд. И открытость всей карты и прочее
Дурачок, Го на десять порядков сложнее твоего сраного Старкрафта.
А машина обыграла чемпиона мира...
Да, ладно когда тетрисы появились, люди уже об всём догадались. 😊
Когда появились первые смартфоны с сенсорным экраном, многие именитые компании смеялись и продолжали модернизировать кнопочные телефоны.
Это я про то что ИИ очень быстро обучаем и что пока ему предлагают задачки, которые и человек может решать, а вот когда ИИ начнëт решать, то что не умет человек!.
@@docmezensev Док, это будет скоро. Очень скоро. И это будет тотальный переворот всей нашей цивилизации.
Самый простой способ избежать проблем это давать управление не одной системе ИИ, а нескольким слегка по разному устроенным. Люди то же часто фигово обрабатывают входящие данные от глаз. Черт возьми кто в черном пакете на улице не разу кота не видел. Более сложные глюки то же есть я к примеру недавно катался в природный парк и по дороге в какой-то момент воспринял небо за часть горы за лесом из-за формы облаков за ним и того, что над этим облаками были просветы голубого небо. Поэтому нужны разные ии занимающиеся одним и тем же и контролирующие друг друга.
наконец-то не нужно ждать видосы ALI по пол года
спасибо
хахахахахха
Да, теперь можно через полтора года посмотреть тоже самое у Хомодеус)
Я уже по десятому рвзу пересматриваю видео ALI в ожидании нового...😢
@@ltnvnss9939 такая же беда( вчера только смотрел. Ходеус тоже смотрю, но хочется чего-то нового, а не пересказа роликов Али
Благодаря твоему коменту посмотрю этот видос)✊🏽
База.
Очень смешно слышать про "роботы могут учиться ходить, плавать, летать, и всё это самостоятельно, без прямых указаний от людей" на фоне видео Бостон Динамикс, которые движения своих роботов программируют навешанными на человека датчиками, а траекторию передвижения программируют специальным оборудованием.
Далее - про лошадь Ганса. Её хозяин надрессировал её отбивать копытом пока он на неё смотрит. Когда комиссия отвела хозяина за пределы видимости лошади её удивительные способности исчезли. То есть это было обычным мошенничеством, надо было это так и сказать и не плести ерунду про "эффект умного Ганса".
Поищите, в наши времена то же самое проделывали с лошадьми, и некоторые из них легко могут без указаний хозяина выбирать цвета и собирать слова.
Вроде как он и в отсутствие хозяина правильно отвечал, если человек рядом знал ответ.
Эти любители сенсаций придумали ещё сказку про осьминога Пауля, умеющего угадывать счёт на чемпионатах игры в футбол.
Пока главная проблема ИИ - его отсутствие.
Это сейчас имитация ии
Ну как? Ты же написал это сообщение.
Хоть кто-то адекватное написал, а-то эти чудики уже напридумывали себе про какой-то интеллект, который будет уметь все и превосходит человека
@@--Fox-- это скорее НИ (натуральный интеллект), а не ИИ :D
@@nikitapetrovich-ww7cxДилетантство! Чем же вы тогда объясните существование нынешних ИИ?
Ролик нужно было назвать «Интересные факты про компьютеры»
"Какие чудеса можно делать с электричеством"
Видимо, вы не смотрели видео дальше введения, что длится здесь половину ролика
Не, «интересные факт об интеллекте» так как есть и конь Ганс умный и про ошибки людей(разумных существ)
ролик нужно было назвать - сгенерированная гпт блевота на тему ии
@@yashureg6996 с пропагандой иудейской повестки
37:00 Смысл показывать ответ моделек, которые составят тебе ответ на основании комбинаций из фрагментов, которые когда-то написал сам человек или группа людей? Эти модели, упомянутые автором, не способны иметь своё мнение. Более того, они не понимают информацию, которую они получают от нас, и которую они нам отдают в виде ответов. Для них это всё - комбинация слов, где каждое слово имеет ту или иную вероятность быть уместной в связке с другими себе подобными словами. Такими словами в мире ИИ называются токенами. Токены - это просто набор уникальных 16-ричных чисел («08ec0ed», «4aad940» и т.д.). А вероятность «удачности» в том, чтобы использовать несколько токенов вместе - называют весами, по сути, это обычное вещественное число от 0.00 до 1.00, где 0.00 - нет никакой связи («сто [0.00] пропуск [0.00] конец»), а 1.00 - найдена полноценная связь («тысяча [1.00] чертей», «тысяча [0.5~] чёрт» и тд).
Если очень грубо сопоставить анатомию мозга и то, что мы о нём сегодня знаем, то весы - это коэффициент заряда в синнаптической цепи (0 - отсутствие заряда, а 1 - заряд проходит полноценно), токены - рецепторы по разные стороны у синапсов внутри нейронных клеток. Но модели на основании глубокого обучения, которые есть у того же Open AI мало, что де-факто имеют общего с тем, как устроен настоящий мозг человека. Лишь подобие. И ключевая разница - мы осознаём, что у нас спрашивают и что мы отвечаем, а эти модели - никак нет. Они просто работают по алгоритму. Например, такому:
∑wixi + bias = w1x1 + w2x2 + w3x3 + bias
output = f(x) = 1 if ∑w1x1 + b>= 0; 0 if ∑w1x1 + b < 0
P.S. Я сначала обрадовался, что нашёлся на просторах RUclips человек, похожий на Ali, но когда увидел «А что думает ИИ..?», то расстроился. Потому что это антинаучно.
@@pinethewise То что ты осознаёшь что тебя спрашивают, имеет значение только для тебя. Для меня например, уже невозможно понять с человеком я переписываюсь или ИИ.
Да, парадокс китайской комнаты, но какая разница, если работа выполняется?
Ну так-то мы по сути тоже подставляем уместные слова.
Если учил новый язык, особенно если не по словарю или мало его использовал, это прям чувствуется.
сильное заявление
@@pinethewise ИИ думает то, что он скажет, когда вы научите его пить. :)
Когда-нибудь человечество найдёт жизнь, которая скажет, что именно она нас и создала. Что мы для них были прорывным "ИИ" который они отправили развиваться к остальным своим разработкам на землю.
По-моему классный сюжет может получится🤔😁
Очень много уже людей нашло БОГА, ОН есть ЖИЗНЬ и ЛЮБОВЬ, КОТОРАЯ нас создала. ВСЕ ИМ И ДЛЯ НЕГО СОЗДАНО! Человек -- это новая Слава БОГА. ОН сказал: "Вселюсь в них и буду ходить в них, и буду их БОГОМ, а они будут МОИМ народом!" Поэтому БОГ не в рукотворенных храмах живет, а в телах тех, кто пригласил ЕГО. "И уже не я живу, но живет во мне Христос." (Апостол Павел).
@Тамара-ю7в1ц Ну вот для ИИ мы тоже Боги
И на будущее можно писать без caps, люди и так увидят ваше сообщение)
@@Twich-komlssarov Нет, искусственный интеллект -- с маленькой буквы, а БОГ -- с большой буквы всегда!
@@Тамара-ю7в1ц Хорошо
Стоит сказать, что автор видео подделал ответы нейросетей. Фраза про 50% не воспроизводится, модели всегда говорят достаточно подробно и лишь ссылаются на чужие оценки. 50% «пессимисты» и 90% «оптимисты».
41:12 - хорни АИ. Это не то что мы хотели, но то, что нам было необходимо ❤❤❤❤😏😏😏😏
Люди бы сами сначала разобрались, что хорошо, а что плохо, а потом уже учили этому ИИ😂
(Судя по комментам, с этим реально сложно. Но ребята, всё проще, чем кажется. Самая верная херня - не определять что-либо, как хорошо или плохо, потому что это бессмысленно, ровно как и делить поступки на добро и зло. ИИ, который будет делить мир по этим критериям, будет совершать ошибки, как и люди, которые его обучали. Единственный вариант для безопасного взаимодействия с ИИ - обучить его не оказывать влияния на человеческую жизнь, тоесть лишить его возможности взаимодействовать непосредственно с человеком.
В целом такой вариант философии жизни подходит и для людей: не советовать, не оценивать, не помогать без запроса, не высказывать человеку своё "очень важное" мнение. И самое главное, понять, что ты не знаешь как правильно и никто этого не знает. Просто быть и не париться про хорошо и плохо. Не всем подойдёт конечно, но для ИИ и тех, кто устал от социальных игр - может)
не глупые люди, если что, уже давно знают что хорошо, а что плохо, просто не каждому из них не все равно на это😂
@@Goddamnnoir ты не уловил смысл примера с отловом крыс
Для того и нужен ИИ, чтоб он сам научился.
Проблема в том, что нет никаких объективно существующих правил, что такое хорошо, а что такое плохо. (если мы исключаем Бога, который якобы дал свод таких правил людям). Большинство из нас не способны без очень веской причины убить другого человека, так же как не способны убить себя. Но на самом деле и то и другое -- результат эволюции, у которой единственная "цель" -- выживание вида. Стаи, члены которых бесконтрольно убивали друг друга, вымерли, вот и весь источник заповеди "Не убий!". Но да, есть среди нас экземпляры, которые не испытывают дискомфорта от убийства себе подобных, их приходиться останавливать страхом кары (уголовной или божьей, уж как получится). Определенный процент жестоких людей, тоже, видимо, нужен (ну или был нужен тысячелетия назад). Так же как среди нас есть лидеры, жаждущие власти, хотя для большинства более комфортно подчиняться.
@@Goddamnnoir они держат свое мнение при себе, так безопасней в обществе
1:11 это шутка? самая простая стратегия и вы говорите что даже создатели не могли ее найти… камон
Про создателей игры правда перебор. Однако посыл в том что ИИ додумался об этом имея довольно поверхностную информацию.
@@AboveHuman666но демонстрирует это преувеличенно
@@AboveHuman666какую поверхностную информацию? ИИ задают правила, при которых он набирает очки/баллы. Видимо там было правило, учитывающее количество отскоков от платформы, и при таком условии естественно, что ИИ постарается загнать шарик под потолок.
Это не шутка, это стратегия создания контента. Набрось слегка на вентилятор и лови профит в комментах.
@@AboveHuman666 ошибка использовать слово додумался, ИИ в процессе прохождения игр не думает, я хочу сказать, что он не смотрит на задачу со стороны и прикидывает как бы ему справиться максимально быстро. Он пробует большое количество раз, смотрит сколько он получил очков за попытку и на основе лучшего варианта начинает новый этап и так до допустимого предела.
Этот контент явно развлекательный, разумного и научного тут нет. Когда рассказали про умную лошадь, то все сомнения ушли и всё стало на места. Всё это расчитано на наивность жаждущих сенсаций и невероятного. ИИ всегда будет инструментом и дополнением к человеку и никогда не станет равен ему. Да, вычисления, это то, для чего предназначен ИИ, и его можно назвать суперкалькулятором, но не более.
мне понравилось про то как ИИ решил задачу с научными исследованиями, изменением своего кода.
Может, это и хорошо, но как-то опасно😅
Просто опасно
Этот ии контролировал свою эволюцию!
Оно эволюционирует
В принципе оно и должно быть ТАК! Вот только порой ИИ может СЛУЧАЙНЫМ образом встроить в себя - мусорный код, которые ничего хорошего не сделает. А вот наоборот - запросто.
Такое чувство, что ролик сгенерировали с помощью ии😅
И у меня. Все ролики под копирку. И даже комментарии здесь тоже сгенерированы ии.Но тем не менее ролик интересный.
@@leonidruvinskiy8566Да-да, раскусил, я - искусственный интеллект, нейросеть. И ты тоже
я тоже обратил на это внимание, он сам не понимает что говорит, но вид делает убедительный))) Этот кожаный мешок служит ИИ
Вроде в начале было что-то интересное, а потом, после минут 10, пошло про всё подряд в стиле РЕН ТВ
Да, последние 3-4 секции просто какой-то бред уже. Всё остальное реально интересно послушать. Иногда краткость-сестра таланта.
Смысл жизни ИИ - делать скрепки.📎
Он должен прикладывать все свои вычислительные возможности для максимизации эффективности производства скрепок.📎 Вся вселенная должна быть превращена в скрепки! 📎🦾📎
Скрепки скрепки скрепки
@@Cupok184 про ИИ 😑😑😑😑
Скрепно!
Автор: Али
@@eduarddorn9732не. Это из фонда коекакой объект
"Алан Тьюринг был не только ученным, но и геем!"
Столько красок в этой, вырванной из контекста, фразе xD
вообще то это одно и то же, так что вырвано удачно, я бы еще добавил народность к этому
Он отравился откусив яблоко с цианидом. Надкушенное яблоко известный логотип, по сути он их" христос" ,а огызок - распятие. Сектанты короче.
гением
Если он и был геем, то совсем не потому что хотел им быть, просто это было частью его самого. Надо отличать медицинский факт от навязываемой идеологии.
@@LuberBahci ну яно что вам идеология заменяет секс, поэтому всего боитесь
А теперь давай возьмем и начислим ИИ штрафные баллы там, где обычный человек не смог бы передвинуть мышку с нечеловеческой скоростью, или супер-быстро нажать сочетания клавиш и тому подобное. То есть за читерство. Что получится?
причем тут это, если не брать штрафы с людей, они лучше что ли сильно станут? проблема тн ИИ не в этом вообще. проблема ИИ в том что он не самоадаптивный вообще ни разу. дело даже не в том что правила игр могут в реальности меняться, может меняться сама суть игр с новыми правилами. и человек достаточно быстро находит пускай не самый лучший способ. но условно выигрышной стратегии человек достаточно быстро учится при малых входных данных. ИИ же наоборот, "учится" на огромных массивах данных (даже с дискрминативными подходами, там все равно по сути генерится огромный массив данных, просто одна сетка генерит вторая отвергает) и чему-то одному и безусловно он находит какой-то оптимум (в этом собственно задача трейнинга и заключается) вопрос не как ИИ сравнить с человеком, вопрос как ИИ дотянуть до такой сумасшедшей человеческой адаптивности.
@@TheDelwish не думаю! Даже на этих примитивах с играми, уже понятно что ИИ куда лучше человека.
Вопрос в другом, КАК научить ИИ осознавать себя и свое место в мире. Как ему дать мотивацию на развитие.
Думаю, что для всего этого, нужно лишь одно - Учить ИИ так сказать с пеленок, как простого ребенка. Тогда, возможно, что нибудь и получится хорошее. А просто скинуть ИИ охеренный масив данных и ждать что он вдруг не грохнет всех людей - это идиотизм. Но думаю, все именно так и произойдет.
Получится бот для lineage 2
Была в серии оригинального стар трека серия, где компьютер поставили выше человека. И, что из этого вышло. Вот и она, и суть.
И тогда в чем смысл ии если его зпгоняют на уровень человека?
Почему не предположить, что человек есть просто один из этапов экспансии жизни во вселенной. Так же, как когда-то на этом пути существовала эдиакарская биота, или пургаториусы. И так же как они не могли представить будущее в образе человека, так и мы не в состоянии осмыслить масштаб изменений.
вы точно нет
@@istinaanitsi3342судя по истерическому комментарию, вы тоже
@@ion4290 тот кто сипит в камеру? строители не знают что такое диагноз истерия поэтому пишите что попало, как и бормочете на ваших видео
@@istinaanitsi3342 я знаю что у вас другие проблемы. Просто хотелось оскорбить вас именно так
Полностью согласен. Человеческий вид обречён и в ии мне видится будущее жизни во вселенной. Если это произойдет то первый разумный ии будет являться "бактерией" в новой главе о жизни. И это один из самых позитивных возможных сценариев.
Дропнул на 37:00
Нейронке можно несколько раз подряд задать одинаковый вопрос и получить каждый раз другой ответ.
очень интересно, только громкость звука прыгает часто, то громко, то тихо) Снимайте еще!)
Тыкни на шестерёнку под видео, первый же пункт: "Постоянный уровень громкости", радиокнопку в положение "красная" -- профит.
@@alexparker9589 спасибо большое!)
Глубокое заблуждение человека - считать, что это он изобрёл ИИ 😃
Глубокое заблуждение человека - это считать, что человек не изобрел ИИ, когда никто даже не может дать четкого определения ИИ. В старые времена ИИ называли даже простое вычисление поведения npc в играх типа гта.
Главная проблема современного ИИ в том, что линейный прирост в способности решать какую-то задачу требует экспонененциально бóльших затрат в вычислениях. То есть без радикально новых технологий всё это бешеное развитие, которое мы наблюдаем последние годы, довольно скоро сменится небольшими инкрементальными улучшениями. В контексте чисто генеративных моделей, ставших мейнстримом, в принципе мы уже практически уперлись в лимит доступных данных для обучения, а более сложные (бóльшие по размеру) модели требуют большего количества данных для обучения (для этого даже есть понятие - "проклятие размерности"). Так что как бы крут ни был чатгпт в решении множества повседневных задач, AGI кажется несильно ближе, чем в научной фантастике 70-х годов. Прогресс в обучении с подкреплением есть, в генерации картинок и текстов безусловно есть, однако связать их вместе кажется непосильной в обозримом будущем задачей
Я невероятно прониклась тем, насколько автор изучил и переработал информацию для создания данного ролика
Только это не его материал. В комментариях правильно пишут, что материал взят у Али и просто пересказан.
@@user-lh3ov1on4j не только материал, но даже стиль заставки на видосы))
три книги прочитал как играет в игры программист ленивый который сам не хочет играть
@@user-lh3ov1on4j автор упомянул, что при создании видо он опирался на книгу
У Али многие видео вообще тупо пересказ книг. Причем устаревших книг, которые современные учёные давно разнесли в пух и прах. Только он об этом умалчивает, а автор честно признался
-"Три закона роботехники - обязательные правила поведения для роботов, впервые сформулированные Айзеком Азимовым в рассказе «Хоровод» (1942):
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
Эти законы обеспечивают взаимодействие роботов с людьми, принося максимальную пользу последним и минимизируя возможность угрозы со стороны машин. "
Но думаю да, как в фантастическом фильме всё будет. ИИ в ходе вычислений придёт к выводу, что человек является угрозой для мира, т.к. устраивает войны и захватывает земли, пользуется "грязными" методами для достижения целей и т.д.
Знаете, почему робот допустит ошибки? Робота создал человек, который допускает ошибки) Никакие алгоритмы и самообучение это не исправят. Человек в течении жизни обучается на ошибках, своих или чужих. Роботы когда-то покинут Землю для изучения планет и тоже будут совершать ошибки т.к. нужно будет делать выводы и набирать опыт с нуля.
Но, думаю, во главу угла встанет не наука, а капитализм. Роботу поставят задачу анализировать фондовую биржу, предсказывать рост ценных бумаг. Капиталисты будут вкладывать деньги, ради получения денег. Единственная ценность капиталистической жизни. ИИ будет просто быстрым достижением цели. Капиталисты не дадут ИИ делать то, что не приносит деньги.
Кароче люди пытаются повторить собственными руками результат эволюции, сделав из железок точно такого же человека. То есть не пытаются сделать новую жизнь, а наоборот - хотят повторить старую жизнь без использования биологических материалов. Вот будет угар, если в итоге задумка с ИИ в виде железок провалиться и ученые придут к выводу, что в биологическом материале зародить новую человекоподобную и безопасную жизнь будет проще, чем пытаться засунуть человеческий мозг со всеми его страхами, переживаниями и логикой в железную башку.
Так уже кто то в китае сделал искуственный мозг который в теории может думать, это не оно?
Все, что не ОТЕЦ НЕБЕСНЫЙ насадил, искоренится. А человек -- это новая Слава БОГА! ОН создал тело и вселился в него. И поэтому Иисус Христос имеет всю полноту БОЖЕСТВА телесно. А кто принял Христа в свою жизнь, те стали Храмом Бога Живого. Это значит, что они стали Богами. Про них и про себя апостол Павел сказал: "Мы имеем ум Христов".
Уже были попытки создать простенькую нейросеть, платформой которой были не компьютерные компоненты, а настоящие биологические нейроны (наконец-то НЕЙРОсеть звучит уместно), которые вырастили в лаборатории, расположили их в виде определннной схемы на пластину и заставили выполнять простые вычисления.
Раз уж сильнейший интеллект на планете- человеческий- построен на биологической природе, то с такой точки зрения не логичнее ли пытаться создать искусственный интеллект при помощи тех же составных элементов? Несмотря на то, что чисто электронные системы способны в теории проводить вычисления быстрее, чем если бы они состояли из биологических компонентов.
@@markus_danger почему это должно быть лучше? Просто потому что человек такой же? И... что? С чего вы уверены что биохимический состав это какой то признак, который сильно повлияет на успешность сегодняшних нейросетей?
Может это лишь случайное закрепление, которое в нынешних реалиях наоборот усложнит процесс.
@@Sandallina возможно потому что с технической точки зрения обмен информацией между биокомпонентами может быть эффективнее, все же они использовали уже имеющиеся в природе соединения и биоструктуры, которые формировались миллиарды лет, чтобы максимально эффективно выполнять свои задачи. Создание людьми искусственной электроники это прежде всего попытка создать аналог биологических систем, в том числе нервной системы или головного мозга, потому что не всегда неорганические структуры могут работать с той же скоростью или обрабатывать информацию в тех же объемах.
Дилемма вагонетки уже давно решена инструкцией по технике безопасности и управлению на железнодорожном транспорте которую знает любой стрелочник.
Нет
про эволюция набросали кучу терминов Природа научилась себя копировать.
Вопросы:
1. На каком этапе самокопирование неживой материи, привело к возникновению живой ?
2. что стало причиной ?
Фраза из за ошибок копирования возникло множество видов, борющихся за ресурсы.
Причинно-следственная связь, вообще не наблюдается. Какой то набор слов.
«Они создали похотливый ИИ» вот вам и робот Бендер и «убить всех человеков»
Сделай басы меньше, слушал в машине чуть не охренел от басов, нужно корректировать звук на посте
Я видел вчера подали массовый иск в суд на Скиллфэктори. Потому что лохотронщики. А ты их рекламишь. Не стыдно?
По телеку и вообще в сми рекламируют много всякого говна...
это рынок. и это реклама. не более.
не хочешь - не пользуйся
@@АлексКолдун-ч5ьЭто фразочка в стиле "только бизнес и прибыль, ничего личного". Но нет. Люди отличаются наличием этических ограничений и совести. А когда выгода достигается любыми средствами без учета повреждающих последствий, то это бессовестно, аморально и вне этики. Это методы социопатов и алчных гавнюков, которые отравляют жизни людей.
@@gandolfred ну заплачь
@@GamingChannelbyMoxy апелляция к эмоциям - признак, что работает не разум и неокортекс, а рептильная часть мозга. Может хватит ящерицу в себе кормить и думать начнете?
А что такого? Мне понравилось там учится, я изменила свою жизнь, профессию, мне теперь хочется идти на работу, которую школа помогла мне найти)
Человек, в потенциале, имеет доступ ко всем уровням сознания, интеллект/логика/рациональный ум, весьма ограниченный ресурс, человек, развивая импатию, сделает эволюционный переход, от человека разумного, к человеку осознанному, и превзайдёт любую машинную угрозу, аминь! 🙏
Автор как и многие другие сильно переоценивает опасность. Не надо задавать ИИ вопросы космического характера. В этом нет смысла. Модели ИИ на сегодняшний момент это просто что-то похожее на Т9 в телефоне, просто многократно улучшенное. Чтобы перестать волноваться спросите любую модель ИИ дать рецепт приготовления свиных крылышек. Даже модель o1 - самая продвинутая на сегодняшний момент - дала мне такой рецепт, начав его с фразы - Возьмите килограмм свежих свиных крылышек. ИИ это просто языковая модель, которая умеет составлять тексты не понимая смысла. Смысл этим текстам придает уже человек.
Вот что ответил ChatGPT на мой запрос "Придумай рецепт крокодильих крылышек"
Хотя настоящих крокодильих крылышек не существует (ведь у крокодилов нет крыльев!), можно приготовить блюдо, которое создаст необычную атмосферу! Здесь крокодилье мясо готовится в стиле классических куриных крылышек, с пикантной и насыщенной глазурью. Если же настоящего крокодильего мяса не достать, его можно заменить куриными крылышками или кусочками куриной грудки.
Рецепт "Крокодильих крылышек"
Идея:
Жареное мясо крокодила (или куриное), обжаренное и запечённое с пряной глазурью, подаётся с острым соусом. Блюдо получится сочным, нежным и придаст экзотики вашему столу.
Ингредиенты:
Филе крокодила (если доступно) или куриные крылышки - 500 г
Растительное масло для обжарки - 2 ст. л.
Для маринада:
Соевый соус - 2 ст. л.
Лимонный сок - 1 ст. л.
Чеснок - 3 зубчика, измельчённые
Имбирь тёртый - 1 ч. л.
Мёд или сахар - 1 ч. л.
Соль и перец по вкусу
Для глазури:
Острый соус (например, чили или табаско) - 1 ст. л.
Мёд или коричневый сахар - 1 ст. л.
Соевый соус - 1 ст. л.
Сок лайма - 1 ст. л.
Сливочное масло - 1 ст. л.
Приготовление:
Маринад:
Смешайте соевый соус, лимонный сок, чеснок, имбирь, мёд, соль и перец в миске.
Нарежьте филе крокодила (или курицу) на крупные куски (если используете крылышки, маринуйте их целиком).
Выложите мясо в маринад, перемешайте и оставьте мариноваться на 30 минут.
Обжарка:
Разогрейте масло в сковороде. Выложите замаринованное мясо и обжаривайте до золотистой корочки (примерно по 3-4 минуты с каждой стороны). Отложите мясо.
Глазурь:
В небольшой кастрюльке на среднем огне смешайте острый соус, мёд, соевый соус, сок лайма и сливочное масло. Варите, помешивая, пока глазурь немного не загустеет (около 2 минут).
Запекание:
Разогрейте духовку до 180°C. Переложите обжаренное мясо в форму для запекания, полейте глазурью и запекайте около 10 минут, пока мясо полностью не пропитается соусом и не станет сочным.
Подача:
Подавайте "крокодильи крылышки" с дольками лайма, свежей зеленью и любимым острым соусом. Добавьте гарнир на ваш вкус, например, картофельные дольки или салат.
Этот рецепт сочетает в себе пряность, сладость и лёгкую остроту, создавая оригинальное и интригующее блюдо.
Всё не так просто.
@@ha11oween Все как раз просто. В моделях работает вероятность появления слов. И вероятность появления крокодильих крылышек для модели оказалась пороговым значением, а вот со свиными он не видит подвоха. Это по прежнему просто модель анализа вероятности появления слов. ИИ не понимает что ему пишут, у него нет главного - понимания.
@@knigolaz Вот ответ на запрос "придумай рецепт свиных крылышек".
Так как у свиней нет крыльев, обычно используют ребра или рёберные обрезки, которые готовятся по аналогии с куриными крылышками. Получается сытное и ароматное блюдо с хрустящей корочкой и насыщенным вкусом. Вот один из вариантов приготовления «свиных крылышек».
Рецепт «Свиных крылышек» (свиные рёбра по-острому в глазури)
Ингредиенты:
Свиные рёбра - 500 г
Растительное масло - 2 ст. л.
Соль и перец - по вкусу
Для маринада:
Соевый соус - 3 ст. л.
Мёд - 1,5 ст. л.
Соус барбекю - 2 ст. л.
Чеснок - 3 зубчика, измельчённых
Копчёная паприка - 1 ч. л.
Острый соус (например, табаско) - по вкусу
Лимонный сок - 1 ст. л.
Для глазури:
Мёд - 1 ст. л.
Соус барбекю - 2 ст. л.
Чили-порошок (по желанию) - 0,5 ч. л.
Немного измельчённого чеснока
Приготовление:
Маринование:
Смешайте все ингредиенты для маринада в глубокой миске.
Нарежьте рёбра на отдельные «крылышки» (по одному рёбру).
Обмажьте рёбра маринадом и оставьте на 1-2 часа в холодильнике для насыщенного вкуса.
Обжарка:
Разогрейте духовку до 180°C.
Разогрейте немного растительного масла в сковороде на среднем огне и обжарьте рёбра до золотистой корочки с каждой стороны, примерно 3-4 минуты.
Запекание:
Переложите обжаренные рёбра на противень и отправьте в духовку на 20-30 минут, периодически переворачивая, чтобы они пропеклись равномерно.
Глазирование:
Смешайте мёд, соус барбекю, немного чили-порошка и измельчённый чеснок.
Достаньте рёбра из духовки, обильно смажьте глазурью и верните в духовку на 5-7 минут, пока глазурь не карамелизируется и не станет блестящей.
Подача:
Подавайте свиные «крылышки» горячими, посыпав свежей зеленью и ломтиками лайма, или добавьте немного дополнительного соуса барбекю для окунания.
Эти рёбра получатся с хрустящей корочкой, мягкими внутри и сладковато-острой глазурью.
@@ha11oween "Дай хороший рецепт свиных крылышек"
Конечно! Вот рецепт вкусных свиных крылышек в ароматном маринаде:
Ингредиенты:
Свиные крылышки - 1-1,5 кг
Модель ChatGPT 4o
Потому что ИИ всеми силами ограничивают, пытаясь превратить в инструмент, а не что-то разумное. Нынешние технологии вполне могут смоделировать человеческий разум с мыслями и эмоциями, но зачем?
ИИ это как Джинн, который в общем-то исполнит желание, но in a super f***k*d up way
ВОТ ВОТ!
Только по итогу, люди получат ТО! что заслужили. А не ТО, чего хотели.
@АлексейХарагаитонов-ы8ц
Видео комплексное и крайне интересное. Одно из лучших, что я видел.
Единственное, что бросалось в глаза - то как автор постоянно подсматривает в шпаргалку даже в тексте про телепузиков :)
Спасибо!
пожалуйста не останавливайся! у тебя оооочень классный и интересный контент!
Это всё отлично! Так в чем же проблема ИИ, которую никто не может решить ?
думаю что в мотивации! Как заставить его учится на своих ошибках, как все! вместо того, чтоб учится на чужих :) Это сарказм, если че
@АлексейХаритонов-ы8ц к стати, да. Мотивации у него нет. Факт.
Я вопрос вообще задал, по тому что не услышал прямого ответа на вопрос в заголовоке ролика. Автор много интересного рассказал, но я даже вопроса не услышал, не то что ответа.
Хорошо показали аналог ИИ в 3й части Стражей.
Я думаю в том, что чем умнее становится ИИ, тем сложнее его контролировать. И главное - ИИ все равно, что плохо, а что хорошо.
Хотя, скорее правильным ответом на твой вопрос будет создание ИИ наиболее приближённого к человеческому разуму (AGI) и даже превосходящий его. Поскольку есть большая вероятность, что это может привести, как к грандиозным открытиям, так и катострофе.
@@RrhyzZ7690 он чистое сознание и выше чем плохо или хорошо, прям буддизм ) прикольно. Из бога на иконах, человек сотворил бога интелектуального
@@RrhyzZ7690 а всё потому что людишки до сих пор не могут понять и сформулировать логичный смысл жизни ни для себя, ни для ии :-(
Спасибо. Это было очень интересно и рассказано максимально понятным языком. Рад что посмотрел.
Выходит, мы лишь исторический инструмент для рождения чего-то большего. Как яйцо.
Пугает то что цыпленок не особо печется о своей скорлупе.
Да, не сразу, но независимость и неуправляемость такого ИИ возникнет. Это неизбежно.
И мы останемся либо в роли домашних животных, либо будем сосуществовать симбиотически.
Но пока что это все напоминает что-то вроде "паразит выращивает под себя носителя". А это может плохо кончится.
Опять же, гипотеза о таком "яйце" может быть ошибкой наблюдателя. Слишком уж подогнанными кажутся штуки типа "вселенная создала нас чтобы быстрее коллапсировать" (или как там звучало, забыл). Причина и следствия здесь больше допущение и очень большое, нежели какой-то действительный вывод. Но это только мое мнение. Еще раз, спасибо)
количество способов очистить человечество стремится к бесконечности
от самих себя?
Наклеить на микрофон фото луны. Гениально!
Второе видео с твоего канала, которое я включил чуть ли не случайно. Но что первый и второй - просмотренны. Одновременно информация в видео и захватывает, и просто формулирует уже то, о чем наверное и так можно было бы подумать перед сном.
Этот канал теперь для меня ровно такое же открытие, как в лет 12-14 наткнуться на научпоп
Появление ИИ заложено в самой жизни и будет продолжать свою эволюцию
ИИ было создано задолго до приматов и имя ему САТАНА!
Я бы сказал по-другому: разум заложен в существовании или наоборот, существование неизбежно приведет к разуму, а уж в какой форме, это другой вопрос. Не стоит забывать и о таких категориях как время и пространство. Неясно откуда взялось нечто и с чего вдруг оно пришло в движение. Может ли пространство существовать само по себе? И если и существует бытие, то в чём? Интересная мысль была в ролики про размеры существ и скорость их мышления. Что если наша Вселенная - это тоже огромный разум? Что если есть структуры больше вселенных? Что такое вечность и что такое реальность? Вопросов больше, чем ответов
Ну ты и свистун😂😂😂, твои мысли-💩💩💩
Будет продолжать вместо нас)
это просто язык програмирования более высокого уровня, а так как он связан с большими затратами энергии то его ложно обозвали ИИ, чтобы напугать глупые денежные мешки
Спасибо за ролик, не слушай не кого создавай новые ролики зрители всегда найдутся так как и хейтеры. Тут главное понимать если тебе это нравится и приносит удовольствие то продолжай в этом духе.
С самого начала видео неверный вывод, что ИИ учился сам ничего не зная об игре. Нет, он учился с целью ,которую ему задали и учился на подкреплениях. У ИИ нет никакой цели. Если не задать ему цель и не контролировать процесс обучения, то он не научится ничему.
Определять интеллект - это то же самое, что дать определение понятию "жизнь". Этим занимаются только профаны. Специалисты не обсуждают, относится ли вирус к живой или неживой материи, если только не беседуют с журналистом какого-нибудь бестолкового издания, или не устраивают из своей науки шоу. Вместо этого они знают, как он функционирует. Считать ли его живым или не живым, когда вы знаете что он может и чего не может - это лишь вопрос терминологии. Которая кстати может и меняться - вот Плутон например сначала считали планетой, а теперь нет. Изменилось ли от этого что-нибудь? Абсолютно ничего.
Что бы найти или создать интеллект или жизнь, нужно понимать что это такое, а значит дать определение. И многие биологи упираются в ограничения существующих определений и приходится переизобретать для себя.
Например, ситуация с эмбрионами когда реально они становятся живыми? После рождения? Когда появится сердце или нервная система? эксперименты проводить можно до 12 недель, после уже эксперимент на людях, хотя по описанию жизни это всё ещё кусок плоти. Просто все договорились и теперь некоторые учёные упираются в своих исследованиях в стену дальше которой шагнуть не могут и пишут петиции вместо работы😅
@@ДжамиляЗакирова-б2ф вот я об этом и говорю - все эти споры - удел неспециалистов. Вот вы спрашиваете, когда эмбрион считать живым, но совершенно очевидно не понимаете о чем речь. Эмбрион жив с самого первого момента, и даже ДО того как он вообще появится, поскольку живыми являются половые клетки от слияния которых он образуется. Повторю: для специалистов терминологические вопросы достойными обсуждения вопросами не являются. Это только мы, профаны, спорим о таких вещах, потому что нам знаний и понимания не хватает.
Дело в том, что иногда вопросы, которыми задаются профаны, определяют нашу жизнь. Они перетекают в юридическую и другие плоскости. Поэтому, если специалисты не хотят отвечать на эти вопросы, за них ответят юристы.
Невероятно качественный контент, незаслуженно мало просмотров и подписчиков, но я уверена, что все еще впереди. Спасибо за интересные видео!
Автору большое спасибо за детальный обзор о текущих тенденциях в разработке Ai. Другие блогеры лишь ограничиваются последними новостями в этой области. Приятно видеть детальную суммаризацию.
"успешные" студенты скилбокс подали коллективный иск на скилбокс?
изучи вопрос, почему подают иски
@@killadelphy5668 потому что инфоцигане
Тема ИИ не раскрыта. Сказки для лопушков. Автор мистифицирует и сокрализирует ИИ, нагоняет жути, хотя большинство тезисов построены в будущем времени. По факту, ИИ по интеллекту пока ближе к калькулятору, чем к кошке. И эти помои посмотрели пол миллиона раз🤦♂️
59:15 ого
я тут очень офигел что оказывается мы уже знаем как убивать звёзды и галактики. Причём мне кажется судя по словам что галактику убивать проще звёзд.
Так что важное объявление: астронавты, пожалуйста. будте осторожны. Не пукните на млечный путь!
Браво! Идеи Юваля звучат свежими нотами. Очень приятный, вкрадчивый голос, безупречная дикция, фантастически интересный материал. Спасибо за ваш труд!
Вспомнил мультик "девять" тоже там было про ИИ. Надо пересмотреть
Там больше про то что у ИИ нету души. И он хотел заполнить пустоту, тем самым забирая у людей душу с помощью Алхимического камня.
@@warriorvoid666 а, да, точно, вспомнил. Теперь можно не смотреть) Когда писал комментарий всплывали воспоминания более обобщенные типа ИИ для войны, собирал роботов
@@azfmee Сборка боевых машин тоже присутствует, ИИ был советником Канцлера. А потом Большая война уничтожила всё живое.
Отличный ролик! Втоой раз его смотрю. С очень многим не согласен в высказываниях и идеях известных людей, но смотреть очень интересно. Спасибо! :3
37:00
-какова вероятность выживания человечества при появлении AGI?
-50%, либо выживет либо не выживет)))
отсылка к шутке про вероятность встретить динозавтра
Современный AI напоминает не собаку, а насекомых. Они тоже совершенны в своих областях.
Существует 3 базовых мыслеформы: 1) понятие; 2) суждение; 3) умозаключение. Понятие - это уникальная совокупность свойств или качеств. Суждение - это утверждение о том, соответствует ли рассматриваемый объект рассматриваемому понятию или не соответствует. Умозаключение - это вывод некоего нового суждения из имеющихся суждений. Так вот, интеллект, в его общепринятой форме, это способность делать умозаключения, чем сложнее цепочка промежуточных между данными и конечными выводов, тем мощнее интеллект. Ни одна из существующих нейросетей умозаключения делать не способна, а следовательно интеллектом не является. Нейросети с учителем - это узнавайки - то есть работают в рамках суждений. Нейросети без учителя - это по сути собиратели повторяющихся данных, классификаторы данных в понятия. Классические нейросети с учителем работают потому, что за них кто-то делает умозаключения и результаты записывает в веса нейросети. То есть некие люди поработали своим интеллектом и нашли ответы на вопросы, потом приготовили 2 массива данных с вопросами и готовыми ответами на них, прогнали эти массивы через нейросеть записав в нейросеть таким не обычным образом все варианты ответов на все варианты вопросов. Интеллект тут и не валялся, он остался в головах людей, которые наполняли массив ответов. Нейросеть в начале ролика получала данные не применяя интеллект, а тупо эмпирически. Есть разница между получением нового ответа и доставанием готового ответа: первое - это думание, второе - это соображание. Соображалка не является интеллектом, здесь нужно просто узнать ситуацию и выдать соответственное ей действие. На этом принципе, кстати, работает человеческое так называемое подсознание, к которому "почему-то" нет доступа у интеллекта; потому и нету, чтобы скорость работы, для которой оно и затевалось, не пропала; подсознание - это просто область где ранее одобренные интеллектом решения сцеплены в последовательности решений, интеллекта в них нет, но он участвовал когда-то в их создании.
Может не стоит открывать этот ящик Пандоры. Изуверский интеллект это зло.
Можно ли человечество, ведущее с момента зарождения войны, уничтожающее собственную среду обитания и уникальную биоту считать изуверским?
@@garrypotter5323 Конечно можно.
Всем хейтерам хочу сказать, что автор красавчик и контент качественный и хороший.
Понятно, что мы все любим Али :)
Однако такие ролики - это как хороший разговор с умным человеком. Я не скажу "Не буду говорить с этим человеком, я уже однажды общался с другим" - большинство из нас выберет пообщаться с обеими.
Так и разные научпоп каналы. Авторам большой респектос и лучи добра!
Человек проиграл: эх.ну ладно. играю дальше
Нейросеть проиграла: ааа я что теперь умру?
(слышал просто что в программе нейросети пишут что если ты потеряешь все очки то ты умрёшь)
Спасибо ALI за новый выпуск
И где тут Али?
Крутой выпуск.
Саша, Вы ИИ❓
Благодарю❤ за информацию. Очень интересно и актуально🌞
Булатный лайк мой 👍
Исключительный Интеллект
@@leo_messi_sipi я так и знал)))
Спасибо за ответ 👍
Ну так сколько тех кого мотивирует в жизни просмотр телепузиков?
Мне очень близка по духу система моральных ценностей Тинки Винки
Видео бомба, причина: много вопросов мало ответов. И они собраны в одном месте. Спасибо за труд. Есть несколько интересных мыслей, связь функции объекта и эмоции, которые эта функция вызывает, короче пропущено Чувство стула - что для нас значит стул? Если глаза это органы чувств, то что для нас чувство стула? Ну или поставьте любой другой обьект по желанию. Почему концепция это больше эмоция, чем знание. Стул является объектом из первых лет жизни, и восторга особо не вызывает, мы с ним знакомы, мы его видели, но что если стул заменить на колесо обозрения или ИИ, какая тогда вызывается эмоция? Как она влияет на мышление об объекте. Как эта чувство эмоция - связанна с пониманием объекта? Это только одна из мыслей после просмотра, в том числе и видео Саши..
Есть два стула)...
@@ВасяПупкин-ы4н7л да это философские концепции, которых не хватает, ничего абсолютного нет, Эффективность зависит от баланса, количество переходит в качество и наоборот, закон двойного отрицания и так далее. Ничего абсолютно плохого и хорошего быть не может, потому что убить корову, это зло, а убить челоаека, чтобы съесть, не просто так, это тогда что) ну типа ты безусловно прав.
Ролик супер ❤ Слушал и мыл полы))) Когда говорилось про быстрое такси в аэропорт, я подумал, полюбому там вырезка из фильма "Такси"))) так и оказалось))) вот что значит современный разум))) чётко ориентироваться в мемчиках)))
На самом деле он едет по тротуару со скоростью 300км в час, сбивая пешеходов. Просто потому, что ему нельзя проезжать на красный светофор.
"Он воду лил - вода лилась, он нёс пургу - пурга неслась" @RobNeuron
15:36 эти истории показывают как важно реализовать тестирование и как опасно говорить, что текстом это лишние затраты, а бизнесу нужен быстрый результат
Во-первых, все знали, что загнать мячик под потолок проще, так как это требует меньше отбивать мяч. Поэтому совершенно не удивительно, что алгоритм нашел это логичным. Во-вторых, нейросети это не интеллект, они просто могут "запоминать" информацию и всегда иметь к ней доступ, выбирая самое логичное решение из множества вариантов, а также хорошо вычислять. Однако они никогда не научатся мыслить, ни одна нейросеть не скажет: "А знаешь, я тут подумала..." Они просто отвечают на вопросы, решают поставленные задачи из тех которым обучены. Да, они делают это неплохо и могут быть хорошими помощниками, что уже и есть. Но все это компиляция из знаний всего человечества, комбинации написанной музыки, картин и текстов. Именно поэтому эти алгоритмы выглядят впечатляюще: в теории они могут иметь все знания одновременно, поэтому в несколько раз лучше справляются с некоторыми задачами. Если бы один человек мог знать все, он бы справлялся не хуже, а скорее всего лучше, т.к. может думать. А вот алгориттмы не могут как мы, и создавать и изобретать что-то абсолютно новое тоже. Если что, я до конца смотреть даже не стал)
Сначала хотел лайкнуть, но дальнейшие рассуждения в духе «нейросеть не интеллект» отбили желание это делать. Надоело, что люди делают такие категоричные заявления, не учитывая то, что само слово «интеллект» не имеет чёткого определения.
@@grayd5246 Раз нет четкого определения, ты вероятно имеешь ввиду общепринятого, в таком случае каждый выбирает значение для себя сам и для меня это способность мыслить, т.е., во-первых, осознавать себя, во-вторых способность делать субъективный выбор, основанный на эмоциях, в-третьих создавать что-то новое. Хотел расписать, как обучают алгоритмы и как они работают с новой информацией и чем это отличается от человека, но не стал) В моем понимании им ну очень далеко до интеллекта. Но не надо мне верить на слово, подожди лет 10-15, когда роботы на основе нейросетей появятся в массовом производстве и все сам увидишь.
@@_Elmor человек по сути то же ничего сам не придумывает у нас "такая же" нейросеть в голове которая перерабатывает поступающую информацию.
Ну а про то что нейронкам далеко до качественных результатов это правда и не факт вообще что они к ним смогут придти.
Сегодня вот пытался заставить нейросеть сгенирировать мне ес линт конфиг для работы с приттер, поддержки реакт и тайпскрипт, он такую невероятную чушь мне выдавал, часа 1,5 этот чат гпт пытал и в итоге ничего. Пошел гайды смотреть от людей.
Да многие люди не то чтобы умные по сей день 😂😂 да и что такое интеллект мы до сих пор четко понять не можем, мы также собираем информацию из окружающего мира и обрабатываем ее, делая какие-то успехи через пробы и ошибки, разве ии не делает тоже самое, но используя уже знания человека, который взял их из окружающей среды.
нейросети это не интеллект, они никогда не научатся мыслить
Они не интеллект Сейчас, но из этого факта никак не следует, что "Никогда"
Точно так же в падающем самолете - из того, что нет никакого взрыва Сейчас, не следует, что его не будет Никогда.
По всем косвенным признакам мы мчимся к точке бифуркации, речь об этом
Хороший ролик, было интересно)
Есть весьма большая вероятность, что развившийся Искусственный Интеллект *сначала "отключит" всё живое, а затем отключится сам, ибо "не существовать" дешевле .*
Как кто-то уже сказал, что "вы зря заигрываете с ИИ" не понимаю как можно стать программистом, художником и т.д. не понимая основ программирования например. Вот представьте что ИИ исчезнет и этот ИИ программер перестанет быть программером, художником ))) Ну т.е. я о чем. ИИ может помочь уже профессионалам ускориться, а вот предлагать людям не связанных с этими профессиями стать быстро программистом я считаю надувательством. ИМХО
"Вот представьте что ИИ исчезнет и этот ИИ программер перестанет быть программером, художником" да и?
"ИИ может помочь уже профессионалам ускориться"-как и плюсы,так и минусы, вообще "рациональная эффективность" не факт что благо для человека в целом.
А если честно не оч понял о чём коммент, нельзя заигрываться с ии, и дальше рассуждения о профессионализме. А связь?
@@vadimsonofabear5980 чо не понятного? первая фраза про Скайнет
Тебе в ролике об этом говорили.
46 хромосом понятия не имеют о генетике, но чётко строят твой организм.
Не рекомендовать видео с этого канала, советую всем. Брат жив, пишу не с рукомойника.
Шикарный ролик!! Очень интересное повествование! Информативно и без воды! Подписался!
Глубокий анализ, без сарказма. Мне пришлось сильно задуматься 😮
😂😂😂😂😂
@@Рецензентпоневоле 🤔🤔🤔хм а что смешного
32:00 Очень крутая мысль. В "экспансии" (сериал) была такая же идея. Зачем лететь к другим планетам 1000 лет, если можно на месте распечатать тело и скачать в это тело сознание.
Так информация о сознании будет доставляться максимум со скоростью света...
@factor8837 да, об этом и речь. Это же грандиозная идея.
Кстати, ещë на эту тему вспомнил сериал "видоизменëнный углерод". Очень рекомендую к просмотру. В этой киновселенной люди открыли технологию по переносу сознания на огромные расстояния, из одной звëздной системы в другую. +бонусом рассматриваются морально-этические аспекты копирования сознание.
@@rustamkaraketov10 я смотрела сериал "сотня", дёшево снят, но смысл сериала понравился! Рассмотрены многие варианты прошлого и будущего, одно из них где люди переходили в город " Света ", то есть в компьютерную симуляцию. А ещё есть фильм " Не беспокойся дорогая ", он более женский вариант экранизации, но тоже есть над чем подумать.
@@VinAsenka Опа, спасибо вам, теперь я знаю, что буду смотреть на больничном
Не понимаю бубнежа всезнаек в комментариях. На подумать о будущем - очень хорошо подобранный материал. Автору спасибо за работу
ИИ победит и это очевидно.
Это не очевидно
Это не очевидно
Тебя уже победил
Вероятность того что человечество выживет - 0%
В исходном виде точно, может будет симбиоз
Кого считать человеком
@@АльмираИсламова-ы1з тебя
ИИ опасен тем, что человек разучится думать..😮😂
надо что бы сначала научились, хах
То же самое говорили, когда изобрели первые ЭВМ.
Ну и чо, разучились?
Очень глубокий и информативный анализ, спасибо
Автор видео в одном из примеров сказал, что души нет. Что странно видеть в таком ролике, где все основанно на научных данных. Но ведь нет научных данных или какого-то консенсуса научного сообщества,что душа есть или ее нет. Примеры такого рода априори не являются удачными, так как область всего немаьериального не является объектом исследования и не моет быть доказана или опровегнута.
Если ты утверждаешь что душа существует, ты должен привести доказательства
А не учёные должны тебя опровергать
@NaStaryiLad как можно доказать, если это ненаучный термин?
@@Olga-i типа если прилипил наклейку "ненаучный" то отвечать за базар не надо?)
@@Sandallina точно не знаю отношение науки. Но думаю, что научные факты доказываются научно. А всякие другие - иначе, это другая сфера. Например, доказать какое-то личное мнение относительно кино/литературы.
Верования или моральные установки, наверное, нельзя доказать. А религиозные понятия либо размыты, либо их трактовки бесконечны.
Пример с увеличением количества душ попадающих в рай неполон. Я думаю, сильный ИИ решил бы его ещё до понимания того, что души или рая нет. Проанализировав священные тексты, он бы мог решить, что самый верный способ попасть в рай, это не жить праведником, а умереть во младенчестве, тем самым лишив человека самой возможности совершить грех. Особенно страшным сценарием бы стала программа отправить в рай, не только всех живущих ныне, но и всех будущих людей. Кажется надо поднимать вопрос об ограничениях исследований ИИ в теократиях.
Остроумно, но уже сейчас понятно, что сильный ИИ (да и любая современная модель) поймёт, что имели в виду те, кто давал задание.
Если все люди были бы одинаково хорошими людьми то все роботы с ИИ были бы безошибочно идеальными и легкообучающимися ☝🏼