Математиков Марковых Андреев Андреевичей было два - отец и сын. Гость говорит про А.А.Маркова - отца. Марковские цепи, марковские процессы - это его работы. Работы А.А.Маркова - сына связаны с темой конструктивной математики и формальных описаний алгоритмов (алгориФмов - как говорили в 1940-1950-е). Принцип Маркова, нормальный алгоритм Маркова названы в честь А.А.Маркова - сына.
Короче, депрессивное такое интервью получилось, а ещё депресивнее молодым людям, которые не знают что вообще в этом мире делать. Ещё в школе сделал уклон на машинное обучение, но в то время почему-то подумал, что это максимально связано с программированием. Мне было 15 лет. Сутками изучал программирование и постепенно шёл от самого простого к самому сложному: вёрстка, frontend, backend. Спустя 6 лет наконец-то пришёл к профессии Data science через боль и разочарования. Backend оказался безумно интересной профессией, очень не хотелось из него уходить, особенно имея понимание того, что я очень сильно ошибся, так как ML, который был моей мечтой, по факту оказался математикой. И вот уже год изучаю data science и Ml, смотрю это интервью и просто залипаю в стену, так как помимо тех идиотских ошибок, которые забрали безумное кол-во времени ещё нужно придумать что делать с глобальной проблемой. Была какая-то надежда, что эта модель просто умеет чесать языком лучше всех точно также, как многие люди, которые выбирают казаться, а не быть, но походу всё что есть в человеке - это умение говорить. Звучит логично, а также ужасно печально.
Джеймс Стюарт написал учебник по математике Calculus и продал более 30 млн копий. Цена драконовская - до 350 долларов за книгу. Он построил для себя дом за 32 миллиона долларов, названный "Integral House". Можно представить, сколько он заработал. Есть подобные примеры учебников по экономике, биологии, физике и другим дисциплинам, авторы которых стали мультимиллионерами.
Если выпускник вуза попал в хорошую контору, он там ещё учится лет 5-7, а может и больше, уже у практиков. Мне кажется, что преподаватели вуза сильно отличаются от создателей научного или инженерного продукта. Наука делается, в основном, в НИИ.
Если по частям нейроны мозга заменять на искусственные, то в итоге можно понять из чего душа считывает информацию мозга, а также дает ли душа команды мозгу. Доказательство дули для меня, это то, что чувства в конечном итоге формируются в нейронах, но нейроны из белка, а белок чувствовать не может. Также если создать 100% модель чувствования в коде, то комп не станет чувствовать. Значит чувствует не мозг, а то, что на него смотрит, как мы когда играем в игры смотрим на монитор, который показывает картинку для чувства.
Как итог персональный тьютор, обученный на истории в трактовке заинтересованной стороны, научит детей нужной трактовке. Как минимум это уже субъективно. Но нам же нужны объективные знания?
Какие же глупые рассуждения идут. Как будто вообще нет человеческой истории или хотя бы текущего состояния производства. Обсуждается восстанет ли экскаватор и не убьёт ли он всё человечество в эпоху лопат. Нет не убьёт, нет не восстанет. Станет лишь работать там, где нужен инструмент мощнее лопаты
Thank you very much for sharing this illuminating online conversation. With regards the existential threats of agentive AI with their own will discussed in more detail cca 1:04:55. Prof Nikolenko says it is possible to achieve strong AI via the "further developing weak AI" though he says he does not know how. So, I would like to ask how does he explain the Kurt Godels Theorems of Incompleteness in order to support his belief in achieving strong AI. Though not a mathematician by training, my understanding is that Godels Theorems have not been refuted and they seem key to our understanding and accepting that all formal axiomatic systems are incomplete. I would like to point to the definition of intelligence "doing the right thing at the right time in a dynamic environment". Who determines what is the right thing? Who determines when is the right time? An individual does, a collective group of people/society/nation/global community does. The Turing test mentioned earlier is useful, but human intelligence is so much more, than to produce plausible sophist arguments without understanding the meaning of what is being said and the consequences these conversations in the real life. It has been known for thousands of years that the first Delphic maxim is to know yourself, as a self referential function. We, humans, are capable of it, though most of us do not exercise it. This self referential ability is at the core of human intelligence. Godels Theorems prove that no formal axiomatic system is capable of self reference (ability to demonstrate its consistency). So, to me it seems obvious that strong AI via the current LLM route is just a dead end. I think the question is to why we would want to waste time and resources on efforts to construct strong artificial intelligence - is more relevant. The motives of humans behind this very public quest that seems to be within our reach only for the goalpost to be moved once the deadline has passed (which has been happening since the 1950s mirroring the capitalist business model of projected Return on Investment forecast methods).
Представление о нейросетях как о предсказательных алгоритмах это крайне примитивное и следовательно неверное представление. Примитивные модели действительно имели вероятностную природу, но при увеличении количеств параметров вероятности превращаются в закономерности. И чтобы понять, что такое нейросети нужно вспомнить теорию онтологии информатики. Нейросети решают задачу классификации в самом общем смысле. И для того чтобы нейросети научились оперировать понятиями человеческого мышления они собирают все тексты и графику интернета и выделяют все информационные онтологии и строят максимально широкую семантическую сеть онтологий. Нейросети это думающие машины для которых объектом управления являются информационные онтологии от самых простых до самых общих. Нейросети учатся выделять связи между всеми существующими онтологиями и группами онтологий. В самом общем случае обученная нейросеть является волновой функцией от универсального множества всех выделенных онтологий. И чем больше модель сможет выделить отнологий и связей между ними тем нейросеть умнее. И тут нет никакой стохастичности. Нет гаданий. Например - вероятность результата броска монеты непредсказуем если делать его один раз, но если это делать миллион раз, то результат будет предсказуем с очень высокой долей точности. Однако у думающей машины нет и не может быть сознания. Начиная с того, что сам термин сознания с научной точки зрения вообще не существует. Поэтому даже если у машины появится сознание мы никогда не сможет это понять. Не имея научного определения сознания мы никогда не сможем отличить имитацию сознания от реального сознания. По сути мы однозначно можем утверждать о наличии сознания только у самих себя. Наличие сознания у других людей для нас не доказуемо, и мы лишь делаем предположение о том что оно есть у других людей потому что мы имеем единую природу биологического происхождения. Но вот с неорганической жизнью у нас нет и такого критерия. Может неорганическая жизнь может обрести сознание, а может и нет. Науке неизвестно как это идентифицировать. Тест Тьюринга, как было сказано гостем, очевидно для этого не подходит.
Подпишись, будь среди лучших!
t.me/yegor256news
Спасибо, Егор. Хороший собеседник и интересные вопросы.
Супер интересное интервью! Спасибо!
Какого умного собеседника Егор в этот раз пригласил. Умного в области ИИ и мудрого по жизни. Интересно и приятно слушать.
Отличное интервью, спасибо, почти полтора часа прошли незаметно
Егор, как всегда, делает очень качественный контент!
с удовольствием послушал мысли Сергея. ну и вопросы - в точку! Егор, Сергей, спасибо!
Годнота!
Прекрасно!
Шикарный гость, спасибо!
Математиков Марковых Андреев Андреевичей было два - отец и сын.
Гость говорит про А.А.Маркова - отца. Марковские цепи, марковские процессы - это его работы.
Работы А.А.Маркова - сына связаны с темой конструктивной математики и формальных описаний алгоритмов (алгориФмов - как говорили в 1940-1950-е). Принцип Маркова, нормальный алгоритм Маркова названы в честь А.А.Маркова - сына.
Короче, депрессивное такое интервью получилось, а ещё депресивнее молодым людям, которые не знают что вообще в этом мире делать.
Ещё в школе сделал уклон на машинное обучение, но в то время почему-то подумал, что это максимально связано с программированием. Мне было 15 лет. Сутками изучал программирование и постепенно шёл от самого простого к самому сложному: вёрстка, frontend, backend. Спустя 6 лет наконец-то пришёл к профессии Data science через боль и разочарования. Backend оказался безумно интересной профессией, очень не хотелось из него уходить, особенно имея понимание того, что я очень сильно ошибся, так как ML, который был моей мечтой, по факту оказался математикой.
И вот уже год изучаю data science и Ml, смотрю это интервью и просто залипаю в стену, так как помимо тех идиотских ошибок, которые забрали безумное кол-во времени ещё нужно придумать что делать с глобальной проблемой. Была какая-то надежда, что эта модель просто умеет чесать языком лучше всех точно также, как многие люди, которые выбирают казаться, а не быть, но походу всё что есть в человеке - это умение говорить. Звучит логично, а также ужасно печально.
Включил и залип, спасибо было очень интересно
Большое спасибо!
Отличный преподаватель и интересный человек. Спасибо за интервью
Джеймс Стюарт написал учебник по математике Calculus и продал более 30 млн копий. Цена драконовская - до 350 долларов за книгу. Он построил для себя дом за 32 миллиона долларов, названный "Integral House". Можно представить, сколько он заработал. Есть подобные примеры учебников по экономике, биологии, физике и другим дисциплинам, авторы которых стали мультимиллионерами.
Спасибо! Выходит много интервью с преподавателями, быть может получится как-нибудь пообщаться с Тимофеем Фёдоровичем Хирьяновым?
Если выпускник вуза попал в хорошую контору, он там ещё учится лет 5-7, а может и больше, уже у практиков. Мне кажется, что преподаватели вуза сильно отличаются от создателей научного или инженерного продукта. Наука делается, в основном, в НИИ.
Если по частям нейроны мозга заменять на искусственные, то в итоге можно понять из чего душа считывает информацию мозга, а также дает ли душа команды мозгу.
Доказательство дули для меня, это то, что чувства в конечном итоге формируются в нейронах, но нейроны из белка, а белок чувствовать не может. Также если создать 100% модель чувствования в коде, то комп не станет чувствовать. Значит чувствует не мозг, а то, что на него смотрит, как мы когда играем в игры смотрим на монитор, который показывает картинку для чувства.
Как итог персональный тьютор, обученный на истории в трактовке заинтересованной стороны, научит детей нужной трактовке. Как минимум это уже субъективно. Но нам же нужны объективные знания?
Егор, вопросы отличные, но мне показалось что почему-то не удалось раскрыть собеседника, местами походило на допрос :).
специализация это для насекомых))))))
Постгуманист
Какие же глупые рассуждения идут. Как будто вообще нет человеческой истории или хотя бы текущего состояния производства. Обсуждается восстанет ли экскаватор и не убьёт ли он всё человечество в эпоху лопат. Нет не убьёт, нет не восстанет. Станет лишь работать там, где нужен инструмент мощнее лопаты
Поменяйте, пожалуйста, порядок в плейлисте Наши, чтобы свежее видео было наверху
Thank you very much for sharing this illuminating online conversation. With regards the existential threats of agentive AI with their own will discussed in more detail cca 1:04:55. Prof Nikolenko says it is possible to achieve strong AI via the "further developing weak AI" though he says he does not know how. So, I would like to ask how does he explain the Kurt Godels Theorems of Incompleteness in order to support his belief in achieving strong AI. Though not a mathematician by training, my understanding is that Godels Theorems have not been refuted and they seem key to our understanding and accepting that all formal axiomatic systems are incomplete. I would like to point to the definition of intelligence "doing the right thing at the right time in a dynamic environment". Who determines what is the right thing? Who determines when is the right time? An individual does, a collective group of people/society/nation/global community does. The Turing test mentioned earlier is useful, but human intelligence is so much more, than to produce plausible sophist arguments without understanding the meaning of what is being said and the consequences these conversations in the real life. It has been known for thousands of years that the first Delphic maxim is to know yourself, as a self referential function. We, humans, are capable of it, though most of us do not exercise it. This self referential ability is at the core of human intelligence. Godels Theorems prove that no formal axiomatic system is capable of self reference (ability to demonstrate its consistency). So, to me it seems obvious that strong AI via the current LLM route is just a dead end. I think the question is to why we would want to waste time and resources on efforts to construct strong artificial intelligence - is more relevant. The motives of humans behind this very public quest that seems to be within our reach only for the goalpost to be moved once the deadline has passed (which has been happening since the 1950s mirroring the capitalist business model of projected Return on Investment forecast methods).
Представление о нейросетях как о предсказательных алгоритмах это крайне примитивное и следовательно неверное представление. Примитивные модели действительно имели вероятностную природу, но при увеличении количеств параметров вероятности превращаются в закономерности. И чтобы понять, что такое нейросети нужно вспомнить теорию онтологии информатики. Нейросети решают задачу классификации в самом общем смысле. И для того чтобы нейросети научились оперировать понятиями человеческого мышления они собирают все тексты и графику интернета и выделяют все информационные онтологии и строят максимально широкую семантическую сеть онтологий. Нейросети это думающие машины для которых объектом управления являются информационные онтологии от самых простых до самых общих. Нейросети учатся выделять связи между всеми существующими онтологиями и группами онтологий. В самом общем случае обученная нейросеть является волновой функцией от универсального множества всех выделенных онтологий. И чем больше модель сможет выделить отнологий и связей между ними тем нейросеть умнее. И тут нет никакой стохастичности. Нет гаданий. Например - вероятность результата броска монеты непредсказуем если делать его один раз, но если это делать миллион раз, то результат будет предсказуем с очень высокой долей точности. Однако у думающей машины нет и не может быть сознания. Начиная с того, что сам термин сознания с научной точки зрения вообще не существует. Поэтому даже если у машины появится сознание мы никогда не сможет это понять. Не имея научного определения сознания мы никогда не сможем отличить имитацию сознания от реального сознания. По сути мы однозначно можем утверждать о наличии сознания только у самих себя. Наличие сознания у других людей для нас не доказуемо, и мы лишь делаем предположение о том что оно есть у других людей потому что мы имеем единую природу биологического происхождения. Но вот с неорганической жизнью у нас нет и такого критерия. Может неорганическая жизнь может обрести сознание, а может и нет. Науке неизвестно как это идентифицировать. Тест Тьюринга, как было сказано гостем, очевидно для этого не подходит.
Егор, как всегда, спасибо за труды и интересных гостей!