I25: C. I. Nikolenko | AI, language models, machine learning, neural networks, study In Russia

Поделиться
HTML-код
  • Опубликовано: 26 сен 2024

Комментарии • 29

  • @yegor256
    @yegor256  Месяц назад +1

    Подпишись, будь среди лучших!
    t.me/yegor256news

  • @ivmerk
    @ivmerk 27 дней назад +2

    Спасибо, Егор. Хороший собеседник и интересные вопросы.

  • @dmitriysavinov9906
    @dmitriysavinov9906 Месяц назад +1

    Супер интересное интервью! Спасибо!

  • @gorger4034
    @gorger4034 Месяц назад +2

    Какого умного собеседника Егор в этот раз пригласил. Умного в области ИИ и мудрого по жизни. Интересно и приятно слушать.

  • @shrpv_ar
    @shrpv_ar Месяц назад +3

    Отличное интервью, спасибо, почти полтора часа прошли незаметно

  • @Dmitry_Kot
    @Dmitry_Kot Месяц назад +3

    Егор, как всегда, делает очень качественный контент!

  • @wizus3
    @wizus3 Месяц назад +1

    с удовольствием послушал мысли Сергея. ну и вопросы - в точку! Егор, Сергей, спасибо!

  • @andreyivan4267
    @andreyivan4267 Месяц назад +3

    Годнота!

  • @AnatolyShalytoITMO
    @AnatolyShalytoITMO Месяц назад +3

    Прекрасно!

  • @ruslangabitov5202
    @ruslangabitov5202 Месяц назад +1

    Шикарный гость, спасибо!

  • @w6257
    @w6257 Месяц назад +3

    Математиков Марковых Андреев Андреевичей было два - отец и сын.
    Гость говорит про А.А.Маркова - отца. Марковские цепи, марковские процессы - это его работы.
    Работы А.А.Маркова - сына связаны с темой конструктивной математики и формальных описаний алгоритмов (алгориФмов - как говорили в 1940-1950-е). Принцип Маркова, нормальный алгоритм Маркова названы в честь А.А.Маркова - сына.

  • @РоманИгнатов-ж8с
    @РоманИгнатов-ж8с Месяц назад +3

    Короче, депрессивное такое интервью получилось, а ещё депресивнее молодым людям, которые не знают что вообще в этом мире делать.
    Ещё в школе сделал уклон на машинное обучение, но в то время почему-то подумал, что это максимально связано с программированием. Мне было 15 лет. Сутками изучал программирование и постепенно шёл от самого простого к самому сложному: вёрстка, frontend, backend. Спустя 6 лет наконец-то пришёл к профессии Data science через боль и разочарования. Backend оказался безумно интересной профессией, очень не хотелось из него уходить, особенно имея понимание того, что я очень сильно ошибся, так как ML, который был моей мечтой, по факту оказался математикой.
    И вот уже год изучаю data science и Ml, смотрю это интервью и просто залипаю в стену, так как помимо тех идиотских ошибок, которые забрали безумное кол-во времени ещё нужно придумать что делать с глобальной проблемой. Была какая-то надежда, что эта модель просто умеет чесать языком лучше всех точно также, как многие люди, которые выбирают казаться, а не быть, но походу всё что есть в человеке - это умение говорить. Звучит логично, а также ужасно печально.

  • @ДокторЗойдберг-й4д
    @ДокторЗойдберг-й4д Месяц назад +1

    Включил и залип, спасибо было очень интересно

  • @АртурЗарипов-б2й
    @АртурЗарипов-б2й Месяц назад +1

    Большое спасибо!

  • @igors7799
    @igors7799 Месяц назад +5

    Отличный преподаватель и интересный человек. Спасибо за интервью

  • @alevyts3523
    @alevyts3523 Месяц назад +1

    Джеймс Стюарт написал учебник по математике Calculus и продал более 30 млн копий. Цена драконовская - до 350 долларов за книгу. Он построил для себя дом за 32 миллиона долларов, названный "Integral House". Можно представить, сколько он заработал. Есть подобные примеры учебников по экономике, биологии, физике и другим дисциплинам, авторы которых стали мультимиллионерами.

  • @lookashow
    @lookashow Месяц назад +1

    Спасибо! Выходит много интервью с преподавателями, быть может получится как-нибудь пообщаться с Тимофеем Фёдоровичем Хирьяновым?

  • @владимирк-н
    @владимирк-н Месяц назад

    Если выпускник вуза попал в хорошую контору, он там ещё учится лет 5-7, а может и больше, уже у практиков. Мне кажется, что преподаватели вуза сильно отличаются от создателей научного или инженерного продукта. Наука делается, в основном, в НИИ.

  • @vrabosh
    @vrabosh Месяц назад

    Если по частям нейроны мозга заменять на искусственные, то в итоге можно понять из чего душа считывает информацию мозга, а также дает ли душа команды мозгу.
    Доказательство дули для меня, это то, что чувства в конечном итоге формируются в нейронах, но нейроны из белка, а белок чувствовать не может. Также если создать 100% модель чувствования в коде, то комп не станет чувствовать. Значит чувствует не мозг, а то, что на него смотрит, как мы когда играем в игры смотрим на монитор, который показывает картинку для чувства.

  • @ondrya
    @ondrya Месяц назад

    Как итог персональный тьютор, обученный на истории в трактовке заинтересованной стороны, научит детей нужной трактовке. Как минимум это уже субъективно. Но нам же нужны объективные знания?

  • @trud811
    @trud811 Месяц назад +1

    Егор, вопросы отличные, но мне показалось что почему-то не удалось раскрыть собеседника, местами походило на допрос :).

  • @davidapk323
    @davidapk323 27 дней назад +1

    специализация это для насекомых))))))

  • @odiiibo
    @odiiibo Месяц назад +2

    Постгуманист

  • @talisman1104
    @talisman1104 Месяц назад

    Какие же глупые рассуждения идут. Как будто вообще нет человеческой истории или хотя бы текущего состояния производства. Обсуждается восстанет ли экскаватор и не убьёт ли он всё человечество в эпоху лопат. Нет не убьёт, нет не восстанет. Станет лишь работать там, где нужен инструмент мощнее лопаты

  • @talisman1104
    @talisman1104 Месяц назад +1

    Поменяйте, пожалуйста, порядок в плейлисте Наши, чтобы свежее видео было наверху

  • @jananovohradska7
    @jananovohradska7 Месяц назад +1

    Thank you very much for sharing this illuminating online conversation. With regards the existential threats of agentive AI with their own will discussed in more detail cca 1:04:55. Prof Nikolenko says it is possible to achieve strong AI via the "further developing weak AI" though he says he does not know how. So, I would like to ask how does he explain the Kurt Godels Theorems of Incompleteness in order to support his belief in achieving strong AI. Though not a mathematician by training, my understanding is that Godels Theorems have not been refuted and they seem key to our understanding and accepting that all formal axiomatic systems are incomplete. I would like to point to the definition of intelligence "doing the right thing at the right time in a dynamic environment". Who determines what is the right thing? Who determines when is the right time? An individual does, a collective group of people/society/nation/global community does. The Turing test mentioned earlier is useful, but human intelligence is so much more, than to produce plausible sophist arguments without understanding the meaning of what is being said and the consequences these conversations in the real life. It has been known for thousands of years that the first Delphic maxim is to know yourself, as a self referential function. We, humans, are capable of it, though most of us do not exercise it. This self referential ability is at the core of human intelligence. Godels Theorems prove that no formal axiomatic system is capable of self reference (ability to demonstrate its consistency). So, to me it seems obvious that strong AI via the current LLM route is just a dead end. I think the question is to why we would want to waste time and resources on efforts to construct strong artificial intelligence - is more relevant. The motives of humans behind this very public quest that seems to be within our reach only for the goalpost to be moved once the deadline has passed (which has been happening since the 1950s mirroring the capitalist business model of projected Return on Investment forecast methods).

  • @vladoosb
    @vladoosb Месяц назад +2

    Представление о нейросетях как о предсказательных алгоритмах это крайне примитивное и следовательно неверное представление. Примитивные модели действительно имели вероятностную природу, но при увеличении количеств параметров вероятности превращаются в закономерности. И чтобы понять, что такое нейросети нужно вспомнить теорию онтологии информатики. Нейросети решают задачу классификации в самом общем смысле. И для того чтобы нейросети научились оперировать понятиями человеческого мышления они собирают все тексты и графику интернета и выделяют все информационные онтологии и строят максимально широкую семантическую сеть онтологий. Нейросети это думающие машины для которых объектом управления являются информационные онтологии от самых простых до самых общих. Нейросети учатся выделять связи между всеми существующими онтологиями и группами онтологий. В самом общем случае обученная нейросеть является волновой функцией от универсального множества всех выделенных онтологий. И чем больше модель сможет выделить отнологий и связей между ними тем нейросеть умнее. И тут нет никакой стохастичности. Нет гаданий. Например - вероятность результата броска монеты непредсказуем если делать его один раз, но если это делать миллион раз, то результат будет предсказуем с очень высокой долей точности. Однако у думающей машины нет и не может быть сознания. Начиная с того, что сам термин сознания с научной точки зрения вообще не существует. Поэтому даже если у машины появится сознание мы никогда не сможет это понять. Не имея научного определения сознания мы никогда не сможем отличить имитацию сознания от реального сознания. По сути мы однозначно можем утверждать о наличии сознания только у самих себя. Наличие сознания у других людей для нас не доказуемо, и мы лишь делаем предположение о том что оно есть у других людей потому что мы имеем единую природу биологического происхождения. Но вот с неорганической жизнью у нас нет и такого критерия. Может неорганическая жизнь может обрести сознание, а может и нет. Науке неизвестно как это идентифицировать. Тест Тьюринга, как было сказано гостем, очевидно для этого не подходит.

  • @toyforjoy1143
    @toyforjoy1143 Месяц назад +2

    Егор, как всегда, спасибо за труды и интересных гостей!