Будет ли обзор свежей модели Microsoft_Phi-4 ? По моему они значительно улучшили поддержку русского языка и качество ответов у неё даже выше чем у Llama-3-70b хотя параметров у неё всего 14b. Такую можно даже на обычном геймерском пк попробовать запустить.
о3 модель не для смертных, т.е. она создана по сути по большей части для решения сложных вопросов математики, медицины, программирования и науки в целом. Ни о каком AGI и говорить не приходится. По прежнему o1 не может решать даже некоторые детские задачи. AGI не нужно будет подталкивать к решению проблем через промпты, он сам будет их искать и решать в полуавтоматическом режиме, но до этого ещё минимум 4-5 лет. Я убеждён, что настоящий AGI и супер ИИ будет функционировать только на нейроморфных чипах интел и IBM.
Выскажу предположение, что сильный скачек в качестве моделей завязан на нескольких методах - рефлексии на основе повторяющихся циклов генерации, а также RAG in-memory. Последние может подгружать вместе с LLM в VRAM базу данных со структурированной информацией в виде справочников по наукам. Предполагаю что без MemoRAG в O3 не обошлось. По этому методу вообще инфы мало... Было бы интересно услышать мнение Руслана на этот счет🧐
Ну понятно что это пока не AGI, потому что нет внутреннего состояния для эпизодичской памяти и эту модель очень дорого обучать на видео-токенах так как слишком много электро-энергии на это тратится, нужно дождаться аналоговоых или световых нейромофных чипов которые удешевят обучение и инференс моделей в разы тогда ОИИ замаячит на горизонте.
К Аналогу, нужен обязательно параллелизм в вычислении и запоминании состояния и не столь важно, что для этого будут использовать, магнетизм или фотоны, это уже будет достаточно для "замаячивания...", все остальное это жалкая пародия!
Звучит бредово))) Почему 85 процентов)) Почему именно эти тесты? Кто вообще судья. Это очень субьективно. Да и вообще сама задача странная и не определенная точно. Звучит как просто очередной хайп модели которую натренировали решать именно эти задачи. Челы посидели и решили датасет сдедать где похожие задачи решаются. Уверен чуть вправо или влево и будет провал. Визуальные тесты и взаимодействие с реальным миром должны быть проведены. Хотя это тоже не факт будет.
5:20 предполагаю, что эту модель выпустят Qwen. Они буквально недавно выпустили QVQ-72B-Preview.
Напоминает ли принцип, предположительно использованный разработчиками, ДОКТОРА СТРЕНДЖА, пересчитавшего 14.000.625 вариантов исходов?
Спасибо за видео! С наступающим!
Будет ли обзор свежей модели Microsoft_Phi-4 ? По моему они значительно улучшили поддержку русского языка и качество ответов у неё даже выше чем у Llama-3-70b хотя параметров у неё всего 14b. Такую можно даже на обычном геймерском пк попробовать запустить.
сделай плз разбор мелких моделей с которыми может начинующий дома играться типа 3Б или новую квин с резонингом
тоже интересует эта тема, но я бы планку опустил до 1Б
спасибо
о3 модель не для смертных, т.е. она создана по сути по большей части для решения сложных вопросов математики, медицины, программирования и науки в целом. Ни о каком AGI и говорить не приходится. По прежнему o1 не может решать даже некоторые детские задачи. AGI не нужно будет подталкивать к решению проблем через промпты, он сам будет их искать и решать в полуавтоматическом режиме, но до этого ещё минимум 4-5 лет. Я убеждён, что настоящий AGI и супер ИИ будет функционировать только на нейроморфных чипах интел и IBM.
Выскажу предположение, что сильный скачек в качестве моделей завязан на нескольких методах - рефлексии на основе повторяющихся циклов генерации, а также RAG in-memory. Последние может подгружать вместе с LLM в VRAM базу данных со структурированной информацией в виде справочников по наукам. Предполагаю что без MemoRAG в O3 не обошлось. По этому методу вообще инфы мало... Было бы интересно услышать мнение Руслана на этот счет🧐
лайк!
Ну понятно что это пока не AGI, потому что нет внутреннего состояния для эпизодичской памяти и эту модель очень дорого обучать на видео-токенах так как слишком много электро-энергии на это тратится, нужно дождаться аналоговоых или световых нейромофных чипов которые удешевят обучение и инференс моделей в разы тогда ОИИ замаячит на горизонте.
К Аналогу, нужен обязательно параллелизм в вычислении и запоминании состояния и не столь важно, что для этого будут использовать, магнетизм или фотоны, это уже будет достаточно для "замаячивания...", все остальное это жалкая пародия!
Как же хочется пощупать новую модель 😅
😁 а вы подайте заявку на ранний доступ для safety testing
@@ruslandev я уже подавал. Но модель сказала, что я нищеброд и чтобы шел лапать доярок.
Думаю эта уже точно не потянет текущ. техническую базу для масс! Нужен науч. прорыв в микропроцессорах и памяти!
Для масс и не требуется. Если AI позволит получать военное преимущество, разработки мгновенно станут закрытыми и секретными.
Звучит бредово))) Почему 85 процентов)) Почему именно эти тесты? Кто вообще судья. Это очень субьективно. Да и вообще сама задача странная и не определенная точно. Звучит как просто очередной хайп модели которую натренировали решать именно эти задачи. Челы посидели и решили датасет сдедать где похожие задачи решаются. Уверен чуть вправо или влево и будет провал. Визуальные тесты и взаимодействие с реальным миром должны быть проведены. Хотя это тоже не факт будет.