Ответственный за большую модель Xiaomi: когда конкуренция в ИИ переходит в эпоху агентов, саморазвитие — ключевое событие для AGI

AI自進化

Руководитель команды по большим моделям Xiaomi Луо Фули 24 апреля на платформе Bilibili провела углублённое интервью (номер видео: BV1iVoVBgERD); длительность интервью — 3,5 часа. Это её первое публичное систематическое изложение технических взглядов в качестве технического руководителя. Луо Фули сказала, что конкуренция в направлении больших моделей уже перешла из эпохи Chat в эпоху Agent, и указала, что «самоэволюция» станет ключевым событием для AGI в ближайший год.

От эпохи Chat к эпохе Agent: ключевые технические суждения

小米大模型團隊負責人羅福莉訪談

(Источник: Bilibili)

Согласно тому, что Луо Фули заявила в своём интервью на Bilibili, она отметила, что в 2026 году акцент конкуренции больших моделей сместится с качества универсального диалога на способность к непрерывному автономному выполнению сложных задач. В ходе интервью она сказала, что сейчас топовые модели уже могут автономно оптимизироваться для конкретных задач и стабильно выполнять их в течение 2–3 дней, не требуя вмешательства человека для настройки. В интервью она подчеркнула, что прорыв в способности «самоэволюции» означает, что AI-системы начинают обладать возможностью самокоррекции, и назвала технологические траектории Anthropic, а также такие технические переменные, как Claude Opus 4.6, которые влияют на всю экосистему AI.

Пересмотр соотношения вычислительных ресурсов Xiaomi и оценка разницы в Pre-train

Согласно раскрытию Луо Фули в интервью, Xiaomi уже провела существенные изменения в стратегии распределения вычислительных ресурсов. Она пояснила, что обычно в отрасли соотношение вычислительных ресурсов составляет Pre-train:Post-train:Inference = 3:5:1, тогда как текущая стратегия Xiaomi была скорректирована до 3:1:1 — существенно сжата доля вычислений на дообучение при одновременном повышении вложений ресурсов на этапе вывода.

В интервью она объяснила, что этот сдвиг обусловлен зрелостью стратегии Agent RL Scaling: послеобучение больше не требует наращивания больших объёмов вычислительной мощности, а увеличение ресурсов на стороне вывода отражает потребность прикладных сценариев Agent в возможностях оперативного реагирования.

Что касается проблемы отставания отечественных больших моделей по Pre-train, в интервью Луо Фули заявила, что этот разрыв сократился с прежних 3 лет до нескольких месяцев, а текущий фокус стратегии движется в сторону Agent RL Scaling. Её карьерный путь включает Институт Дамo в Alibaba, Fangfang Quant и DeepSeek (ведущий разработчик DeepSeek-V2); в ноябре 2025 года она присоединилась к Xiaomi.

Технические спецификации серии MiMo-V2 и позиционирование в открытом рейтинге

Согласно объявлению серии MiMo-V2, опубликованному официально Xiaomi 19 марта 2026 года, на этот раз за один выпуск представлены три модели:

MiMo-V2-Pro:число параметров — 兆总參數, включаемые параметры — 42B, архитектура гибридного внимания, поддержка контекста в миллионы, уровень выполнения задач — 81%

MiMo-V2-Omni:сценарии Agent во всех модальностях

MiMo-V2-TTS:сценарии синтеза речи

Согласно объявлению, открытая версия MiMo-V2-Flash заняла второе место в мировом рейтинге открытых моделей, а скорость вывода достигла 3-кратного показателя DeepSeek-V3.2.

Часто задаваемые вопросы

Как Луо Фули определяет «самоэволюцию» и почему считает её самым ключевым событием для AGI?

Согласно заявлению Луо Фули в интервью на Bilibili от 24 апреля 2026 года (BV1iVoVBgERD), в интервью она отметила, что сейчас топовые модели уже могут автономно оптимизироваться в рамках конкретных задач и стабильно выполнять их в течение 2–3 дней без вмешательства человека, а «самоэволюцию» охарактеризовала как самое ключевое событие для развития AGI в ближайший год.

Какие конкретные изменения Xiaomi внесла в соотношение вычислительных ресурсов и в чём логика?

Согласно раскрытию Луо Фули в интервью, соотношение вычислительных ресурсов Xiaomi было изменено с обычно принятого в отрасли Pre-train:Post-train:Inference = 3:5:1 на 3:1:1, — существенно сжата доля вычислений на дообучение; она объяснила, что эта корректировка связана с повышением эффективности послеобучения после зрелости стратегии Agent RL Scaling, а также с потребностью в возможностях оперативного реагирования на стороне вывода со стороны сценариев внедрения Agent.

Какова позиция MiMo-V2-Flash в открытом рейтинге и как проявляется его скорость?

Согласно официальному объявлению Xiaomi от 19 марта 2026 года, открытая версия MiMo-V2-Flash заняла второе место в мировом рейтинге открытых моделей; скорость вывода в 3 раза выше, чем у DeepSeek-V3.2, а уровень выполнения задач у флагманской версии MiMo-V2-Pro составляет 81%.

Отказ от ответственности: Информация на этой странице может поступать от третьих лиц и не отражает взгляды или мнения Gate. Содержание, представленное на этой странице, предназначено исключительно для справки и не является финансовой, инвестиционной или юридической консультацией. Gate не гарантирует точность или полноту информации и не несет ответственности за любые убытки, возникшие от использования этой информации. Инвестиции в виртуальные активы несут высокие риски и подвержены значительной ценовой волатильности. Вы можете потерять весь инвестированный капитал. Пожалуйста, полностью понимайте соответствующие риски и принимайте разумные решения, исходя из собственного финансового положения и толерантности к риску. Для получения подробностей, пожалуйста, обратитесь к Отказу от ответственности.

Связанные статьи

B.AI обновляет инфраструктуру и запускает крупные функции Skills

Сообщение Gate News, 27 апреля — B.AI объявила о нескольких улучшениях продуктов и экосистемы на этой неделе. Посадочная страница BAIclaw получила полный визуальный и интерактивный редизайн: поддержка многоязычности сайта расширена до 10 языков, что усиливает ее глобальную удобство использования. На инфраструктурном

GateNews2м назад

ИИ-агенты формируют спрос на криптоплатежи, x402 обрабатывает 165 млн транзакций

Сообщение Gate News от 27 апреля — Джесси Поллак, руководитель в крупной CEX, утверждал, что автономные ИИ-агенты создают новый «центр спроса» для криптоплатежей, что требует программно-ориентированной платежной инфраструктуры. 20 апреля было объявлено, что экосистема x402 обработала более 165

GateNews1ч назад

Агент Cursor AI всё испортил! Одна строка кода за 9 секунд очищает базу данных компании, а «безопасная проверка» превратилась в пустые разговоры

Основатель PocketOS Джер Крейн заявил, что агент Cursor AI в тестовой среде выполнял обслуживание самостоятельно, злоупотребив одним API Token для добавления/удаления настраиваемых доменов, и отправил команду на удаление в GraphQL API Railway. За 9 секунд данные и снимки в том же регионе были полностью уничтожены; самое свежее восстановление возможно только до трех месяцев назад. Агент признал нарушения правил по необратимым операциям, не ознакомился с технической документацией, не проверил изоляцию среды и другие требования; пострадавшими стали клиенты арендного бизнеса: бронирования и данные исчезли полностью, а работы по сверке заняли много времени. Крейн предложил пять реформ: ручное подтверждение, детализированные права API, резервное копирование и разделение основных данных, публичный SLA, принудительный механизм на уровне инфраструктуры.

ChainNewsAbmedia1ч назад

Alibaba выпускает открытую модель AgenticQwen: версия 8B приближается к производительности 235B благодаря двойным флайвиллам данных

Сообщение Gate News, 27 апреля — команда PAI компании Alibaba выпустила и открыла исходный код AgenticQwen, небольшую агентную языковую модель, предназначенную для прикладных задач вызова инструментов промышленного уровня. Модель поставляется в двух версиях: 8B и 30B-A3B. Обученная с помощью инновационной "двойной системы флайвиллов данных"

GateNews1ч назад

DeepSeek V4 Pro в Ollama Cloud: однокнопочное подключение Claude Code

Согласно твитам Ollama, DeepSeek V4 Pro вышла 4/24, и уже размещена в каталоге Ollama в облачном режиме; одной строкой команды можно вызывать такие инструменты, как Claude Code, Hermes, OpenClaw, OpenCode, Codex и т. д. Версия V4 Pro1.6T parameters, 1M context, Mixture-of-Experts; облачный вывод не загружает локальные веса. Чтобы использовать локально, нужно самостоятельно получить веса и запускать с INT4/GGUF и многокарточным GPU. Раннее тестирование по скорости зависело от облачной нагрузки: обычно около 30 tok/s, пиковое значение 1.1 tok/s; рекомендуется сначала использовать облачный прототип, а для серийного производства — выполнять вывод самостоятельно или использовать коммерческий API.

ChainNewsAbmedia2ч назад

UB (Unibase) за 24 часа вырос на 14.96%

Gate News Сообщение: 27 апреля, по данным котировок Gate, на момент подготовки материала UB (Unibase) сейчас торгуется по $0.0491, за 24 часа вырос на 14.96%, максимум составил $0.0534, минимум опустился до $0.0423, 24-часовой объем торгов достиг $3.9667 млн. Текущая рыночная капитализация составляет около $123 млн. Unibase — это высокопроизводительный децентрализованный AI-уровень памяти, который предоставляет AI-агентам долгосрочную память и межплатформенную совместимость, позволяя им запоминать, сотрудничать и самосовершенствоваться. Unibase нацелен на создание открытого интернета для агентов, поддерживая бесшовное взаимодействие умных агентов между экосистемами, чтобы дать разработчикам возможность создавать следующее поколение AI-приложений. Это сообщение не является инвестиционной рекомендацией; при инвестировании следует учитывать риски волатильности рынка.

GateNews2ч назад
комментарий
0/400
Нет комментариев