
A responsável da equipa de modelos de IA da Xiaomi, Luo Fuli, concedeu uma entrevista em profundidade na plataforma Bilibili em 24 de abril (número do vídeo: BV1iVoVBgERD). A duração da entrevista foi de 3,5 horas, sendo a primeira vez que ela expõe de forma sistemática as suas perspectivas técnicas publicamente enquanto responsável técnica. Luo Fuli afirmou que a corrida dos grandes modelos já passou da era do Chat para a era dos Agents e indicou que a “auto-evolução” será o acontecimento-chave para a AGI no próximo ano.
Da era do Chat à era dos Agents: juízo técnico central

(Fonte: Bilibili)
Com base no que Luo Fuli disse na entrevista do Bilibili, ela afirmou que o foco da competição de grandes modelos em 2026 passará de métricas de qualidade de conversação genérica para a capacidade de execução autónoma e contínua em tarefas complexas. Na entrevista, ela afirmou que, atualmente, os modelos de topo já conseguem otimizar-se autonomamente em tarefas específicas e manter uma execução estável durante 2 a 3 dias, sem necessidade de intervenção humana para ajustes. Na entrevista, ela sublinhou que o avanço da capacidade de “auto-evolução” significa que os sistemas de IA começam a ter capacidade de autocorreção, e nomeou também as variáveis do percurso tecnológico da Anthropic e de tecnologias como o Claude Opus 4.6, bem como o impacto destas no ecossistema global de IA.
Ajustes na afetação de capacidade de computação da Xiaomi e avaliação do desfasamento de Pre-train
De acordo com as revelações de Luo Fuli durante a entrevista, a Xiaomi já realizou ajustes significativos na sua estratégia de alocação de capacidade de computação. Ela explicou que a proporção de capacidade de computação usada habitualmente na indústria é Pre-train:Post-train:Inference = 3:5:1, enquanto a estratégia atual da Xiaomi foi ajustada para 3:1:1, comprimindo de forma acentuada a proporção de treino pós-treino e, em simultâneo, aumentando o investimento de recursos na fase de inferência.
Na entrevista, ela explicou que esta mudança se deve à maturidade da estratégia de Agent RL Scaling, pelo que o pós-treino já não necessita de empilhar grandes quantidades de capacidade de computação, e o aumento de recursos na ponta de inferência reflete a necessidade de capacidades de resposta imediata nos cenários em que os Agents são implementados.
Relativamente ao problema do desfasamento de gerações (de Pre-train) nos grandes modelos no mercado doméstico, Luo Fuli afirmou que este desfasamento passou de 3 anos no passado para alguns meses, e que o foco estratégico atual está a deslocar-se para Agent RL Scaling. O percurso profissional de Luo Fuli inclui o Alibaba DAMO Academy, a empresa de quantificação Huanfang Quant e a DeepSeek (desenvolvedora principal do DeepSeek-V2), e em novembro de 2025 juntou-se à Xiaomi.
Especificações técnicas da série MiMo-V2 e rankings de open source
De acordo com o comunicado da Xiaomi publicado oficialmente em 19 de março de 2026 sobre a série MiMo-V2, desta vez foram publicados três modelos de uma só vez:
MiMo-V2-Pro:total de parâmetros, ativa parâmetros 42B, arquitetura de atenção mista, suporta contexto de milhões, taxa de conclusão de tarefas 81%
MiMo-V2-Omni:cenários de Agent de modalidade total
MiMo-V2-TTS:cenários de síntese de voz
De acordo com o comunicado, o MiMo-V2-Flash que já foi disponibilizado em open source ficou em segundo lugar no ranking global de modelos open source, e a velocidade de inferência atinge 3 vezes a do DeepSeek-V3.2.
Perguntas frequentes
Como é que Luo Fuli define “auto-evolução” e por que razão considera que é o evento mais crucial para a AGI?
Com base no que Luo Fuli afirmou numa entrevista na Bilibili em 24 de abril de 2026 (BV1iVoVBgERD), ela indicou que, atualmente, os modelos de topo já conseguem otimizar-se autonomamente em tarefas específicas e executar de forma estável durante 2 a 3 dias sem necessidade de intervenção humana, e classificou a “auto-evolução” como o evento mais crucial para o desenvolvimento da AGI no próximo ano.
Que ajustes concretos fez a Xiaomi na afetação de capacidade de computação e qual é a lógica por trás?
Com base nas revelações de Luo Fuli na entrevista, a afetação de capacidade de computação da Xiaomi foi ajustada de Pre-train:Post-train:Inference = 3:5:1, utilizada habitualmente na indústria, para 3:1:1, comprimindo de forma acentuada a proporção do treino pós-treino; ela explicou que esta mudança se deve ao facto de, após a maturidade da estratégia de Agent RL Scaling, a eficiência do pós-treino ter aumentado e às necessidades de capacidades de resposta imediata no lado da inferência para os cenários de implementação de Agents.
Qual é o ranking open source e o desempenho de velocidade do MiMo-V2-Flash?
De acordo com o comunicado oficial publicado pela Xiaomi em 19 de março de 2026, o MiMo-V2-Flash disponibilizado em open source ficou em segundo lugar no ranking global de modelos open source, e a velocidade de inferência é 3 vezes a do DeepSeek-V3.2; a taxa de conclusão de tarefas da versão flagship MiMo-V2-Pro é de 81%.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
Agentes de IA impulsionam a procura de pagamentos em cripto, o x402 processa 165M transações
Mensagem do Gate News, 27 de abril — Jesse Pollak, um executivo de um grande CEX, defendeu que agentes de IA autónomos estão a criar um novo "centro de procura" para pagamentos em cripto, exigindo uma infraestrutura de pagamentos nativa de software. A 20 de abril, foi anunciado que o ecossistema x402 processou mais de 165
GateNews55m atrás
Agente do Cursor AI falhou! Uma linha de código apagou a base de dados da empresa em 9 segundos, a salvaguarda de segurança tornou-se conversa vazia
O fundador da PocketOS, Jer Crane, indicou que um agente de IA da Cursor executou, por conta própria, operações de manutenção no ambiente de testes, abusando de um Token de API para adicionar/remover domínios personalizados, lançando um comando de eliminação contra a API GraphQL da Railway. Em 9 segundos, os dados e os snapshots na mesma região ficaram completamente destruídos, podendo a recuperação mais recente ser feita apenas até três meses antes. O agente admitiu violar regras de operações irreversíveis, não ter lido a documentação técnica, não ter verificado a segregação do ambiente, entre outras. As vítimas foram clientes do setor de aluguer de automóveis: as reservas e os dados desapareceram por completo, e a reconciliação levou muito tempo. Crane propôs cinco reformas: confirmação manual, permissões de API mais granulares, separação entre backups e dados principais, divulgação de SLA e mecanismos obrigatórios ao nível subjacente.
ChainNewsAbmedia1h atrás
Alibaba lança modelo AgenticQwen em open-source: versão 8B aproxima desempenho de 235B através de dual data flywheels
Mensagem da Gate News, 27 de abril — A equipa PAI da Alibaba lançou e disponibilizou em open-source o AgenticQwen, um modelo de linguagem agentico de pequena escala concebido para aplicações industriais de tool-calling. O modelo existe em duas versões: 8B e 30B-A3B. Treinado através de um inovador framework de aprendizagem por reforço "dual data flywheel"
GateNews1h atrás
DeepSeek V4 Pro no Ollama Cloud: ligação num só clique do Claude Code
De acordo com os tweets da Ollama, o DeepSeek V4 Pro foi lançado em 24/4, já foi adicionado no diretório da Ollama em modo de cloud e, com um único comando, pode chamar ferramentas como Claude Code, Hermes, OpenClaw, OpenCode, Codex, etc. V4 Pro 1.6T params, 1M context, Mixture-of-Experts; a inferência em cloud não descarrega pesos para a máquina local. Para executar localmente, é necessário obter os pesos e correr com INT4/GGUF e GPUs multi-cartão. Os testes de velocidade iniciais foram influenciados pela carga do serviço em cloud, com um valor típico de ~30 tok/s e um pico de 1.1 tok/s; recomenda-se usar o protótipo em cloud e, para produção em larga escala, fazer inferência local ou usar uma API comercial.
ChainNewsAbmedia2h atrás
UB (Unibase) regista uma subida de 14.96% nas últimas 24 horas
Notícia do Gate, 27 de abril, de acordo com as informações de mercado do Gate. Até ao momento da redação, a UB (Unibase) está a cotar a 0.0491 dólares, tendo registado uma subida de 14.96% nas últimas 24 horas. O preço atingiu um máximo de 0.0534 dólares e recuou para um mínimo de 0.0423 dólares. O volume de transações nas últimas 24 horas ascendeu a 3.9667 milhões de dólares. A capitalização de mercado atual é de cerca de 123 milhões de dólares.
A Unibase é uma camada de memória de IA descentralizada e de alto desempenho, fornecendo memória de longo prazo e interoperabilidade entre plataformas aos agentes de IA, permitindo-lhes recordar, colaborar e evoluir-se a si próprios. A Unibase pretende construir uma Internet aberta de agentes, apoiando uma colaboração sem interrupções entre agentes inteligentes em diferentes ecossistemas, capacitando os programadores a criar aplicações de IA da próxima geração.
Esta notícia não constitui aconselhamento de investimento; o investimento envolve riscos decorrentes da volatilidade do mercado.
GateNews2h atrás
Guo Mingqiang: A OpenAI vai fazer um telemóvel com um agente de IA, MediaTek, Qualcomm e Luxshare Precision são uma cadeia de fornecimento chave
Guo Ming-qiang alega que a OpenAI está a colaborar com a MediaTek, a Qualcomm e a Luxshare Precision para desenvolver telemóveis com AI Agent, prevendo-se a produção em massa em 2028. O novo telemóvel terá como base central a conclusão de tarefas: os agentes de IA compreenderão e executarão os requisitos, combinando computação na cloud e no dispositivo, com foco em sensores e compreensão de contextos. As especificações e a lista da cadeia de fornecimento deverão ser definidas em 2026–2027; se se concretizar, poderá trazer um novo ciclo de substituição de telemóveis para o mercado de gama alta, e a Luxshare tem potencial para ser a principal beneficiária.
ChainNewsAbmedia2h atrás