Resultados da pesquisa de "MOE"
2026-03-26
01:51

Meituan lança o LongCat-Next de código aberto: compreensão, geração e fala unificadas com 3 bilhões de parâmetros

O LongCat-Next, de código aberto pela equipa Meituan Long猫, é um modelo multimodal baseado na arquitetura MoE que integra cinco capacidades: compreensão de texto, visão, geração de imagens e voz. O seu design central DiNA implementa processamento de tarefas unificado através de tokens discretos, enquanto a abordagem visual dNaViT proporciona desempenho exemplar na geração de imagens. Em comparação com modelos similares, o LongCat-Next demonstra desempenho superior em todas as métricas, evidenciando as suas vantagens na compreensão e geração multimodal.
Mais
06:36

Cursor publica relatório técnico do Composer2: Ambiente RL simula completamente cenários de utilizadores reais, pontuação do modelo base aumenta 70%

Cursor publicou um relatório técnico do Composer 2, apresentando seu plano de treinamento completo para a arquitetura Kimi K2.5 MoE, incluindo treinamento em duas fases e o benchmark proprietário CursorBench. Após o treinamento, o desempenho do Composer 2 melhorou significativamente e superou outros modelos de ponta em termos de custo de inferência.
Mais
06:27

Cursor publica relatório técnico do Composer 2, pontuação do modelo base aumenta 70%

A Cursor publicou a relatório técnico do Composer 2 em 25 de março, revelando o plano de treinamento do modelo Kimi K2.5, que adota uma arquitetura MoE com parâmetros de 1,04 triliões. O treinamento é dividido em duas fases, utilizando simulação de cenários reais para aprendizagem por reforço. Finalmente, obteve uma pontuação de 61,3 no referencial CursorBench, com uma melhoria de 70%, e o custo de inferência é inferior ao de outras APIs de grandes modelos.
Mais
02:27

A Meituan lançou um modelo de prova de teoremas com 560 bilhões de parâmetros de código aberto, atingindo uma taxa de sucesso de 97,1% em 72 inferências, superando o estado da arte de código aberto.

A equipa LongCat da Meituan abriu o código do LongCat-Flash-Prover a 21 de março, um modelo MoE com 560 biliões de parâmetros, focado em prova de teoremas de formalização Lean4. O modelo divide-se em três capacidades: formalização automática, geração de esboços e geração de provas completas, combinando ferramentas de raciocínio com o compilador Lean4 para implementar verificação em tempo real. O treino utiliza o Hybrid-Experts Iteration Framework e o algoritmo HisPO para prevenir fraude de recompensas. Os testes de referência mostram que este modelo estabeleceu novos recordes em modelos de pesos de código aberto em formalização automática e prova de teoremas.
Mais
06:55

Mistral AI lança Leanstral: primeiro Agent de código aberto Lean 4, pode gerar automaticamente provas formalizadas

A Mistral AI lançou Leanstral, um agente de código de código aberto especificamente concebido para verificação formal em Lean 4, capaz de gerar código e provas que podem ser automaticamente validadas. O modelo utiliza uma arquitetura MoE esparsa, com desempenho superior ao de outros modelos de topo, e oferece descarregamento gratuito e chamadas de API.
Mais