Message d’actualité de Gate, 24 avril — DeepSeek a publié la série V4 de modèles open-source sous la licence MIT, avec des poids désormais disponibles sur Hugging Face et ModelScope. La série comprend deux modèles (MoE) de type mixture-of-experts : V4-Pro avec 1,6 billion de paramètres au total et 49 milliards activés par jeton, et V4-Flash avec 284 milliards de paramètres au total et 13 milliards activés par jeton. Les deux prennent en charge une fenêtre de contexte d’1 million de jetons.
L’architecture présente trois mises à niveau clés : un mécanisme d’attention hybride combinant l’attention clairsemée compressée (CSA) et l’attention fortement compressée (HCA) qui réduit considérablement la surcharge pour les longs contextes — pour V4-Pro, les FLOPs d’inférence pour un contexte de 1M ne sont que 27 % de ceux de V3.2, et le cache KV (VRAM destiné au stockage d’informations historiques pendant l’inférence) n’est que 10 % de celui de V3.2 ; des hyperconnexions à contraintes de manifold (mHC) remplaçant les connexions résiduelles traditionnelles afin d’améliorer la stabilité de la propagation du signal entre les couches ; et l’optimiseur Muon pour une convergence d’entraînement plus rapide. Le préentraînement a utilisé plus de 32 trillions de jetons de données.
Le post-entraînement emploie une approche en deux étapes : d’abord entraîner des experts spécifiques au domaine via un fine-tuning supervisé (SFT) et l’apprentissage par renforcement GRPO, puis les fusionner en un seul modèle grâce à une distillation en ligne. V4-Pro-Max (plus haut mode d’inférence) affirme être le modèle open-source le plus puissant, avec des benchmarks de codage de premier plan et des écarts nettement réduits par rapport aux modèles de pointe propriétaires sur les tâches de raisonnement et d’agents. V4-Flash-Max atteint des performances de raisonnement de niveau Pro avec un budget de calcul suffisant, mais est limité par l’échelle des paramètres sur les tâches de connaissance pure et les tâches d’agents complexes. Les poids sont stockés dans une précision mixte FP4+FP8.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
DeepSeek V4 obtient un score parfait sur Putnam-2025, à égalité avec Axiom en raisonnement mathématique formel
Message de Gate News, 24 avril — DeepSeek V4 a publié des résultats issus d’évaluations de raisonnement mathématique formel, obtenant un score parfait de 120/120 sur Putnam-2025, à égalité avec Axiom pour la première place.
Dans le régime pratique utilisant LeanExplore et un échantillonnage contraint, V4-Flash-Max a obtenu 81.00 sur le
GateNewsIl y a 6m
Quelle IA rend le plus manifestement votre statut et votre position ? Une étude révèle que les revenus des utilisateurs de Claude dépassent largement ceux de ses concurrents, Meta AI en fait le bas du classement
Une enquête d’Epoch AI montre que les utilisateurs de Claude appartiennent majoritairement à des catégories à revenus élevés : 80 % ont un revenu annuel supérieur à 100 000 dollars ; Meta AI a la distribution de revenus la plus large, 36,5 % dépassant 100 000, et la part des faibles revenus est la plus élevée ; avec Claude, une hausse des prix et une tarification par paliers peuvent faire augmenter les coûts, tandis que l’accès à Meta est plus facile. Quel AI sera utilisé à l’avenir, pourrait devenir une étiquette d’identité implicite.
ChainNewsAbmediaIl y a 11m
V4‑Pro atteint un taux de réussite de 67 % en codage lors d’un test d’auto-utilisation interne, se rapprochant des performances d’Opus 4.5
Message d’actualités Gate, 24 avril — V4 a divulgué publiquement des données internes de tests d’auto-utilisation (dogfooding) pour son modèle V4‑Pro. La société a collecté environ 200 tâches d’ingénierie issues du monde réel auprès de plus de 50 ingénieurs, couvrant le développement de fonctionnalités, la correction de bogues, la refactorisation et le diagnostic sur des piles technologiques incluant
GateNewsIl y a 26m
Le Royaume-Uni examine Anthropic AI pour renforcer la cybersécurité bancaire
Le Royaume-Uni explore une étape majeure en matière de cybersécurité financière en travaillant avec la société d’IA Anthropic. Des discussions préliminaires laissent entendre que le gouvernement pourrait déployer le modèle avancé Claude Mythos d’Anthropic dans les banques et les institutions financières. Cette démarche vise à renforcer les défenses face aux menaces cybernétiques
CryptometerIoIl y a 30m
Le bureau chinois de la PI ajoute l’IA, les semi-conducteurs et les interfaces cerveau-ordinateur à son programme de protection accélérée
Message de Gate News, 24 avril — L’Administration nationale chinoise de la propriété intellectuelle a annoncé le 24 avril qu’elle mettra en place une protection complète de la propriété intellectuelle pour les technologies émergentes grâce à des réformes institutionnelles, des services renforcés et des applications étendues. L’administration wi
GateNewsIl y a 37m
Le gouvernement américain exploite un nœud Bitcoin sans minage, indique l’amiral
Un amiral en chef a indiqué que le gouvernement américain opère activement un nœud sur le réseau Bitcoin tout en évitant délibérément de participer aux activités de minage. La divulgation suggère que les autorités adoptent un rôle plus impliqué dans l’infrastructure de la blockchain pour la supervision et
CryptoFrontierIl y a 53m