Cluster Protocol lève $5M pour accélérer CodeXero, un IDE d’IA natif du navigateur pour EVM

Message de Gate News, 23 avril — Cluster Protocol, une société de deeptech IA et d’infrastructure Web3, a annoncé avoir levé $5 millions lors d’un nouveau tour de financement mené par DAO5, avec la participation de Paper Ventures, JPEG Trading et Mapleblock Capital, portant le financement total à 7,75 millions $. Le capital accélérera CodeXero, un IDE de type « vibe coding » natif du navigateur conçu pour aider les développeurs à passer du concept au produit onchain avec un minimum de friction.

CodeXero transforme l’intention de l’utilisateur en smart contracts et en logique DeFi de qualité production en s’appuyant sur l’infrastructure IA décentralisée de Cluster, entraînée sur plus de 200 modèles de smart contracts audités. La plateforme a déjà connecté plus de 300 000 portefeuilles, traité plus de 3 milliards de tokens d’IA et permis le déploiement de plus de 25 000 dApps. L’écosystème de Cluster comprend plus de 400 intégrations partenaires couvrant des réseaux GPU, des fournisseurs de données et des plateformes d’agents.

Ce nouveau financement servira à soutenir l’expansion du produit et de l’ingénierie, à approfondir les systèmes d’IA et les workflows des développeurs, et à accélérer la croissance de l’écosystème. La mission de Cluster vise à réduire les barrières à la création onchain, permettant aux développeurs de livrer des produits en quelques minutes plutôt qu’en quelques mois grâce à des outils nativement conçus pour l’IA.

Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'avertissement.

Articles similaires

Brèche de sécurité chez Vercel : s’étend à des centaines d’utilisateurs ; les développeurs IA à plus haut risque

Message de Gate News, 23 avril — Vercel a révélé le 19 avril que son incident de sécurité, initialement décrit comme touchant un « sous-ensemble limité de clients », s’est étendu à une communauté de développeurs bien plus large, en particulier ceux qui construisent des flux de travail d’agents IA. L’attaque peut toucher des centaines d’utilisateurs

GateNewsIl y a 47m

OpenAI lance GPT-5.5 : 12M de contexte, l’indice AA atteint le sommet, Terminal-Bench 82,7 % reconfigure la référence des agents

OpenAI publie GPT-5.5, axé sur le travail basé sur des agents et le traitement des connaissances en entreprise, et le lance simultanément dans ChatGPT et Codex. Les points clés incluent une fenêtre contextuelle de 12 millions de tokens, l’AA Intelligence Index 60, en avance sur Claude Opus 4.7 et Gemini 3.1 Pro ; le prix est de 5 dollars pour l’entrée de 1 million de tokens et de 30 dollars pour la sortie de 1 million de tokens, la sortie de tokens diminuant d’environ 40 %, tandis que le coût réel augmente d’environ 20 %.

ChainNewsAbmediaIl y a 1h

Nvidia élargit ses partenariats en matière d’IA au Royaume-Uni, en Chine et dans le secteur automobile malgré les défis de la chaîne d’approvisionnement

Message de Gate News, 23 avril — Malgré la concurrence de Google et les perturbations de la chaîne d’approvisionnement, Nvidia reste le principal acteur sur le marché du matériel pour l’IA. TD Cowen a réaffirmé sa recommandation « achat » sur Nvidia jeudi, citant le leadership de l’entreprise en matière de performances et l’étendue de son écosystème logiciel. L’aval

GateNewsIl y a 1h

Anthropic révèle l’empilement de trois bugs de Claude Code : dégradation du raisonnement, oubli du cache, contrecoup d’une instruction de 25 caractères

Anthropic publie un cumul de trois pannes de Claude Code : du 3/4 au 4/7, le niveau de raisonnement est abaissé à medium, entraînant une latence de réponse et une impression d’être plus « bête » ; du 3/26 au 4/10, des erreurs de nettoyage du cache provoquent un oubli lors des longues conversations ; du 4/16 au 4/20, l’ajout d’une instruction de « commande d’outil en moins de 25 caractères », puis un retour en arrière après le 4/20. Les éléments touchés sont Claude Code, Agent SDK, Cowork ; le modèle est Sonnet 4.6, Opus 4.6/4.7 ; l’API n’est pas affectée. Le 4/23, réinitialisation de l’utilisation et renforcement de l’évaluation et des tests de non-régression.

ChainNewsAbmediaIl y a 3h

La Maison-Blanche accuse la Chine de vol de modèles d’IA à « grande échelle industrielle »

La Maison-Blanche a averti le 23 avril 2026 que des entités étrangères, principalement en Chine, mènent des campagnes « à grande échelle industrielle » afin de copier des modèles d’intelligence artificielle américains, selon une note du mémo de Michael Kratsios, Assistant de

CryptoFrontierIl y a 5h

OpenClaw 2026.4.22 unifie le cycle de vie des plugins entre les harness Codex et Pi, réduisant le temps de chargement des plugins jusqu’à 90 %

Message de Gate News, 23 avril — OpenClaw, une plateforme open source d’agent IA, a publié la version 2026.4.22 le 22 avril, dont le plus grand changement est l’alignement des cycles de vie du harness Codex et du harness Pi. Auparavant, les plugins se comportaient de façon incohérente entre les deux voies de harness, certains hooks étant absents dans certains environnements. La nouvelle version consolide les hooks critiques, notamment before_prompt_build, before_compaction/after_compaction, after_tool_call, before_message_write, et llm_input/llm_output/agent_end, éliminant la nécessité pour les développeurs de maintenir des implémentations distinctes pour chaque voie. La mise à jour introduit aussi la prise en charge du middleware async tool_result pour les extensions de plugin côté Codex. Les améliorations de performance sont considérables : le chargement des plugins utilise désormais Jiti natif, réduisant le temps de démarrage de 82 % à 90 %, tandis que l’exécution de doctor --non-interactive a diminué d’environ 74 %. Le niveau de réflexion par défaut pour les modèles d’inférence a été relevé de désactivé/faible à moyen, permettant des sorties de raisonnement par défaut pour les configurations non modifiées. D’autres correctifs incluent le fait que les appels d’agent multi-tours de Kimi K2.6 n’interrompent plus en raison d’une corruption de l’ID tool_call, une meilleure gestion de la mémoire des sous-processus Linux avec un ajustement automatique de oom_score_adj, et un nouveau système de récupération de configuration last-known-good pour empêcher que les crashs de Gateway ne soient causés par des écrasements accidentels de configuration. Les nouvelles intégrations de fournisseurs incluent la génération d’images de xAI grok-imagine-image et grok-imagine-image-pro, ainsi que les capacités TTS et STT ; Tencent Cloud en tant que plugin fournisseur officiel avec des modèles de prévisualisation Hy3 et une tarification ; et l’outil natif web_search d’OpenAI, remplaçant le canal de recherche géré d’OpenClaw lorsque la recherche web est activée.

GateNewsIl y a 6h
Commentaire
0/400
Aucun commentaire