Message de Gate News, 23 avril — TikTok a annoncé une vaste opération de répression visant les contenus générés par IA qui portent atteinte aux droits des utilisateurs, indiquant qu’il a supprimé plus de 538 000 vidéos et sanctionné plus de 4 000 comptes à ce jour. La plateforme donnera la priorité à l’application contre les deepfakes IA, le clonage de voix, l’usurpation d’identité et l’utilisation commerciale non autorisée de l’image de célébrités.
Selon le rapport de gouvernance de TikTok pour 2026, la plateforme a supprimé 360 000 vidéos impliquant de l’usurpation d’identité basée sur l’IA et du « trend-jacking », a traité 85 000 contenus comprenant des ressemblances faciales et des clonages de voix générés par IA sans autorisation, et a nettoyé plus de 30 000 éléments de contenu trompeurs de type « arnaque amoureuse à l’IA » visant des utilisateurs d’âge moyen et des personnes âgées, avec 1 300 comptes associés sanctionnés. La plateforme a reconnu des défis persistants dans l’industrie, notamment la difficulté d’identifier des contenus générés par IA et les limites des capacités de reconnaissance vocale.
Le 9 avril, WeChat a annoncé des mises à jour de ses normes de fonctionnement de la plateforme publique, interdisant aux comptes d’utiliser l’IA, des scripts ou des outils automatisés pour remplacer des créateurs humains dans la production et la distribution de contenu. Les violations entraîneront des restrictions de trafic, la suppression de contenu ou la suspension du compte. Le 27 mars, WeChat avait formalisé ces règles, couvrant les contenus générés par IA, la publication automatisée via des scripts et la promotion de méthodes de création automatisée non humaines.
Red Fruit Short Drama a rapporté le 6 avril qu’il avait supprimé 1 718 séries animées non conformes au T1 2026. Suite à une hausse de l’utilisation non autorisée de contenus IA, la plateforme a mené des examens complets de 15 000 œuvres, a supprimé 670 productions non conformes et a mis en évidence quatre catégories de violations typiques. La plateforme a souligné son engagement à protéger les contenus originaux et à empêcher l’utilisation non autorisée de matériaux générés par IA.
Avertissement : Les informations contenues dans cette page peuvent provenir de tiers et ne représentent pas les points de vue ou les opinions de Gate. Le contenu de cette page est fourni à titre de référence uniquement et ne constitue pas un conseil financier, d'investissement ou juridique. Gate ne garantit pas l'exactitude ou l'exhaustivité des informations et n'est pas responsable des pertes résultant de l'utilisation de ces informations. Les investissements en actifs virtuels comportent des risques élevés et sont soumis à une forte volatilité des prix. Vous pouvez perdre la totalité du capital investi. Veuillez comprendre pleinement les risques pertinents et prendre des décisions prudentes en fonction de votre propre situation financière et de votre tolérance au risque. Pour plus de détails, veuillez consulter l'
avertissement.
Articles similaires
Google Jules se renomme en plateforme de développement de produits agentique de bout en bout et ouvre une liste d’attente pour une nouvelle version
Message de Gate News, 23 avril — L’équipe Jules de Google a annoncé l’ouverture d’une liste d’attente pour une nouvelle version du produit, repositionnant Jules d’un agent de codage asynchrone vers une plateforme de développement de produits agentique de bout en bout. D’après la description officielle, la plateforme améliorée lit le contexte complet du produit,
GateNewsIl y a 23m
Perplexity révèle sa méthode de post-formation pour des agents de recherche web ; le modèle basé sur Qwen3.5 surpasse GPT-5.4 en précision et en coût
Perplexity utilise la SFT suivie par le RL avec des modèles Qwen3.5, en s’appuyant sur un ensemble de données QA multi-étapes et des contrôles par grille d’évaluation pour améliorer la précision et l’efficacité de la recherche, en atteignant des performances FRAMES de niveau supérieur.
Résumé : le flux de travail de post-formation de Perplexity pour les agents de recherche web combine un apprentissage supervisé par fine-tuning (SFT) afin de garantir le respect des instructions et la cohérence linguistique avec un apprentissage par renforcement en ligne (RL) via l’algorithme GRPO. La phase RL exploite un jeu de données propriétaire vérifiable de questions-réponses multi-étapes et des données conversationnelles basées sur des grilles d’évaluation pour empêcher la dérive de la SFT, avec un filtrage des récompenses et des pénalités d’efficacité au sein des groupes. L’évaluation montre que Qwen3.5-397B-SFT-RL atteint les meilleures performances FRAMES, avec 57,3 % d’exactitude avec un seul appel d’outil et 73,9 % avec quatre appels, à 0,02 $ par requête, surpassant GPT-5.4 et Claude Sonnet 4.6 sur ces métriques. La tarification est basée sur l’API et exclut la mise en cache.
GateNewsIl y a 57m
La finance traditionnelle accélérera l’entrée sur le marché crypto, selon l’économiste Fu Peng
Message de Gate News, 23 avril — Fu Peng, économiste en chef de Xinfire Group, a partagé son point de vue sur la convergence entre la finance traditionnelle et les actifs crypto lors du Sommet 2026 sur la gestion institutionnelle du patrimoine numérique à Hong Kong. Selon Fu, l’intégration des institutions financières traditionnelles avec
GateNewsIl y a 1h
L’équipe OpenAI Codex corrige un bug d’authentification d’OpenClaw et améliore considérablement le comportement de l’agent
OpenClaw passe de Pi à l’outil d’exécution Codex pour corriger un repli d’authentification silencieux, avec deux PR qui traitent le bridge et le fallback ; après la correction, l’agent passe d’un simple polling de battements à une boucle de travail complète, permettant des progrès.
Résumé : L’optimisation de l’outil d’exécution Codex d’OpenClaw a corrigé une faille d’authentification critique qui provoquait un repli silencieux vers l’outil d’exécution Pi lors de l’utilisation de Codex avec des modèles OpenAI. Deux requêtes d’extraction corrigent le bridge d’authentification et empêchent le repli silencieux, en modifiant l’adaptateur d’exécution. En conséquence, le comportement de l’agent évolue d’un simple polling de battements à une boucle de travail complète qui lit le contexte, analyse les tâches, modifie les dépôts et vérifie l’avancement, améliorant la continuité et la visibilité entre les battements.
GateNewsIl y a 2h
Le modèle d’analyse de sécurité de niveau militaire Mythos d’Anthropic a été accédé sans autorisation : comment ont-ils fait ?
Rapporte Bloomberg : un groupe privé de messagerie a accédé à Mythos sans autorisation, via une licence légitime obtenue auprès du tiers sous-traitant d’Anthropic. Mythos est une IA défensive destinée aux entreprises, uniquement disponible pour de grandes organisations soumises à des contrôles stricts. Le groupe s’est servi de sa connaissance de l’URL du modèle pour déduire l’emplacement du système et y accéder, puis a fourni des captures d’écran pour démontrer, affirmant qu’il est toujours utilisé mais sans intention malveillante. Anthropic est en train d’enquêter ; dans un premier temps, l’affaire est considérée comme un abus de droits plutôt qu’une intrusion externe. Cette affaire met en évidence le risque lié au fait de confier des modèles très sensibles à la gestion de tiers, et souligne la nécessité de renforcer la résilience de la gouvernance et les mécanismes de confiance.
ChainNewsAbmediaIl y a 2h
Alerte du CISO de Manticore : ShinyHunters affirme avoir compromis les systèmes internes d’Anthropic
Selon une alerte publiée le 23 avril sur la plateforme X par le directeur de la sécurité de l’information de SlowMist, 23pds, le groupe de hackers ShinyHunters affirme avoir compromis des systèmes internes liés au modèle Anthropic Mythos et a partagé des preuves sous forme de captures d’écran, notamment le panneau de gestion des utilisateurs, le tableau de bord d’expérimentation de l’IA ainsi que des analyses des performances et des coûts du modèle. Toutefois, Anthropic n’a pas encore publié de déclaration officielle.
MarketWhisperIl y a 2h