
Selon un rapport du 28 avril de Axios citant des initiés, la Maison-Blanche élabore des lignes directrices permettant à chaque agence fédérale de contourner l’évaluation des risques liés à la chaîne d’approvisionnement (SCRD) d’Anthropic, et d’introduire de nouveaux modèles pour un usage gouvernemental, y compris le modèle Mythos détenu par Anthropic. À ce sujet, la Maison-Blanche a publié une déclaration officielle indiquant que toute annonce de politique sera publiée directement par le président, et que toute autre version relève uniquement de la spéculation.
Selon un rapport de Axios du 28 avril, plus tôt ce mois-ci, le chef de cabinet de la Maison-Blanche Susie Wiles et le secrétaire au Trésor Scott Bessent ont rencontré conjointement le PDG d’Anthropic, Dario Amodei, et les deux parties ont décrit cette réunion comme une présentation fructueuse consacrée à l’examen des orientations de coopération entre l’entreprise et le gouvernement.
Cette semaine, la Maison-Blanche a réuni des entreprises de divers secteurs pour obtenir des informations sur d’éventuelles mesures administratives et sur les meilleures pratiques liées au déploiement du système Mythos. D’après le rapport de Axios, les réunions concernées incluaient des « lectures de scénario » (table reads) sur les directives proposées ; ces directives pourraient annuler les instructions publiées précédemment par le Bureau de la gestion et du budget (OMB), selon lesquelles les agences gouvernementales ne doivent pas utiliser les systèmes d’Anthropic. Anthropic a refusé de commenter le rapport de Axios.
Selon un rapport de Axios du 28 avril, le Pentagone (DoD) avait auparavant publié une évaluation des risques liés à la chaîne d’approvisionnement concernant Anthropic et a engagé une action en justice. Le cœur du litige tient au fait qu’Anthropic refuse de signer un accord autorisant le Pentagone à utiliser le modèle Claude dans le cadre de la norme « tous les usages licites » (incluant des applications de drones) ; les clauses d’interdiction explicites d’Anthropic comprennent la surveillance intérieure à grande échelle et le développement d’armes entièrement autonomes. Le Pentagone a déclaré que ce refus montre qu’Anthropic n’est pas un partenaire fiable.
D’après le rapport de Axios, bien que le contentieux juridique soit toujours en cours, les agences gouvernementales, y compris le Pentagone, peuvent encore utiliser une partie des modèles d’Anthropic. La NSA (National Security Agency) utilise également Mythos. Cependant, le Pentagone continue d’appliquer les anciennes conditions de service que les deux parties jugent trop strictes, et ne parvient pas à obtenir la version la plus récente des mises à jour des modèles d’Anthropic.
Selon un rapport de Axios du 28 avril, Anthropic s’obstine à refuser de signer un accord « tous les usages licites », interdisant explicitement les utilisations qui incluent la surveillance intérieure à grande échelle et le développement d’armes entièrement autonomes.
Le rapport de Axios indique également que OpenAI et Google ont toutes deux signé des accords avec le Pentagone, permettant l’utilisation de leurs modèles selon la norme « tous les usages licites » dans des environnements confidentiels ; les deux entreprises affirment que les accords respectent les deux clauses d’interdiction définies par Anthropic.
Selon un rapport du 28 avril de Axios citant des initiés, la Maison-Blanche prépare des directives permettant aux agences fédérales de contourner l’évaluation des risques liés à la chaîne d’approvisionnement d’Anthropic ; les mesures pourraient être publiées sous forme d’ordre administratif, et incluraient des directives de déploiement pour le modèle Mythos. La déclaration officielle de la Maison-Blanche indique que toute annonce de politique sera publiée directement par le président.
Selon un rapport de Axios du 28 avril, le différend trouve son origine dans le refus d’Anthropic de signer un accord autorisant le Pentagone à utiliser le modèle Claude dans le cadre de la norme « tous les usages licites » ; les utilisations explicitement interdites incluent la surveillance intérieure à grande échelle et le développement d’armes entièrement autonomes. Le Pentagone a ensuite publié une évaluation des risques liés à la chaîne d’approvisionnement et engagé des poursuites judiciaires.
Selon un rapport de Axios du 28 avril, OpenAI et Google ont toutes deux signé des accords avec le Pentagone, permettant l’utilisation de leurs modèles selon la norme « tous les usages licites » dans des environnements confidentiels ; et les deux entreprises affirment que les accords respectent les deux clauses d’interdiction définies par Anthropic.
Articles similaires
Sam Altman publie des captures d’écran du double mode de Codex, séparant officiellement les fonctions bureau et programmation
Codex d’OpenAI lance une interface à deux modes : Excelmogging pour le travail de bureau, Codemaxxing pour la programmation
Taylor Swift dépose des marques pour sa voix et son image, afin de prévenir la propagation de contenus contrefaits par IA
La Maison-Blanche élabore des orientations pour permettre l’utilisation d’Anthropic et renoncer aux déterminations de risque de la chaîne d’approvisionnement
GPT-5.4 Pro Résout la conjecture d’Erdős sur 60 ans #1196
Eli Lilly s’associe à Profluent pour un accord de 2,25 Md$ sur un médicament d’édition de l’ADN conçu par IA