
Pour Anthropic, c'est non ! Et ce malgré, malgré les menaces de Washington. La start-up californienne a opposé jeudi 26 février une fin de non-recevoir à l'administration Trump quant à l'utilisation de son IA par le Pentagone. «Ces menaces ne changent pas notre position : en toute conscience, nous ne pouvons pas accéder à leur demande», écrit dans un communiqué le patron d'Anthropic, Dario Amodei. Avec cette décision, Anthropic dresse en fait une limite éthique à l'utilisation de sa technologie - à laquelle l'armée et le renseignement américains ont déjà recours pour la défense du pays - dans deux cas précis: la surveillance de masse des citoyens américains et les armes mortelles entièrement autonomes.
«Utiliser ces systèmes à des fins de surveillance de masse domestique est incompatible avec les valeurs démocratiques», défend Dario Amodei. Le dirigeant quadragénaire insiste sur le fait que les systèmes les plus avancés d'IA ne sont pas encore fiables au point de leur confier le pouvoir de contrôler des armes mortelles - et donc de tuer - sans une supervision humaine en dernier ressort. «Nous ne fournirons pas sciemment un produit qui met militaires et civils américains en danger», tranche-t-il.
Un ultimatum qui ne change rien
«Anthropic comprend» que c'est le ministère de la Défense, «pas les entreprises privées, qui prend les décisions militaires. Cependant, dans un nombre restreint de cas, nous pensons que l'IA peut nuire aux valeurs démocratiques, plutôt que les défendre», prend-il position. Le ministre de la Défense Pete Hegseth avait convoqué mardi le patron d'Anthropic, face à son refus d'ouvrir complètement son IA Claude à l'armée américaine. Il avait fixé un ultimatum à la jeune société californienne, vendredi à 22h01 GMT, pour lui donner un accès inconditionnel à sa technologie, sous peine de la contraindre à s'exécuter en vertu d'une législation spécifique datant de la Guerre froide.
Le ministère de la Défense a demandé à ses fournisseurs d'IA de lever les restrictions d'utilisation de leurs modèles par défaut, pour élargir les cas d'usage possibles tant qu'ils restent dans la légalité. Tous ont donné leur accord - y compris Anthropic, à l'exception des deux cas exposés par son dirigeant. Pour contraindre Anthropic à se plier à ses exigences, Pete Hegseth entend utiliser une loi votée en 1950 qui permet de forcer une entreprise privée à produire des biens pour la défense nationale. Il a également dit envisager de faire inscrire Anthropic sur la liste des sociétés qui présentent «un risque pour les approvisionnements».
Anthropic sur la liste des entreprises à risque ?
Les entreprises figurant sur cette liste font l'objet de restrictions drastiques en matière de contrats avec le gouvernement américain, lequel renonce de facto purement et simplement à les utiliser, ce qui ne serait pas le cas dans cette configuration. Y apparaissent généralement des sociétés dont les autorités américaines craignent que leurs produits ne servent à des activités susceptibles de menacer la sécurité nationale des Etats-Unis.
N'y sont inscrites actuellement que des sociétés étrangères, dont l'équipementier chinois Huawei ou le spécialiste russe des logiciels antivirus Kaspersky. Fondée en 2021 par des anciens d'OpenAI, Anthropic a toujours revendiqué une approche éthique de l'IA. Début 2026, la start-up a publié un document appelé constitution qui détaille une série d'instructions données à Claude pour encadrer sa production. Elles visent notamment à «empêcher des actions à la dangerosité inappropriée».



















