
Une juge fédérale de Californie a suspendu jeudi les sanctions de l'administration Trump contre Anthropic, estimant qu'elles avaient probablement violé la liberté d'expression en punissant la pépite californienne de l'IA pour avoir exprimé des réserves sur l'usage de sa technologie par le Pentagone. La juge Rita Lin a fait droit à la demande d'Anthropic, créateur du chatbot Claude, de geler, via une procédure d'urgence, la directive présidentielle du 27 février qui ordonnait à toutes les agences fédérales de cesser immédiatement d'utiliser les technologies de la société. La décision, consultée par l'AFP, suspend aussi la directive du ministre de la Défense Pete Hegseth qui avait désigné Anthropic comme un «risque pour la chaîne d'approvisionnement» du Pentagone, une étiquette jusqu'alors réservée à des entreprises ou des agences étrangères de pays rivaux des Etats-Unis.
Les deux décisions de l'administration Trump, qui avaient suscité une large vague de soutien du secteur de la tech envers Anthropic, sont suspendues sept jours pour permettre au gouvernement de faire à son tour appel via une procédure d'urgence, avant l'examen de l'affaire au fond à plus long terme. La juge précise toutefois que le Pentagone reste libre de cesser d'utiliser Claude et de migrer vers d'autres fournisseurs d'IA. «Si cette procédure judiciaire était nécessaire pour protéger Anthropic, nos clients et nos partenaires, notre priorité reste de travailler de manière productive avec le gouvernement pour que tous les Américains bénéficient d'une IA sûre et fiable», a déclaré un porte-parole d'Anthropic.
Une sanction critiquée par la juge
La rupture entre le Pentagone et Anthropic avait été actée au terme d'un bras de fer qui avait conduit l'entreprise de San Francisco à publiquement refuser que Claude soit utilisé pour la surveillance de masse des citoyens américains ou pour opérer des armes autonomes. Au milieu du scandale, OpenAI, le grand rival d'Anthropic, avait annoncé avoir signé un contrat avec le Pentagone, assurant avoir obtenu des garanties sur ces deux points. Comme elle l'avait laissé entendre à l'audience mardi à San Francisco, la juge a estimé que ces sanctions «semblent conçues pour punir Anthropic» et constituaient probablement des représailles inconstitutionnelles, justifiant leur suspension en urgence. Le 27 février, Donald Trump avait qualifié la société d'«entreprise radicale de gauche woke» sur son réseau Truth Social, tandis que Pete Hegseth dénonçait sur X sa «rhétorique sanctimonieuse» et son «idéologie de la Silicon Valley». La juge estime que les documents internes du Pentagone montrent qu'Anthropic a été désignée comme «risque» en raison de son «attitude hostile dans la presse». Dans sa décision, la magistrate juge par ailleurs que cette désignation, prévue par le Congrès américain pour parer à des actes de sabotage clandestins chez les fournisseurs étrangers de l'armée, a probablement été prise hors du processus légal. Un autre recours d'Anthropic suit son cours devant une juridiction fédérale de Washington.
D'anciens hauts gradés - parmi lesquels un ex-patron de la CIA - des acteurs de l'industrie de la tech, dont Microsoft et, à titre privé, des employés d'OpenAI et Google, ainsi que des militants de la liberté d'expression, avaient déposé des mémoires en soutien au recours d'Anthropic à San Francisco. En l'état, les modèles d'IA d'Anthropic sont les seuls autorisés dans le cadre du traitement d'informations classifiées par le Pentagone et ils ont vraisemblablement été utilisés dans les frappes contre l'Iran ou l'enlèvement du président du Venezuela. Le contrat entre le Pentagone et OpenAI n'est, lui, pas encore opérationnel.



















