Blacklistée par le gouvernement américain pour avoir refusé de lever ses garde-fous éthiques, la société à l’origine de l’intelligence artificielle Claude, a porté l’affaire devant les tribunaux fédéraux.
Anthropic a déposé, lundi 9 mars, deux plaintes fédérales contre le gouvernement des États-Unis, visant près d’une trentaine de défendeurs, dont plusieurs agences fédérales et leurs dirigeants.
L’entreprise d’intelligence artificielle, connue pour son chatbot Claude, demande notamment aux tribunaux d’annuler sa récente désignation par l’administration Trump comme « risque pour la chaîne d’approvisionnement en matière de sécurité nationale ».
Ce dispositif, habituellement réservé à des sociétés liées à des puissances rivales des États-Unis (telles que la Chine ou la Russie), autorise le gouvernement fédéral à restreindre ou exclure certaines entreprises de contrats publics, particulièrement dans les domaines de la défense et des technologies sensibles.
« Ces actions sont sans précédent et illégales. La Constitution n’autorise pas le gouvernement à brandir son immense pouvoir pour punir une entreprise en raison de son discours protégé », écrivent les avocats d’Anthropic dans les documents judiciaires.
Une mesure de rétorsion
La société affirme que cette désignation viole ses droits garantis par le Premier Amendement et dépasse les prérogatives légales du gouvernement. Elle rappelle que le Congrès a demandé au Pentagone de recourir aux moyens les moins coercitifs pour préserver ses intérêts, et non pour punir un prestataire.
Plus fondamentalement, le groupe dirigé par Dario Amodei soutient que la liberté d’expression commerciale et éthique d’une entreprise privée ne saurait être sacrifiée au nom des impératifs militaires.
À l’origine du conflit : des négociations contractuelles qui ont rapidement dégénéré. Le Pentagone souhaitait bénéficier de la technologie d’Anthropic pour l’ensemble de ses usages légaux, sans restriction.
L’entreprise, elle, posait deux limites infranchissables : Claude ne serait jamais employé pour la surveillance de masse des citoyens américains, ni pour le pilotage de systèmes d’armes létales entièrement autonomes.
Une affaire potentiellement décisive
« Utiliser ces systèmes à des fins de surveillance intérieure massive est incompatible avec les valeurs démocratiques », plaidait récemment le PDG d’Anthropic.
Selon la presse américaine, Claude aurait néanmoins été sollicité dans des opérations militaires, notamment lors du raid ayant conduit à l’arrestation du dirigeant vénézuélien Nicolás Maduro, ainsi que pour des analyses de renseignement et l’identification de cibles dans le conflit en cours avec l’Iran.
Entre-temps, la filière technologique s’est mobilisée en faveur d’Anthropic. Microsoft a déposé un mémoire soutenant l’entreprise et qualifiant les décisions du Pentagone de « draconniennes », « sans précédent » et potentiellement lourdes de « répercussions négatives » pour l’ensemble du secteur américain.
Plusieurs dizaines de chercheurs d’OpenAI et de Google DeepMind ont également signé, à titre individuel, un mémoire appuyant Anthropic. Ils estiment que cette désignation menace la compétitivité des États-Unis et risque d’étouffer le débat public sur les usages de l’IA.
L’issue de ce bras de fer judiciaire pourrait déterminer, pour les années à venir, la manière dont les sociétés d’intelligence artificielle négocient les conditions encadrant l’emploi militaire de leurs technologies.
