RÉCIT - Une entreprise privée peut-elle fixer au ministère de la Défense américain des limites dans l’utilisation de ses modèles d’IA ? La divergence marquée des points de vue autour de ces technologies hyperpuissantes rend urgente l’élaboration d’une réglementation nationale.
L’intense bataille entre le Pentagone et Anthropic a fait naître un débat public inédit aux États-Unis sur le rôle de l’intelligence artificielle et, plus généralement, sur la question du contrôle de ces technologies très puissantes. Il y a un an, cette entreprise américaine d’intelligence artificielle a obtenu un contrat de 200 millions de dollars pour intégrer ses puissants modèles Claude dans les systèmes de l’armée américaine et aider cette dernière à analyser du renseignement, simuler et planifier des opérations, identifier des cibles… Anthropic avait cependant fixé deux «lignes rouges» à l’utilisation de ses technologies : Claude ne devait pas être utilisé pour des armes autonomes destinées à tirer sans supervision humaine, ni pour de la surveillance de masse des Américains.
Le ministère de la Défense avait accepté ces conditions, avant de faire machine arrière. Il a estimé que cette ingérence inacceptable risquait d’entraver ses décisions et a exigé un accès sans restrictions…
.png)
1 month ago
English (United States) ·
French (France) ·