Guerre de l'IA
Les entreprises d'IA sont-elles des entreprises de défense? C'est la question que nous pose la guerre en Iran. L'armée américaine utilise en effet l'application Claude d'Anthropic pour ce qu'elle appelle ‘accélérer la chaîne de combat’. Il s'agit d'un jargon militaire qui désigne la conversion de données et de renseignements en cibles, la préparation et la planification d'options d'attaque sur ces cibles, et la décision d'utiliser des armes. Selon les médias internationaux, Claude réduit la chaîne de détection à l'attaque de plusieurs jours ou heures à une action quasi instantanée.
Réfléchissons-y un instant. Le chatbot IA d'une start-up qui n'est apparu sur le marché qu'en 2023, une technologie présentant des risques bien connus d'hallucinations, d’illusions et d'autres irrégularités, joue un rôle essentiel dans la machine de guerre de l'armée la plus puissante de la planète. Nous assistons à la fusion ultime entre la technologie civile et les moyens militaires. Tout comme le réseau Starlink d'Elon Musk – une autre méga-start-up – est devenu un réseau de communication essentiel pour la guerre en Ukraine.
'Citation: Soit les entreprises d'IA dominantes deviennent une extension de l'État, soit l'État devient une extension des entreprises d'IA.'
L'IA est une catégorie à part. Nous nous dirigeons à toute vitesse vers des agents d’IA autonomes qui prennent des décisions complexes à la place des humains, de manière plus directe et plus précise que nous ne sommes capables de le faire nous-mêmes. Des armes autonomes – plus rapides, plus précises, plus massives et plus impitoyables que ce dont l'homme est capable – nous guettent au détour du chemin. Alors même que Anthropic joue un rôle crucial dans le succès des attaques militaires au Moyen-Orient, l'entreprise est en conflit avec le gouvernement américain à Washington. Anthropic s'oppose à l'utilisation de sa technologie pour la guerre automatique et la surveillance de masse des citoyens américains, selon les termes de son contrat avec le gouvernement. Cette restriction dégénère désormais en une véritable affaire d'État.
La position d'Anthropic semble être un choix moral d'une entreprise privée concernant l'utilisation de son produit, peut-être également motivé par l'intérêt commercial d'éviter les risques de responsabilité et d'atteinte à la réputation. Mais considérez cela à travers le prisme de sa symbiose avec l'art de la guerre. La nation souveraine américaine ne peut accepter qu'un fournisseur d'armes privé ait un droit de veto sur la manière dont l'armée utilisera ces armes pendant une guerre. Et l'IA est bel et bien une arme. Claude est ancré dans la chaîne des renseignements et secrets militaires hautement confidentiels. Anthropic ne fournit pas de chars ou d'avions, mais des données et des logiciels: des ‘armes en tant que service’ qui permettent à l'entreprise de rester en permanence à l'écoute de la défense.
Dans un avenir proche, des bots tels que Claude pourront filtrer et manipuler de manière autonome des informations selon les normes et les paramètres de leur algorithme. Si les pouvoirs publics ne parviennent pas à contrôler cela, l'algorithme d'Anthropic deviendra bientôt l'égal du commandant en chef de l'armée. Les paramètres d'un algorithme d'IA sont également des choix à valeur politique – pensez aux plateformes de réseaux sociaux. Quel gouvernement acceptera que les limites politiques de la guerre soient fixées par une entreprise ?
La Maison-Blanche dépeint Anthropic comme une entreprise technologique ‘woke' qui souhaite prendre le gouvernement américain en otage avec une idéologie radicale. C’est la rhétorique MAGA typique, mais cela touche pourtant au cœur du problème. Anthropic proteste en affirmant que la liberté d'expression, garantie par la Constitution américaine, donne à l'entreprise le droit de déterminer commercialement les conditions d'utilisation de ses services d'IA. Si une liberté
constitutionnelle confère aux fabricants d’armes le droit de dicter leur conduite au gouvernement en temps de guerre, que devient alors le principe constitutionnel selon lequel, dans un État de droit, la puissance publique détient le monopole de la violence légitime? La fusion de l’IA avec la guerre finira-t-elle par saper définitivement le monopole étatique de la force?
Le gouvernement Trump joue désormais gros et menace d'exclure Anthropic de toutes les chaînes d'approvisionnement, comme s'il s'agissait d'une entreprise technologique chinoise dangereuse pour l'État. Cela s'apparente à une liquidation politique, peut-être une manœuvre de négociation. Mais cela illustre un dilemme fondamental pour l'avenir de l'IA. Soit les entreprises d'IA dominantes deviennent une extension de l'État, soit l'État devient une extension des entreprises d'IA. Aucune de ces deux options n'est attrayante. Comment sortir de cette impasse?
Peut-être devrions-nous évoluer vers une IA militaire distincte, totalement séparée de l’IA civile. Peut-être le gouvernement américain devrait-il tout simplement nationaliser les applications militaires de l’IA et les placer sous l’égide de l’État. Peut-être l’IA militaire et les armes autonomes deviendront-elles les nouvelles armes nucléaires, pour lesquelles le monde s’accorderait sur des traités de non-prolifération et de conduite légitime de la guerre. Ce sont là autant de questions majeures qui n'ont jamais le temps de mûrir, alors que la technologie progresse à bride abattue.
Quoi qu'il en soit, pour une Europe sans technologie souveraine en matière d'IA, la question de la sécurité nationale devient très délicate.
Marc De Vos est co-PDG du think tank Itinera, consultant en stratégie et enseigne à l'université de Gand. www.marcdevos.eu