À l’occasion du Vanderbilt Summit on Modern Conflict and Emerging Threats, le directeur général de l’OpenAI, Sam Altman, a fait une déclaration sobre mais révélatrice : il ne place pas de limitation à une collaboration avec le département américain de la défense au développement de systèmes d’armes basés sur l’intelligence artificielle. Cette déclaration, faite pendant une table ronde avec Paul Nakasone, ancien directeur de la NSA et membre en place du conseil d’administration d’OpenAI, est un changement visible dans les relations traditionnellement distantes entre la Silicon Valley et la communauté de la défense.
« Ne jamais dire jamais, parce que le monde pourrait devenir vraiment bizarre », a répondu M. Altman à une question sur l’éventualité que OpenAI participe au développement de plates-formes d’armes. Il a aussitôt déclaré: « Je ne m’attends pas à le faire dans un avenir proche », excepté dans des situations extrêmes où il s’agirait de prendre des « très mauvaises options ».
Les commentaires d’Altman interviennent à un moment où l’industrie de l’IA est de plus en plus ouverte aux contrats de défense, loin de l’indignation des employés qui a éclaté en 2018 lorsque le projet Maven de Google a suscité des protestations et des démissions en masse. OpenAI elle-même a revu sa position à la baisse : en décembre dernier, la société a annoncé un partenariat stratégique avec l’entreprise de technologie de défense Anduril Industries pour co-développer des technologies anti-drones – une première indication que la société est ouverte à la possibilité d’envisager des partenariats sur des questions de sécurité nationale dans certaines circonstances.
Toutefois, M. Altman a expliqué qu’il restait sceptique quant à l’utilisation de l’IA dans des armes autonomes. « Je ne crois pas que la plupart des gens dans le monde voudraient que l’IA prenne des décisions en matière d’armement », a-t-il expliqué à l’auditoire composé de hauts-gradés militaires, d’officiers du renseignement et de chercheurs universitaires.
Le changement de M. Altman vers une position plus nuancée se situe dans un contexte de tensions plus vaste au sein du monde de la technologie, tandis que les technologies de l’IA avancent et s’intègrent de plus en plus dans les applications civils et militaires. Ses déclarations viennent quelques jours seulement avant que l’OpenAI ne fasse paraître son modèle 03, très attendu, un système de raisonnement évolué de nouvelle génération.
Les participants au sommet ont également mentionné le rôle plus vaste des pouvoirs publics dans l’adoption et l’utilisation des outils d’IA. « Je ne crois pas que l’adoption de l’IA au sein du gouvernement ait été aussi bonne qu’elle pourrait l’être », a dit M. Altman, en invitant les dirigeants du secteur public à s’intéresser de plus près à cette technologie en évolution constante. Il a prévu la conception de systèmes d’IA « exceptionnellement intelligents » l’an prochain, un rythme d’innovation difficile à suivre pour de nombreux membres de la communauté de la défense.
Les dernières décisions d’OpenAI, dont le recrutement au sein de son conseil d’administration d’un vétéran, directeur des services de renseignement de premier ordre tel que M. Nakasone, sont empreintes d’un travail conscient pour allier l’innovation de la Silicon Valley et le besoin en matière de sécurité nationale. Mais cela reste à voir sur le temps long, pour q’un pareil consensus puisse tenir.
Pour l’instant, l’ouverture prudente d’Altman suggère qu’OpenAI, bien que toujours guidée par des préoccupations éthiques, ne ferme pas la porte aux travaux de défense. À mesure que les tensions géopolitiques augmentent et que la valeur stratégique de l’IA s’accroît, de tels partenariats pourraient devenir non seulement plus acceptables, mais inévitables.