L’intelligence artificielle ne fait plus seulement la Une des laboratoires ou des startups. Elle s’invite désormais au cœur de l’appareil d’État américain. Dans un mouvement sans précédent, l’administration Trump a officialisé un accord avec OpenAI visant à intégrer ChatGPT dans l’ensemble des agences fédérales. Une annonce qui marque un tournant stratégique dans la politique technologique des États-Unis et qui soulève à la fois espoirs et inquiétudes.

L’annonce choc – Un partenariat public-privé à 1 dollar

Dans le cadre d’un plan ambitieux visant à faire des États-Unis le leader mondial de l’intelligence artificielle, le gouvernement fédéral a annoncé, ce mercredi, un partenariat avec OpenAI. Selon un communiqué officiel de la General Services Administration (GSA), toutes les agences fédérales auront désormais accès à la version entreprise de ChatGPT — pour la somme symbolique de 1 dollar par agence. Cette initiative s’inscrit dans la droite ligne du Plan d’action IA de la Maison Blanche, une stratégie en trois volets destinée à soutenir l’innovation, améliorer l’efficacité des services publics, et sécuriser les infrastructures numériques.

Dans une allocution conjointe donnée en janvier dernier, Sam Altman, PDG d’OpenAI, et le président Donald Trump ont souligné l’importance pour les États-Unis de « ne pas se laisser distancer dans la course mondiale à l’intelligence artificielle ». L’accord prévoit une intégration complète de ChatGPT dans les opérations des agences, dans le but de moderniser les processus bureaucratiques, automatiser certaines tâches administratives et accroître la productivité. Si les termes techniques de la collaboration restent encore partiellement confidentiels, l’objectif affiché est clair : centraliser les efforts et fournir un outil unifié à tous les organes étatiques.

Des risques en embuscade – Sécurité, libertés et confidentialité en question

Mais l’enthousiasme autour de cette décision n’est pas partagé par tous. Le recours généralisé à une IA centralisée, développée par une entreprise privée, suscite de nombreuses inquiétudes en matière de sécurité, de confidentialité et de libertés civiles. En 2023 déjà, l’US Space Force avait suspendu l’usage de ChatGPT pour des raisons de cybersécurité. Selon Lisa Costa, directrice adjointe de l’innovation technologique au sein de la Space Force, les modèles d’IA « devront revoir entièrement leurs standards de protection des données avant d’être adoptés à large échelle dans les services sensibles ».

De plus, des critiques émergent autour de la manière dont ces technologies pourraient influencer ou biaiser les processus décisionnels, notamment en matière de politiques publiques. En Suède, le Premier ministre Ulf Kristersson a été récemment critiqué pour avoir admis s’être appuyé sur une IA pour orienter certaines décisions. Bien que non liées à la sécurité nationale, ces pratiques soulèvent la question de l’autonomie humaine face aux recommandations algorithmiques. Par ailleurs, Sam Altman lui-même a alerté sur le fait que les conversations avec ChatGPT ne sont pas protégées légalement et peuvent être utilisées contre les utilisateurs en justice. La perspective d’un usage à grande échelle au sein du gouvernement intensifie ces préoccupations.

Ce partenariat stratégique pourrait bien transformer durablement les pratiques administratives américaines, mais il ouvre aussi un vaste débat sur le rôle de l’IA dans la gouvernance publique. Entre gains d’efficacité et risques systémiques, le choix de confier les rênes numériques de l’État à une IA centralisée soulève des interrogations fondamentales. Il ne s’agit plus seulement de technologie, mais bien de démocratie, de souveraineté et de transparence.