Le président américain Donald Trump a ratifié une loi criminalisant la création et la publication de contenus pornographiques générés par intelligence artificielle sans consentement. Le texte impose également aux sites web de retirer les images illicites dans un délai de 48 heures.
Promulguée le 19 mai, la loi est connue sous le nom de TAKE IT DOWN Act, acronyme de Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks. Elle vise à lutter contre l’exploitation numérique à travers les deepfakes.
Soutenue par Melania Trump, la loi qualifie de crime fédéral le fait de publier — ou de menacer de publier — des images intimes d’adultes ou de mineurs, générées sans leur consentement, dans le but de nuire ou de harceler. Les sanctions prévues vont d’amendes à des peines de prison.
Les sites internet, services en ligne et applications devront supprimer les contenus illégaux dans un délai de 48 heures, et mettre en place une procédure de retrait formelle.
Dans une déclaration depuis la roseraie de la Maison Blanche, relayée ensuite sur Truth Social, Donald Trump a précisé que la loi couvre également les “fausses images générées par intelligence artificielle”, souvent appelées deepfakes.
Melania Trump avait personnellement sollicité les membres du Congrès pour faire adopter le texte. Elle a salué son adoption comme une “victoire nationale”.
« L’intelligence artificielle et les réseaux sociaux sont les sucreries numériques de la prochaine génération — attrayantes, addictives, et conçues pour impacter le développement cognitif de nos enfants », a-t-elle déclaré.
« Mais contrairement au sucre, ces nouvelles technologies peuvent être utilisées comme des armes, façonner les croyances, affecter les émotions, et parfois, entraîner des conséquences mortelles », a-t-elle ajouté.
Le projet de loi avait été présenté en juin 2024 par les sénateurs Ted Cruz et Amy Klobuchar. Il a été adopté par les deux chambres en avril 2025.
Les États-Unis rejoignent d’autres pays dans l’interdiction des deepfakes explicites
Les cas d’utilisation malveillante des deepfakes se multiplient. L’un des exemples les plus marquants concerne la chanteuse Taylor Swift, dont des images explicites générées par IA se sont rapidement propagées sur X en janvier 2024.
La plateforme X avait brièvement interdit toute recherche associée au nom de l’artiste. Cette affaire avait accéléré les appels des élus à légiférer contre ce type de contenus.
Le Royaume-Uni a, pour sa part, déjà interdit le partage de pornographie deepfake via son Online Safety Act, en vigueur depuis 2023.
Un rapport publié la même année par la société de cybersécurité Security Hero révélait que la grande majorité des deepfakes en ligne sont de nature pornographique. Dans 99 % des cas, les victimes sont des femmes.