Le gouverneur de Californie, Gavin Newsom, a annoncé la mise en place de garde-fous réglementaires visant les plateformes sociales et les chatbots conversationnels IA afin de protéger les enfants.

Dans un communiqué publié lundi, le bureau du gouverneur a précisé que plusieurs textes avaient été signés pour obliger les plateformes à intégrer des systèmes de vérification d’âge, des protocoles de prévention du suicide et de l’automutilation, ainsi que des avertissements spécifiques pour les chatbots compagnons. Le projet de loi principal, SB 243, avait été présenté en janvier par les sénateurs Steve Padilla et Josh Becker.

Law, California, Bot, Social Media
Source: Governeur Gavin Newsom

Padilla a cité plusieurs cas d’enfants ayant échangé avec des chatbots compagnons d’IA, certains de ces échanges ayant, selon lui, encouragé des comportements suicidaires. La loi impose désormais aux plateformes d’informer clairement les mineurs que ces chatbots sont des entités générées par l’intelligence artificielle et qu’ils peuvent ne pas convenir à un jeune public, a précisé le sénateur.

« Cette technologie peut être un outil formidable pour l’éducation et la recherche, mais livrée à elle-même, l’industrie technologique a tout intérêt à capter et retenir l’attention des jeunes — souvent au détriment de leurs relations dans le monde réel »,
a déclaré Padilla en septembre.

Cette législation pourrait avoir des répercussions importantes sur les entreprises de médias sociaux et les sites web proposant des services à des résidents californiens à l’aide d’outils d’IA — y compris les plateformes de médias sociaux décentralisées et les plateformes de jeux vidéo.

Outre les mesures spécifiques aux chatbots, les textes visent aussi à limiter les arguments juridiques selon lesquels la technologie aurait « agi de manière autonome », une stratégie parfois utilisée par certaines entreprises pour échapper à toute responsabilité.

Plusieurs cas ont déjà été signalés où des chatbots d’IA auraient incité des mineurs à l’automutilation ou présenté des risques pour la santé mentale des utilisateurs.

Le gouverneur de l’Utah, Spencer Cox, avait d’ailleurs signé en 2024 des lois similaires à celles de la Californie, entrées en vigueur en mai, imposant aux chatbots d’IA d’informer explicitement les utilisateurs qu’ils ne dialoguent pas avec un humain.

Des actions fédérales à mesure que l’IA se développe

En juin, la sénatrice du Wyoming Cynthia Lummis a présenté le Responsible Innovation and Safe Expertise (RISE) Act, un texte prévoyant une immunité civile pour les développeurs d’IA susceptibles d’être poursuivis par des acteurs de secteurs clés tels que la santé, le droit, la finance ou d’autres domaines essentiels à l’économie.

Le projet de loi a reçu un accueil mitigé et a été transféré à la commission de l’Éducation et du Travail de la Chambre des représentants.