Google a annoncé qu'il limiterait les types de questions liées aux élections que les utilisateurs peuvent poser à son chatbot Gemini, ajoutant qu'il a déjà mis en œuvre les changements aux États-Unis et en Inde, où les électeurs se rendront aux urnes ce printemps.
L'entreprise détenue par Alphabet a fait cette déclaration mardi 12 mars, alors qu'elle cherche à éviter d'éventuels faux pas dans le déploiement de la technologie. Cette annonce intervient après que Google a retiré son outil de génération d'images par intelligence artificielle (IA) le mois dernier à la suite de controverses, notamment en raison d'inexactitudes historiques et de réponses litigieuses.
L'entreprise avait introduit le générateur d'images au début du mois de février par l'intermédiaire de Gemini - la gamme de modèles d'IA de Google - dans le cadre d'un changement de marque. Les progrès de l'IA générative, en particulier dans le domaine de la génération d'images et de vidéos, ont suscité des inquiétudes croissantes quant à la désinformation et aux fausses nouvelles, ce qui a conduit les gouvernements à envisager de réglementer cette technologie.
Google a écrit dans un article de blog :
« Par excès de prudence sur un sujet aussi important, nous avons commencé à déployer des restrictions sur les types de requêtes liées aux élections pour lesquelles Gemini renverra des réponses. Nous prenons au sérieux notre responsabilité de fournir des informations de haute qualité pour ces types de requêtes et nous travaillons en permanence à l'amélioration de nos protections. »
Des pays comme l'Afrique du Sud et l'Inde se préparent également à des élections nationales. L'Inde a exigé que les entreprises technologiques obtiennent l'approbation du gouvernement avant de diffuser publiquement des outils d'IA qui ne sont pas « fiables » ou qui sont en phase d'essai, et qu'elles les étiquettent de manière appropriée pour indiquer le risque de résultats incorrects.
À lire également : Une IA générative obtient un poste de professeur dans un lycée indien
L'avènement d'outils d'intelligence artificielle (IA) accessibles au public a entraîné une augmentation des deepfakes politiques, qui obligent les électeurs à acquérir de nouvelles compétences pour distinguer ce qui est réel.
Le 27 février, le président de la commission du renseignement du Sénat américain, Mark Warner, a déclaré que l'Amérique était « moins bien préparée » à la fraude électorale pour les prochaines élections de 2024 qu'elle ne l'était pour les précédentes, en 2020.
En Europe, la Commission européenne a élaboré des lignes directrices sur la désinformation par l'IA à l'intention des plateformes opérant dans ce domaine. Peu après, Meta, la société mère de Facebook et Instagram, a publié sa propre stratégie pour l'Union européenne afin de lutter contre l'utilisation abusive de l'IA générative dans le contenu de ses plateformes.