OpenAI pourrait être légalement contraint de fournir des informations sensibles et des documents partagés avec son chatbot ChatGPT, a averti son PDG Sam Altman.

Lors d’un entretien accordé la semaine dernière au podcasteur Theo Von, Altman a qualifié ce manque de confidentialité de « problème majeur ». Il a précisé que, contrairement aux échanges avec un thérapeute, un avocat ou un médecin — qui bénéficient d’une protection juridique — les conversations avec ChatGPT ne disposent actuellement d’aucune garantie de ce type.

« À l’heure actuelle, si vous parlez de ces problèmes à un thérapeute, un avocat ou un médecin, la loi prévoit une forme de confidentialité… Mais nous n’avons pas encore trouvé comment appliquer cela aux échanges avec ChatGPT. »

Il a ajouté que si vous évoquez « des sujets très sensibles » avec ChatGPT et qu’une action en justice est intentée par la suite, « nous pourrions être contraints de fournir ces données ».

Ces déclarations interviennent dans un contexte où l’intelligence artificielle est de plus en plus utilisée pour un accompagnement psychologique, des conseils médicaux ou financiers.

« Je trouve ça complètement absurde », a déclaré Altman, ajoutant : « On devrait avoir le même niveau de confidentialité pour les conversations avec une IA que pour celles avec un thérapeute ou autre. »

Sam Altman s’est exprimé à ce sujet dans le podcast This Past Weekend, animé par Theo Von. Source: YouTube

L’absence de cadre juridique pour l’intelligence artificielle

Altman a également souligné la nécessité d’un cadre juridique adapté à l’intelligence artificielle, affirmant qu’il s’agissait d’un « problème majeur ».

« C’est l’une des raisons pour lesquelles j’hésite parfois à utiliser certaines IA : je ne sais pas quelle quantité d’informations personnelles je suis prêt à partager, car je ne sais pas qui pourra y avoir accès. »

Il estime que les conversations avec une intelligence artificielle devraient bénéficier du même niveau de confidentialité que celles avec un thérapeute ou un médecin. Selon lui, les responsables politiques avec qui il en a discuté reconnaissent également qu’il faut résoudre ce problème rapidement.

Des préoccupations plus larges liées à la surveillance

Altman a également exprimé son inquiétude face à l’augmentation de la surveillance liée à l’adoption rapide de l’IA à l’échelle mondiale.

« Plus l’IA progresse, plus le monde risque de vouloir renforcer la surveillance », a-t-il déclaré, soulignant que les gouvernements chercheront à s’assurer que la technologie ne soit pas utilisée à des fins terroristes ou malveillantes.

Il a précisé que, dans ce contexte, la vie privée ne devait pas forcément être absolue et s’est dit « tout à fait prêt à faire des compromis sur certains aspects de la confidentialité au nom de la sécurité collective » — mais sous réserve d’une condition importante.

« L’histoire montre que les gouvernements vont souvent beaucoup trop loin, et ça m’inquiète vraiment. »