Nous ne savons presque rien de la dernière entreprise d'Elon Musk, une startup spécialisée dans l'intelligence artificielle appelée xAI. Mais « presque rien », c'est quand même quelque chose. Et nous pouvons glaner beaucoup de choses à partir du peu que nous savons.

Comme l'a récemment rapporté Cointelegraph, Musk a annoncé xAI le 12 juillet dans une déclaration composée de trois phrases : « Aujourd'hui, nous annonçons la création de xAI. L'objectif de xAI est de comprendre la véritable nature de l'univers. Vous pourrez rencontrer l'équipe et nous poser des questions lors d'un space sur Twitter le vendredi 14 juillet. »

Sur la base de ces informations, nous pouvons déduire que xAI existe, qu'elle est condamnée et que de plus amples informations sur la façon dont elle échouera seront révélées sur Twitter. La raison pour laquelle elle est condamnée est simple : Les lois de la physique l'empêchent.

Selon un rapport de Reuters, la motivation de Musk pour xAI est basée sur le désir de développer une intelligence artificielle (IA) sûre. Lors d'un récent space sur Twitter, il a déclaré :
« Si elle essayait de comprendre la vraie nature de l'univers, c'est en fait la meilleure chose que je puisse imaginer du point de vue de la sécurité de l'IA. »

Cet objectif est louable, mais toute tentative de comprendre la « vraie » nature de l'univers est vouée à l'échec parce qu'il n'existe pas de centre de connaissances de base quelque part où nous pourrions vérifier nos théories.

Ce n'est pas que les humains ne soient pas assez intelligents pour comprendre la nature de l'univers - le problème est que l'univers est vraiment, vraiment grand, et que nous sommes coincés à l'intérieur.

Le principe d'incertitude d'Heisenberg nous dit sans équivoque que certains aspects de la réalité ne peuvent être confirmés simultanément par l'observation ou la mesure. C'est la raison pour laquelle nous ne pouvons pas mesurer la distance entre la Terre et Uranus, attendre un an, la mesurer à nouveau et déterminer le taux exact d'expansion de l'univers.

La méthode scientifique requiert l'observation et, comme nous l'enseigne le principe anthropique, tous les observateurs sont limités.

Dans le cas de l'univers observable, nous sommes encore plus limités par la nature de la physique. L'expansion de l'univers est si rapide qu'elle nous empêche de mesurer quoi que ce soit au-delà d'un certain point, quels que soient les outils utilisés.

L'expansion de l'univers ne fait pas que l'agrandir. Elle lui confère un « horizon cosmologique » distinct et définissable que les lois de la physique nous empêchent de mesurer au-delà. Si nous envoyons une sonde à la vitesse maximale autorisée par les lois de la physique, à savoir la vitesse de la lumière, toute partie de l'univers située au-delà du point exact que la sonde pourrait parcourir en X temps est à jamais inaccessible.

Cela signifie que même une superintelligence hypothétique capable de traiter toutes les données qui n'ont jamais été générées ne pourrait déterminer aucune vérité fondamentale sur l'univers.

Une légère modification de l'expérience de pensée du chat de Schrödinger, appelée l'ami de Wigner, démontre pourquoi il en est ainsi. Dans l'expérience originale, Erwin Schrödinger imaginait un chat piégé dans une boîte avec une fiole de liquide radioactif et un marteau qui frapperait la fiole, et donc tuerait le chat, à l'issue d'un processus quantique.

L'une des différences fondamentales entre les processus quantiques et classiques est que les processus quantiques peuvent être affectés par l'observation. En mécanique quantique, cela signifie que le chat hypothétique est à la fois vivant et mort jusqu'à ce que quelqu'un l'observe.

Le physicien Eugene Wigner aurait été « irrité » par cette situation et a décidé de donner sa propre tournure à l'expérience de pensée pour remettre en question les affirmations de Schrödinger. Sa version ajoute deux scientifiques, l'un à l'intérieur du laboratoire qui ouvre la boîte pour observer si le chat est vivant ou mort et l'autre à l'extérieur qui ouvre la porte du laboratoire pour voir si le scientifique à l'intérieur sait si le chat est vivant ou mort.

Ce que xAI semble proposer est un renversement de l'expérience de pensée de Wigner. Elle semble vouloir retirer le chat de la boîte et le remplacer par un système d'IA à transformateur général pré-entraîné (GPT), c'est-à-dire un chatbot comme ChatGPT, Bard ou Claude 2.

À lire également : Elon Musk lancera la plateforme d'intelligence artificielle TruthGPT pour la recherche de la vérité

Au lieu de demander à un observateur de déterminer si l'IA est vivante ou morte, leur plan est de demander à l'IA de discerner des vérités fondamentales sur le laboratoire en dehors de la boîte, le monde en dehors du laboratoire et l'univers au-delà de l'horizon cosmologique sans faire aucune observation.

La réalité de ce qu'xAI semble proposer signifierait le développement d'un oracle : une machine capable de connaître des choses pour lesquelles elle n'a pas de preuves.

L'idée d'un oracle ne repose sur aucune base scientifique ; ses origines sont ancrées dans la mythologie et la religion. D'un point de vue scientifique, le mieux que nous puissions espérer est que xAI développe une machine capable d'analyser toutes les données qui ont jamais été générées.

Il n'y a aucune raison de croire que cela transformerait la machine en oracle, mais peut-être que cela lui permettrait d'aider les scientifiques à voir quelque chose qui leur a échappé et de les conduire à de nouvelles découvertes. Peut-être le secret de la fusion froide se trouve-t-il quelque part dans un ensemble de données Reddit que personne n'a encore réussi à utiliser pour entraîner un modèle GPT.

Mais, à moins que le système d'IA ne puisse défier les lois de la physique, toutes les réponses qu'il nous donnera concernant la « vraie » nature de l'univers devront être prises pour argent comptant jusqu'à ce qu'elles soient confirmées par des observations faites de l'autre côté de la boîte - et de l'horizon cosmologique.

Pour ces raisons, et bien d'autres encore liées à la manière dont les systèmes GPT interprètent réellement les requêtes, il n'existe aucune méthode scientifiquement viable permettant à xAI, ou à toute autre entreprise d'IA, de développer une machine binaire exécutant des algorithmes classiques et capable d'observer la vérité sur notre univers quantique.

Tristan Greene est rédacteur en chef adjoint de Cointelegraph. Outre l'écriture et la recherche, il aime jouer avec sa femme et étudier l'histoire militaire.

Cet article est destiné à des fins d'information générale et ne doit pas être considéré comme un conseil juridique ou d'investissement. Les points de vue, pensées et opinions exprimés ici n'engagent que l'auteur et ne reflètent ni ne représentent nécessairement ceux de Cointelegraph.