L'intelligence artificielle a connu une année remarquable en 2024. Cette technologie de pointe a remporté des récompenses, attiré les investisseurs, séduit Wall Street et prouvé qu'elle pouvait résoudre des équations différentielles tout en les expliquant.
Elle a également attiré l'attention des régulateurs mondiaux, inquiets des risques pour la vie privée et la sécurité. Certains craignent que l'IA n'évolue rapidement vers une intelligence artificielle générale (AGI), puis une superintelligence capable de surpasser les capacités cognitives humaines. Des scénarios catastrophiques ont été envisagés et débattus, comme le bioterrorisme, les systèmes d'armes autonomes ou même des événements d'ampleur apocalyptique.
Voici 10 des moments forts de l'IA en 2024.
#1 GenAI domine la scène
L'intelligence artificielle générative (GenAI), une sous-catégorie de l'IA, est capable de créer à partir de rien (ou presque, hormis les énormes volumes de données sur lesquels elle a été entraînée). Par exemple, une simple ligne de texte peut suffire à générer une histoire fantôme de 500 mots.
En 2024, GenAI a occupé le devant de la scène. Et il n'y avait pas que ChatGPT, le chatbot activé par IA développé par OpenAI. Le Gemini de Google, le Copilot de Microsoft, le Claude d'Anthropic et la série Llama 3 de Meta ont également contribué à repousser les limites, développant des logiciels capables de lire et de générer non seulement du texte, mais aussi de l'audio, de la vidéo et des images.
Les laboratoires d'IA ont investi massivement pour soutenir ces progrès. En 2024, les dépenses en IA ont atteint 13,8 milliards de dollars. Ce montant représente plus de six fois les dépenses de 2023, selon Menlo Ventures. Ce changement marque une transition claire. Les entreprises passent de l'expérimentation à l'exécution, intégrant l'IA au cœur de leurs stratégies commerciales.
#2 L'IA remporte des prix Nobel en physique et chimie
Une autre preuve de la montée en puissance de l'IA est venue en octobre, lorsque l'Académie royale des sciences de Suède a annoncé les prix Nobel 2024. Geoffrey Hinton et John Hopfield ont remporté le prix de physique « pour des découvertes et inventions fondamentales qui permettent l'apprentissage automatique avec des réseaux neuronaux artificiels ». Les réseaux neuronaux sont une technologie clé dans l'IA d'aujourd'hui.
Hinton, scientifique britannique-canadien et psychologue cognitif, souvent appelé le « parrain de l'IA », a révolutionné les réseaux neuronaux dès les années 1980 grâce à des outils issus de la physique statistique, comme la machine de Boltzmann.
De plus, Demis Hassabis, cofondateur et PDG de Google DeepMind, ainsi que John Jumper, ont été récompensés par le prix Nobel de chimie pour avoir développé un modèle d'IA capable de prédire les structures complexes des protéines.
Un Canadien remporte le prix Nobel pour ses travaux sur l'IA. Source: Justin Trudeau
#3 Nvidia dépasse Apple en tant qu'entreprise la plus valorisée au monde
Il faut un type spécial de puce informatique pour entraîner et exécuter les énormes modèles de langage de grande taille (LLM) qui dominaient en 2024, et le fabricant de puces Nvidia a produit plus de ces unités de traitement graphique spéciales, ou GPU, que toute autre entreprise dans le monde.
Il n'est donc pas surprenant que Nvidia soit également devenue l'entreprise la plus valorisée au monde en 2024. La société a atteint une capitalisation boursière de 3 530 milliards de dollars fin octobre, dépassant les 3,52 billions de dollars d'Apple.
« De plus en plus d'entreprises adoptent désormais l'intelligence artificielle dans leurs tâches quotidiennes et la demande reste forte pour les puces Nvidia », a commenté Russ Mould, directeur des investissements chez AJ Bell.
Nvidia conservera-t-elle sa dominance manufacturière en 2025 et au-delà ? Les très attendus GPU Blackwell de Nvidia, dont le lancement était prévu pour le 4ème trimestre, ont été retardés en raison de défauts de conception. Cependant, compte tenu de l'énorme avance de Nvidia sur les GPU - l'entreprise contrôlait 98 % du marché en 2023 - peu de gens s'attendent à ce qu'elle soit dépassée de sitôt.
#4 Législation sur l'IA dans l'UE
Tout le monde souhaite une intelligence artificielle sûre, sécurisée et bénéfique pour la société dans son ensemble. Toutefois, adopter des lois et mettre en œuvre des règles pour garantir une IA responsable n'est pas une mince affaire. Pourtant, en 2024, les autorités réglementaires mondiales ont fait quelques premiers pas.
Le règlement sur l'intelligence artificielle de l'Union européenne est entré en vigueur en août, introduisant des garanties pour les systèmes d'IA à usage général et abordant certaines préoccupations en matière de vie privée. Le règlement impose des règles strictes sur l'utilisation de l'IA pour la reconnaissance faciale, par exemple, mais cherche également à aborder des risques plus larges comme l'automatisation des emplois, la diffusion de désinformations en ligne et les menaces pour la sécurité nationale. La législation sera mise en œuvre par phases. Celles-ci s'étendront jusqu'en 2027.
Réglementer l'IA ne sera toutefois pas facile, comme l'a constaté la Californie en 2024 avec sa proposition de loi SB 1047 qui a été mise de côté (veto) par le gouverneur de l'État en septembre. Décrite comme « l'initiative la plus ambitieuse jamais entreprise pour réglementer l'intelligence artificielle », la loi SB 1047 avait le soutien de certains partisans de l'IA, comme Geoffrey Hinton et Elon Musk, qui estimaient qu'elle fournissait des garde-fous indispensables à cette technologie en pleine évolution.
Cependant elle a également suscité des critiques de la part d'autres technologues, comme Andrew Ng, fondateur de DeepLearning.AI, parce qu'elle imposait une responsabilité aux développeurs d'IA, ce qui pourrait étouffer l'innovation.
#5 Émergence de modèles de langage de petite taille (SLM)
Les modèles d'IA massivement volumineux formés à partir de milliards de points de données deviendront monnaie courante en 2024. ChatGPT a été entraîné sur 570 gigaoctets de données textuelles extraites de l'internet, soit environ 300 milliards de mots.
Toutefois, pour de nombreuses entreprises, l'avenir de l'IA réside dans des modèles de langage plus petits, spécifiques à l'industrie, dont certains ont commencé à émerger en 2024.
En avril, Microsoft a déployé ses petits modèles de langage Phi-3, tandis qu'Apple présentait huit petits modèles de langage pour ses appareils portables. Microsoft et la Khan Academy utilisent désormais des SLM pour améliorer l'enseignement des mathématiques aux étudiants.
« Il y a beaucoup plus de calcul disponible à la périphérie parce que les modèles deviennent plus petits pour des charges de travail spécifiques, [et] vous pouvez effectivement en tirer beaucoup plus d'avantages », a expliqué Yorke Rhodes, directeur de la transformation numérique, de la blockchain et du cloud supply chain de Microsoft, lors d'une conférence en mai.
Les SLM nécessitent moins de données d'entraînement et de puissance de calcul pour être développés et exécutés, et leurs capacités « commencent vraiment à se rapprocher de certains des grands modèles de langage », a-t-il ajouté.
#6 L'IA agentique est passée au premier plan
Les chatbots comme ChatGPT sont surtout utilisés pour poser des questions et recevoir des réponses sur un large éventail de sujets — bien qu'ils puissent également écrire du code logiciel, rédiger des courriels, générer des rapports et même écrire de la poésie.
Toutefois, les agents IA vont un cran plus loin que les chatbots et peuvent réellement prendre des décisions pour les utilisateurs, leur permettant d'atteindre des objectifs spécifiques. Par exemple, dans le secteur de la santé, un agent IA pourrait être utilisé pour surveiller les données des patients, faisant des recommandations lorsque cela est approprié pour modifier un traitement spécifique.
Luna est un agent IA basé sur Virtuals. Source: X
Selon Gartner, une société de conseil technologique, l'IA agentique figure parmi les « grandes tendances technologiques stratégiques pour 2025 ». D'ici 2028, l'entreprise prévoit qu'un tiers des applications logicielles d'entreprise utiliseront cette technologie, contre moins de 1 % en 2024.
Les agents IA pourraient même être utilisés pour écrire des smart contracts basés sur la blockchain (techniquement, ils peuvent déjà le faire, mais les risques d'un bogue erroné et d'une perte de fonds sont encore trop élevés à l'heure actuelle). Le projet blockchain Avalanche a déjà commencé à construire une nouvelle machine virtuelle à l'intersection de l'IA et des blockchains pour le faire dans un langage naturel. « Vous écrivez vos programmes de [smart contracts] en anglais, allemand, français, tagalog, chinois [...] un langage naturel que votre mère vous a appris dans votre langue maternelle », a déclaré Emin Gün Sirer, fondateur d'Ava Labs.
La programmation de smart contract telle qu'elle existe aujourd'hui est vraiment difficile, donc un agent IA facile à utiliser pourrait potentiellement attirer « des milliards de nouveaux utilisateurs [blockchain] », a prédit Sirer.
#7 Modèles de raisonnement pour résoudre des 'problèmes difficiles'
Les chatbots ont d'autres limites. Ils peuvent avoir du mal avec des problèmes de mathématiques simples et des tâches de codage logiciel, par exemple. Ils ne sont pas non plus très bons pour répondre à des questions scientifiques.
OpenAI a cherché à remédier à ces problèmes en septembre avec le lancement de OpenAI o1, une nouvelle série de modèles de raisonnement « pour résoudre des problèmes difficiles », comme les équations différentielles. Le résulata a été globalement positive.
« Enfin, un modèle d'IA capable de traiter tous les problèmes complexes de science, de codage et de mathématiques que je lui soumets en permanence », a tweeté Kevin Roose, chroniqueur au New York Times.
Lors des tests, o1 a obtenu d'aussi bons résultats que les 500 meilleurs étudiants des États-Unis lors d'une épreuve qualificative pour les Olympiades américaines de mathématiques, par exemple, et a dépassé le niveau de précision d'un doctorant humain sur une série de problèmes de physique, de biologie et de chimie, a rapporté OpenAI.
#8 Concentration sur l'AGI
Pourquoi les avancées dans la résolution structurée de problèmes, comme décrit ci-dessus, sont-elles importantes ? Elles rapprochent progressivement l'IA de la fourniture d'une intelligence semblable à celle des humains, c'est-à-dire l'intelligence générale artificielle, ou AGI.
Les modèles o3 d'OpenAI, publiés juste avant Noël, ont encore mieux performé que o1, notamment sur les tests de mathématiques et de codage, tandis que d'autres projets comme Gemini 2.0 de Google ont également réalisé des progrès en 2024 sur la résolution structurée de problèmes — c'est-à-dire, la décomposition de tâches complexes en étapes gérables.
Cependant, l'AGI reste encore un objectif lointain aux yeux de nombreux experts. Les modèles avancés d'aujourd'hui manquent encore d'une compréhension intuitive de concepts physiques comme la gravité ou la causalité, par exemple. De même, les algorithmes d'IA actuels ne peuvent pas inventer des questions par eux-mêmes, ni apprendre si et quand les scénarios prennent un tournant inattendu.
Dans l'ensemble, « l'AGI est un voyage, pas une destination — et nous n'en sommes qu'au début », a récemment déclaré Brian Hopkins, vice-président pour la technologie émergente chez le cabinet de conseil Forrester.
# 9 Signes d'une pénurie imminente de données de formation
Il ne fait aucun doute que 2024 a été une année passionnante pour les développeurs et utilisateurs d'IA, et peu de personnes s'attendent à ce que l'innovation en IA ralentisse de sitôt. Cependant, il y a aussi eu des suggestions en 2024 selon lesquelles la sous-époque des LLM (modèles de langage à grande échelle) de l'IA pourrait déjà avoir atteint son apogée.
La raison en est une pénurie imminente de données. Des entreprises comme OpenAI et Google pourraient bientôt manquer de données, le sang vital de l'IA, utilisées pour « entraîner » d'énormes systèmes d'intelligence artificielle.
Il y a une limite au nombre de données que l'on peut extraire d'Internet, après tout. De plus, les développeurs de LLM constatent qu'ils ne peuvent pas toujours collecter des données publiques en toute impunité. Le New York Times, par exemple, a poursuivi OpenAI pour violation des droits d'auteur concernant son contenu d'actualités. Il est peu probable que ce soit la seule organisation de presse majeure à chercher à obtenir réparation devant les tribunaux.
« Tous les acteurs du secteur constatent une diminution des rendements », a déclaré Demis Hassabis, de Google.
Une solution pourrait être de former les algorithmes en utilisant des données synthétiques — des données générées artificiellement qui imitent les données du monde réel. Le LLM Claude 3 d'Anthropic, par exemple, a été formé, du moins en partie, sur des données synthétiques, c'est-à-dire « des données que nous générons en interne », selon l'entreprise.
Bien que le terme « données synthétiques » puisse sembler un oxymore, des scientifiques, y compris certains experts médicaux, affirment que la création de nouvelles données à partir de zéro offre des perspectives intéressantes. Cela pourrait soutenir l'IA médicale en complétant des ensembles de données incomplets, ce qui pourrait contribuer à éliminer les biais à l'encontre de certains groupes ethniques, par exemple.
Anthropic essaie de montrer la voie avec une IA éthique. Source : Anthropic
#10 Émergence d'une IA plus éthique
Il est intéressant de noter qu'Anthropic explique en détail comment elle obtient ses données de formation dans l'article cité ci-dessus. En particulier, l'entreprise exploite son système de crawl de sites web de manière « transparente », ce qui signifie que les fournisseurs de contenu de sites web — comme The New York Times, par exemple — « peuvent facilement identifier les visites d'Anthropic et signaler leurs préférences à Anthropic ».
L'entreprise a pris plusieurs mesures pour éviter tout usage abusif de sa technologie, allant même jusqu'à créer un responsable de l'échelle responsable, dont le rôle a été élargi en 2024 dans le but de créer une IA « sûre ». Les efforts de l'entreprise n'ont pas passé inaperçus. Le magazine Time l'a classée parmi les 100 entreprises les plus influentes en 2024, la louant comme « l'entreprise d'IA qui parie que la sécurité peut être une stratégie gagnante ».
Au vu de l'évolution de l'IA en 2024 et des préoccupations publiques concernant les risques catastrophiques potentiels de ces nouveaux systèmes de pointe, il semble tout à fait probable que davantage de développeurs adoptent bientôt une IA plus transparente et responsable.