L’IA va-t-elle dépasser l’intelligence humaine ?

L’histoire de l’intelligence artificielle (même si le mot n’existait pas encore) est aussi ancienne que l’informatique et la cybernétique et débute en 1943, avec la publication de l’article « A Logical Calculus of Ideas Immanent in Nervous Activity » par Warren McCullough et Walter Pitts. Dans cette publication, les scientifiques présentent le premier modèle mathématique pour la création d’un réseau de neurones. Deux ans après la sortie de « Cybernétique, ou le contrôle de la communication chez l’homme et l’animal », le célèbre livre de Norbert Wiener (le père de la cybernétique), deux étudiants de Harvard, Marvin Minsky et Dean Edmonds, créèrent Snarc, le premier ordinateur à réseau de neurones. La même année, en 1950, le génial scientifique britannique Alan Turing publia le fameux test de Turing, protocole qui sert encore pour évaluer les IA. De ce test découlent les fondations de l’intelligence artificielle, de sa vision et de ses objectifs : répliquer ou simuler l’intelligence humaine dans les machines.

Mais ce n’est qu’en 1956 que le terme d’intelligence artificielle sera prononcé pour la première fois, durant la conférence « Dartmouth Summer Research Project on Artificial Intelligence » de John McCarthy. Lors de cet événement, les chercheurs présentent les objectifs et la vision de l’IA. Il est en effet admis que cette conférence légendaire qui eut lieu pendant l’été 1956 au Dartmouth College et regroupa notamment John McCarthy, Marvin Minsky et Claude Shannon, marqua la naissance de l’IA comme discipline scientifique et comme aventure technologique. Dès son origine l’IA fut parfaitement définie par Marvin Minsky comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains, en raison de ses capacités cognitives uniques et inégalées ».

En 1959, Arthur Samue, qui travaillait chez IBM, inventa le terme de Machine Learning, et en 1965, on vit apparaître Dendral, le premier système expert permettant d’identifier les constituants chimiques d’un matériau à partir de spectrométrie de masse et de résonance magnétique nucléaire. En 1987, le chercheur français Yann Lecun mit au point le premier réseau de neurones capable de reconnaître des chiffres écrits à la main, une invention qui sera à l’origine du développement du deep learning. Et c’est dix ans plus tard, en 1997, qu’un événement majeur marque l’histoire de l’IA. Le système Deep Blue d’IBM triomphe du champion du monde d’échecs Gary Kasparov. Pour la première fois, la machine a vaincu l’Homme.

En France, on ne peut pas évoquer l’IA sans rappeler le rôle déterminant de Jacques Pitrat (1934-2019). Cet éminent et infatigable chercheur fut le premier à introduire l’IA en France, dès 1966, à l’occasion de sa thèse de doctorat qui partait déjà de la démonstration automatique de théorèmes, en introduisant le premier la notion de métathéorèmes. Il publia également un premier article sur l’apprentissage automatique des machines et réalisa l’un des premiers programmes de General Game Playing, publié en 1968. Après avoir rejoint l’Institut Blaise Pascal (CNRS) en 1967, il poursuivit pendant plus de 30 ans une brillante et très féconde carrière de chercheur-enseignant et dirigea jusqu’en 2000 l’Institut de programmation de l’université Paris-VI. Grâce à ses nombreux travaux, Jacques Pitrat a fait considérablement progresser l’apprentissage automatique de la compréhension dans les ordinateurs, ainsi que de la création automatique de stratégies de compréhension et d’action par les machines. On lui doit notamment la notion de métaconnaissances, qui en créent elles-mêmes de nouvelles et les adaptent intelligemment.

Il fallut néanmoins attendre les années 2010 pour que l’IA prenne véritablement son envol et commence à se diffuser dans tous les domaines d’activités, de l’industrie à la médecine, en passant par les transports ou la défense. Deux avancées décisives ont permis cette rupture technologique. D’abord l’accès facile à des volumes massifs des données. Ensuite l’exploitation de l’énorme puissance de calcul des processeurs de cartes graphiques des ordinateurs (plus de 1000 milliards d’opérations par seconde) pour accélérer le calcul des algorithmes d’apprentissage.

En 2016, AlphaGO, l’IA de Google, a battu le champion du monde (Lee Sedol), un véritable exploit cognitif, quand on sait que le jeu de Go a une combinatoire bien plus importante que les échecs, ce qui exclut une stratégie reposant uniquement sur la puissance de calcul. Et de fait, les incroyables performances atteintes depuis une dizaine d’années par les nouveaux outils d’IA tiennent à la combinaison de trois avancées, une capacité de calcul énorme à un coût toujours plus faible, des bases de données gigantesques disponibles sur l’Internet et une rupture conceptuelle dans l’approche informatique, qui est devenue inductive : au lieu de coder les règles comme pour les systèmes experts, les algorithmes sont conçus de manière à permettre aux ordinateurs de les découvrir seuls par corrélation et classification, sur la base d’une quantité massive de données.

Les capacités incroyables de l’IA sont apparues au grand jour début 2020 (Voir Nature) quand le nouvel outil d’IA, AlphaFold 1, développé par DeepMind, le labo de recherche de Google, s’est avéré capable de prédire rapidement la structure de pratiquement n’importe quelle protéine humaine, prouesse confirmée en juillet dernier avec le décodage annoncé de 300 millions de protéines par Alphafold2, la nouvelle version de l’algorithme de DeepMind. Mais la véritable découverte par le grand public de la puissance sans limites de l’IA a sans doute eu lieu fin 2022, quand OpenAI a mis sur le marché son fameux agent conversationnel, ou « chatbot » ChatGPT (Transformateur Génératif pré-entraîné), qui utilise de manière remarquable l’intelligence artificielle générative pour interagir avec les utilisateurs. Cet outil révolutionnaire est capable de répondre, souvent de façon très pertinente, à une multitude de questions, y compris les plus complexes, de fournir des informations précises et de générer des textes qu’il est souvent difficile, en première instance, de distinguer d’un texte écrit par un Humain…

En mars dernier, OpenAI a présenté la nouvelle version très attendue de son grand modèle de langage (LLM), GPT-4. Cette nouvelle version est déjà disponible pour les abonnés ChatGPT (pour 23 euros par mois). OpenAI précise que cette nouvelle IA « est plus fiable, plus créative et capable de traiter des instructions beaucoup plus nuancées que GPT-3.5 ». Alors que ChatGPT3 est limité à 3 000 mots en entrée ou sortie, la nouvelle version peut atteindre 25 000 mots. GPT-3 propose 175 milliards de paramètres, alors que GPT-4 en intègre 100 000 milliards. Mais selon OpenAI, la vraie révolution arrivera en 2025, avec la mise sur le marché de GPT-5 qui devrait être dotée d’une fonctionnalité multimodale et multisensorielle améliorée. Cette future « AIG », Intelligence Artificielle Générale, pourra traiter, combiner et générer tous les types de données, textes écrits, contenus audio, images, vidéos, avec une puissance et une pertinence phénoménales.

Microsoft, qui collabore également avec OpenAI sur le projet Copilot visant à intégrer un puissant outil d’IA dans Windows 12 qui sortira en 2024, dévoilera bientôt sa première puce conçue pour ces futures IA génératives universelles. Celle-ci a été développée pour se substituer aux puces de Nvidia et équiper les serveurs des datacenters de Microsoft. Cette puce, qui devrait être baptisée « Athena », démontre la volonté d’autonomie des géants du numérique (Amazon, Microsoft, Google, Facebook, Intel,) qui réalisent des investissements de recherche colossaux pour sortir de leur dépendance en matière de composants électroniques à l’égard de Nvidia.

En août dernier, Nvidia, qui a conquis 85 % du marché des puces dédiées à l’IA et dépassé les 1000 milliards de capitalisation boursière, a présenté sa “super puce” GH200, également dédiée à l’intelligence artificielle générative, qui sera disponible fin 2024. Cette nouvelle puce associe 72 cœurs avec un GPU H100, spécialement conçu pour l’accélération des calculs liés à l’IA. Elle sera au cœur du futur calculateur, baptisé DGX GH200, capable d’entraîner les prochains modèles d’IA générative. Ce composant surpuissant vise à permettre au géant américain de conserver son écrasante domination sur ce marché de l’IA en pleine explosion.

Mais les autres géants de l’informatique et du numérique n’ont pas dit leur dernier mot et entendent bien combler leur retard et revenir dans la course mondiale aux puces dédiées à l’AI. C’est le cas d’Open AI, qui veut développer ses propres puces IA et c’est aussi le cas d’IBM qui travaille d’arrache-pied à la mise au point d’une puce neuromorphique, NorthPole, imitant le fonctionnement du cerveau humain. Depuis les origines de l’informatique, l’architecture des puces bute sur un obstacle au développement de l’IA, appelé « goulot d’étranglement de von Neumann« . Il s’agit d’un phénomène intrinsèque au fonctionnement de la quasi-totalité des puces électroniques, qui limite le transfert de données entre le processeur et la mémoire des systèmes. Cette puce NorthPole se distingue également par une consommation énergétique très réduite, un avantage considérable, compte tenu de la consommation énergétique en plein essor de l’IA au niveau mondial. Cette puce est composée de 256 unités de calcul contenant chacune sa propre unité de mémoire. Cette nouvelle architecture permet à chaque cœur de traitement d’accéder facilement à n’importe quel bloc de mémoire sur la puce. Elle est environ 4 000 fois plus rapide que son prédécesseur, « TrueNorth ». Comparée aux puces actuellement utilisées pour l’entraînement des modèles d’IA, NorthPole consomme 25 fois moins d’énergie, pour une vitesse vingt fois supérieure à celle des puces actuelles. NorthPole serait même plus efficace que les dernières puces de NVIDIA. La puissance impressionnante de NorthPole tient au fait que la mémoire est intégrée directement sur la puce. NorthPole est conçu pour faire fonctionner les applications d’IA, dans des domaines variés, qu’il s’agisse de la robotique, des véhicules autonomes, des assistants numériques ou de l’agriculture de précision.

Si ces puces neuromorphiques, largement inspirées des systèmes neuronaux biologiques, sont devenues un enjeu technique et économique considérable, c’est parce qu’elles peuvent combiner rapidité, mémoire et sobriété énergétique, ce dernier avantage devenant décisif, dans un contexte de réduction drastique des émissions de CO2 et de lutte contre le réchauffement climatique. On le sait, l’architecture actuelle des ordinateurs sépare physiquement le processeur et la mémoire où sont stockées les données. Avec l’informatique neuromorphique, les données sont traitées et stockées dans une seule puce.

Ces puces neuromorphiques sont au cœur de plusieurs ambitieux projets de recherche européens, comme NeurONN, qui vise à développer des architectures basées sur des réseaux de neurones oscillatoires. Face aux limites physiques de la loi de Moore, l’informatique neuromorphique ouvre la voie à des architectures de puces plus puissantes et surtout bien plus économes en énergie. Le neuromorphisme s’inspire en effet du fonctionnement des réseaux de neurones biologiques en misant sur des architectures parallèles, et non séquentielles, ce qui autorise le traitement simultané de multiples opérations. Comme le souligne Fabio Pavanello, chercheur en photonique à l’IMEP-LAHC, « Les architectures traditionnelles présentent des limitations en termes d’efficacité énergétique et de communication entre la mémoire et les processeurs. En revanche, avec une puce neuromorphique basée sur une technologie photonique, la latence ne serait limitée qu’à la vitesse de la lumière ». Le programme européen NimbleAI vise pour sa part à développer une architecture anthropomorphique intégrée, capable de percevoir son environnement en 3D, tout en étant 50 fois plus rapide et 100 fois plus sobre en consommation d’énergie.

Il y a deux ans, le réseau de neurones DishBrain, mis au point par l’University College de Londres et l’Université australienne de Monash a fait sensation en apprenant à jouer au jeu vidéo Pong en seulement quelques minutes. Cette puce semi-biologique associe des neurones cultivés dans une boîte de pétri combinés à une puce électronique en silicium. Dans certains domaines, elle a montré qu’elle pouvait surclasser les meilleures puces d’IA sur silicium et ouvre la voie vers une intelligence artificielle hybride, combinant composants électroniques et biologiques. « Ce composant hybride exploite la puissance de calcul de cellules biologiques et promet de larges perspectives d’application telles que la robotique, l’automatisation avancée, les interfaces cerveau-machine ou encore la découverte de nouveaux médicaments » (Voir Monash University).

En mars dernier, une étude du cabinet Goldman Sachs créait l’événement en prévoyant que « jusqu’à 300 millions d’emplois à temps plein seront automatisés à travers le monde, en raison de la dernière vague d’intelligences artificielles ». Selon cette étude deux tiers des emplois actuels seront touchés à divers degrés par l’automatisation. IDC nous apprend pour sa part que le marché mondial de l’intelligence artificielle devrait passer de 350 milliards de dollars en 2022 à 2000 milliards de dollars en 2030, et devrait créer 11,6 millions d’emplois additionnels. Selon Bloomberg, le seul marché de l’IA générative, qui pesait près de 40 milliards de dollars en 2022, devrait atteindre les 1 300 milliards de dollars d’ici 2032. Bien que ce point central fasse l’objet de vifs débats entre économistes, il semble que cette diffusion des outils d’IA générative dans l’ensemble de la société obéisse au processus de destruction créatrice d’emplois prévu par Schumpeter. C’est en tout cas ce que prévoit une étude de l’Organisation Mondiale du Travail publiée en août dernier et qui souligne que la première conséquence de cette nouvelle technologie ne se traduira probablement pas par la destruction massive d’emplois (seuls 5,5 % des emplois dans les pays à revenu élevé seraient directement menacés par l’automatisation), mais plutôt par des changements potentiels dans la qualité des emplois, notamment l’intensité du travail et l’autonomie (Voir OIT).

Reste la question fondamentale récurrente, aux frontières de la science et de la philosophie : l’IA est-elle en mesure de bientôt égaler, voire surpasser l’intelligence humaine. Certains responsables économiques, comme Elon Musk, mais aussi certains scientifiques le croient. En mars dernier, Elon Musk et des centaines d’experts mondiaux ont signé un appel à une pause de six mois dans la recherche sur les intelligences artificielles en évoquant « des risques majeurs pour l’humanité » (Voir Future of Life). Dans cette pétition, ils réclament un moratoire jusqu’à la mise en place d’instances indépendantes de contrôle et de surveillance des systèmes d’IA, susceptibles de permettre de distinguer le réel de l’artificiel et de gérer les « perturbations économiques et politiques dramatiques que l’IA peut provoquer ».

On ne peut écarter d’un revers de main ces inquiétudes légitimes et il est effectivement souhaitable de renforcer les instances et procédures de contrôle afin de prévenir, autant qu’il est possible, les utilisations humaines malveillantes ou irresponsables de ces nouveaux outils d’IA générative. Mais de là à imaginer que l’IA va bientôt supplanter l’intelligence humaine et échapper à ses créateurs pour poursuivre ses propres buts, il y a un grand pas que beaucoup d’éminents scientifiques se refusent à franchir. Dans son livre « Parole de Machines », le directeur de recherche au CEA-Saclay Alexei Grinbaum souligne qu’une IA ne sait pas qu’elle sait et n’a pas conscience d’avoir conscience. Son apprentissage ne produit pas de sens et l’IA est par conséquent incapable de comprendre le sens et la dimension ambiguë des mots. Alexei Grinbaum pense que l’objectif de l’IA n’est pas de simuler l’intelligence humaine, mais, ce qui est beaucoup plus intéressant, de découvrir de nouveaux moyens d’aller du même point de départ au même point d’arrivée que le cerveau humain, sans emprunter les mêmes voies…

Le Professeur de psychologie à l’université de Paris, Olivier Houdé, est également convaincu que la perspective d’une IA égalant en tout point l’intelligence humaine relève largement de l’imposture scientifique. Depuis 30 ans, Olivier Houdé réexamine et élargit la théorie cognitive de Jean Piaget. Ses travaux, mondialement reconnus, montrent que cette conception de l’intelligence linéaire de Piaget est incomplète et ne rend pas compte de la complexité de la genèse de l’intelligence humaine. Selon Olivier Houdé, les automatismes et la pensée réflexive coexistent dans le cerveau humain, dès la naissance. L’intelligence, selon lui, consisterait à arbitrer, c’est-à-dire à déterminer les situations dans lesquelles la réflexion, grâce à un processus d’inhibition de mieux en mieux contrôlé, doit se substituer à la pensée intuitive et spontanée.

Pour Olivier Houdé, il n’y a aucune chance que l’IA dépasse dans un avenir prévisible l’intelligence humaine, car cette dernière résulte d’un mécanisme extraordinairement fin et complexe qui articule le système heuristique, c’est-à-dire une pensée intuitive et rapide, le système algorithmique, c’est-à-dire une pensée logico-mathématique plus lente et enfin le système inhibiteur qui va décider à quel moment arbitrer entre les deux systèmes précédents… Olivier Houdé est, sur cette question capitale de la singularité de l’intelligence humaine, en accord avec le grand psychologue américaine Howard Gardner qui a révolutionné la conception de l’intelligence avec sa théorie, désormais célèbre, des intelligences multiples (1983), qui distingue pas moins de huit formes interdépendantes d’intelligence, réparties en quatre types : les intelligences d’actions (interpersonnelle et intrapersonnelle), scolaires (linguistique et logico-mathématique), environnementales (naturaliste et musicale) et méthodologiques (visuo-spatiale et kinesthésique).

Les outils d’IA n’ayant, par nature, pas de substrat corporel (même s’ils peuvent recourir à des puces intégrant des éléments biologiques), ils sont, pour ces éminents scientifiques, incapables de ressentir le monde qui les entoure et d’éprouver des sensations et des émotions proprement humaines. L’intelligence et la créativité, sous ses différentes formes, étant, chez l’homme, indissociables de l’affectivité et des émotions, ces scientifiques, rejoignant ici la pensée de Spinoza, se disent convaincus que l’IA générative, quelle que soit sa puissance de calcul, ne restera qu’une froide et pâle (mais néanmoins très utile et très efficace) copie du cerceau humain et n’atteindra jamais, avec les outils actuels, l’extraordinaire capacité humaine à créer des concepts nouveaux, faute de sentiments et de conscience réflexive…

Il n’en demeure pas moins vrai que la prochaine génération d’IA générative et universelle qui arrivera sur le marché d’ici seulement deux ou trois ans, et qui s’appuiera en outre sur des puces neuromorphiques bien plus puissantes qu’aujourd’hui, va rapidement devenir indispensable et s’imposer dans tous les aspects de notre vie, grâce à son incroyable capacité de compréhension et de dialogue, par l’écriture, la parole et l’image, avec les êtres humains. Ces IA génératives et universelles vont se fondre partout et bouleverser nos économies, nos sociétés et notre rapport au monde à un point que nous avons encore du mal à imaginer. C’est pourquoi nous devons dès à présent ouvrir un large débat démocratique sur les finalités de cette technologie et mettre en place des cadres éthiques et réglementaires suffisamment solides pour prévenir les possibles dérives liées à des utilisations inappropriées, manipulatoires ou criminelles de ces outils d’une prodigieuse puissance…

Le texte a été redigé par René TRÉGOUËT, Sénateur honoraire et Fondateur du Groupe de Prospective du Sénat

Laisser un commentaire