Une histoire de l’intelligence artificielle
Publié en avril 2025. Par Michel André.
La percée de l’IA ne se comprend que dans le cadre d’un « écosystème » mondial centré sur la Californie, les deux Chines et l’Inde. S’il fallait en désigner un héros, ce serait Jensen Huang, le PDG de Nvidia.

La marée de livres sur l’intelligence artificielle qui a envahi les tables des librairies au cours des derniers mois peut être répartie en quelques grands courants : manuels d’initiation à cette technologie comprenant souvent des conseils pratiques pour l’utilisation de ses outils les plus populaires, comme l’« agent conversationnel » ChatGPT ; ouvrages de réflexion sur les questions philosophiques, anthropologiques et de société que pose son développement extraordinairement rapide et les enjeux qu’il soulève ; études, enfin, sur les aspects politiques et économiques du phénomène. Ainsi que l’indique explicitement son titre, le livre que vient de publier Alessandro Aresu relève de cette dernière catégorie. Dans le prolongement des travaux récents de l’auteur sur le « capitalisme politique » et la guerre technologique entre les États-Unis et la Chine, cet ouvrage de plus de 500 pages analyse « l’écosystème » mondial qui a donné naissance à l’intelligence artificielle et à l’intérieur duquel elle fleurit aujourd’hui. Un écosystème fondamentalement centré sur les États-Unis et l’Asie, fait de compétences, d’entreprises et de capitaux, qui repose sur un faisceau d’interdépendances travaillées par de fortes rivalités et une compétition intense.
En même temps, le livre est une histoire de l’intelligence artificielle à la manière de l’histoire de l’informatique de Walter Isaacson (Les Innovateurs), qu’il poursuit en quelque sorte, l’intelligence artificielle étant le dernier avatar en date de l’informatisation et de la numérisation du monde entamée avec l’apparition des premiers ordinateurs. Comme celui d’Isaacson, le récit d’Aresu prend pour fil conducteur la vie de quelques figures clés, en particulier celle de Jensen Huang, fondateur et PDG de Nvidia, l’entreprise qui produit les microprocesseurs très puissants utilisés par les systèmes d’intelligence artificielle. Le nom de Nvidia est un peu moins connu du grand public que ceux de Microsoft, Apple, Google, Meta ou Amazon, producteurs de programmes ou fournisseurs de services informatiques. Le déplacement de l’attention du domaine familier du logiciel à celui, non moins important, du matériel est un des éléments qui font l’originalité et l’intérêt de l’ouvrage.
L’expression « intelligence artificielle » a été forgée par le mathématicien et informaticien John McCarthy, qui l’a officiellement introduite lors d’un colloque organisé en 1956 au Dartmouth College, généralement considéré comme le moment de naissance de cette discipline. Celle-ci se situe dans le prolongement d’une longue tradition d’efforts pour comprendre le fonctionnement de l’esprit humain et reproduire ses mécanismes dans des systèmes artificiels, mécaniques d’abord, électroniques ensuite : les réflexions de Ramon Llull sur les machines logiques et la « caractéristique universelle » de Leibniz, les machines à calculer de Pascal et Babbage, les travaux pionniers d’Alan Turing en théorie de la calculabilité, l’invention de l’architecture des ordinateurs par John von Neumann, la cybernétique de Norbert Wiener et la théorie de l’information de Claude Shannon.
Dans les années qui suivirent le colloque de 1956, deux voies furent explorées avec des succès divers dans un parcours entrecoupé de périodes d’« hiver » de l’intelligence artificielle durant lesquelles les espoirs faiblissaient et les financements se tarissaient. D’un côté, l’intelligence artificielle « symbolique », fondée sur l’idée de reproduire la manière dont l’esprit se représente les connaissances ; elle est notamment appliquée dans les systèmes experts, capables de résoudre des problèmes étroitement définis. De l’autre côté, l’approche « connexionniste », qui vise à imiter la façon dont fonctionne le cerveau. Développée sur la base des travaux de Walter Pitts et Warren McCulloch sur les réseaux de neurones formels, elle s’est tout d’abord matérialisée, à la fin des années 1950, dans un dispositif assez primitif, le « perceptron » de Frank Rosenblatt. Elle a fini par s’imposer grâce à la mise au point des techniques d’apprentissage profond par renforcement, qui permettent d’améliorer les performances du système en intégrant par « rétropropagation » les résultats de ses succès et de ses erreurs. C’est cette approche qui a permis les deux percées spectaculaires que furent, en 1997, la victoire de la machine Deep Blue d’IBM sur le champion d’échecs Garry Kasparov, puis, en 2016, la défaite de Lee Sedol, champion de go, par le programme AlphaGo de la société DeepMind.
Trois éléments ont permis de réaliser des progrès décisifs à l’aide de cette technique au début des années 2000 : la disponibilité de quantités de plus en plus massives de données, la mise au point d’algorithmes de plus en plus sophistiqués pour leur traitement et l’existence de microprocesseurs de plus en plus puissants. C’est ici qu’apparaît le héros de l’histoire racontée par Aresu, Jensen Huang. Né en 1963 à Taïwan, il a grandi aux États-Unis, où ses parents l’avaient envoyé afin de lui assurer le meilleur avenir professionnel possible. Ils l’y rejoignirent quelques années plus tard. Élève brillant, puis tout aussi brillant étudiant en ingénierie, il commença sa carrière comme concepteur de microprocesseurs dans la Silicon Valley. En 1993, sur un coin de table de restaurant, celui qu’Aresu appelle volontiers « le garçon du Kentucky » parce que c’est dans cet État qu’il a commencé sa vie américaine, ou « l’homme au blouson de cuir » en raison de sa tenue favorite, fondait Nvidia avec deux autres ingénieurs. Ses créateurs avaient choisi ce nom en référence au mot latin invidia, parce qu’ils entendaient bien faire envie à leurs concurrents. Les premiers « processeurs graphiques » (GPU) produits par Nvidia étaient destinés au marché des jeux vidéo apparus dans le sillage des ordinateurs personnels. Leurs fabricants se trouvaient confrontés au problème de la représentation d’objets en trois dimensions en mouvement. Sa résolution impliquait le recours à d’importantes capacités de calcul parallèle transformant chaque ordinateur en petit « superordinateur ». Avec l’aide de deux ingénieurs de Stanford qui rejoignirent la société, Ian Buck et William Dally, Huang développa par la suite une technologie dite « CUDA » permettant d’appliquer ces processeurs graphiques à d’autres usages faisant appel à la visualisation et l’analyse des données, en biologie, physique et ingénierie, puis dans le domaine de l’intelligence artificielle. Alessandro Aresu met au crédit de Jensen Huang d’avoir étendu le champ d’application de ses processeurs en se laissant guider, à l’instar de Bill Gates et de Steve Jobs, non par la logique technologique, mais par les besoins et les attentes des utilisateurs. Il rappelle aussi que son nom est attaché à une troisième loi empirique, à côté de la loi de Moore qui veut que le nombre de transistors sur un circuit intégré double chaque deux ans, et de la loi des retours accélérés qui affirme le caractère exponentiel du progrès technologique : la loi de Huang, selon laquelle l’augmentation des performances d’un processeur graphique sera toujours plus rapide que celle des unités centrales de traitement.
D’autres figures fameuses traversent le récit : Elon Musk, co-fondateur de la société OpenAI (qui produit ChatGPT) avant d’investir dans DeepMind et de fonder sa propre société d’intelligence artificielle, xAI ; Peter Thiel (co-fondateur avec Musk de l’entreprise de paiements électroniques PayPal), fondateur de Palantir, dans le secteur de la défense ; Sam Altman, co-fondateur et directeur général d’OpenAI, renvoyé par le conseil d’administration puis réintégré à l’issue d’une crise qu’Aresu raconte en détail ; Ilya Sutskever, directeur scientifique d’OpenAI, qu’il quitta à la suite de la crise en question, et quelques autres.
Le livre met en lumière un fait souvent noté, mais pas toujours suffisamment relevé. Les pionniers de l’informatique et de l’intelligence artificielle (Turing, Von Neumann, Wiener, Shannon) étaient des scientifiques de haut niveau dotés d’une vaste culture scientifique et aussi, parfois, littéraire. La génération suivante, à qui l’on doit l’invention de l’ordinateur et d’Internet, était largement composée d’ingénieurs en électronique, parfois en partie autodidactes (Bill Gates, Steve Jobs), marqués par la contreculture des années 1960. Parmi les figures contemporaines de l’intelligence artificielle, on trouve un certain nombre de scientifiques de premier plan. Deux d’entre eux ont même obtenu le prix Nobel en 2024 – on ne peut exclure qu’un effet de mode et l’engouement actuel pour l’intelligence artificielle aient contribué à leur valoir cette distinction : Geoffrey Hinton en physique, pour ses travaux sur les réseaux de neurones artificiels, et Demis Hassabis (PDG de DeepMind) en chimie, pour l’application de l’intelligence artificielle à l’étude de la structure des protéines (le repliement des chaînes d’acides aminés). Dans l’ensemble, cependant, ces nouveaux acteurs ont plutôt un profil de technologues et d’entrepreneurs. Presque tous, y compris certains scientifiques, baignent de surcroît dans la culture des jeux vidéo, de la science-fiction et de la littérature de « fantasy », dont le représentant le plus célèbre est l’auteur du Seigneur des anneaux J. R. R. Tolkien : les deux noms de Palantir et d’Anduril, une autre entreprise spécialisée dans les usages militaires de l’intelligence artificielle, proviennent de son univers.
Alessandro Aresu souligne le caractère fondamentalement américain et asiatique du monde de l’intelligence artificielle. Comme Jensen Huang, Lisa Su, PDG de la société de semi-conducteurs AMD, est née à Taïwan et a étudié aux États-Unis ; Fei-Fei Li, créatrice d’une banque d’images qui a joué un rôle important dans l’histoire de la technologie de l’apprentissage profond, est née en République populaire de Chine ; Sundar Pichai (PDG de Google) et Satya Nadella (PDG de Microsoft) sont nés en Inde. Certes, Andrej Karpathy et Mira Murati, qui ont travaillé tous deux pour OpenAI, sont respectivement d’origine slovaque et albanaise. Mais, dans l’ensemble, une écrasante majorité des étudiants et des chercheurs qu’attirent les États-Unis proviennent d’Asie, plus particulièrement de l’Inde et de la Chine. Les grandes entreprises qui assemblent les microprocesseurs tels que ceux conçus par Nvidia, Foxconn et TSMC sont établies à Taïwan. Et à côté des « GAFAM » américaines, les plus grandes sociétés exploitant dans le monde les gigantesques centres de données qui nourrissent les programmes d’apprentissage profond sont les géants Baidu, Tencent et Alibaba en Chine continentale.
Certes, DeepMind est toujours établie en Grande-Bretagne, mais la société a été achetée par Google. Une entreprise spécialisée dans l’intelligence artificielle, Mistral AI, a réussi à se développer en France, mais à un niveau de capitalisation dérisoire par rapport à ses concurrents américains. Et ASML, aux Pays-Bas, produit les machines de lithographie utilisées pour fabriquer les microprocesseurs partout dans le monde. Dans l’ensemble cependant, Alessandro Aresu n’envisage comme perspective pour l’Europe dans ce domaine que l’exploitation de quelques marchés de niche. Pour l’essentiel, compte tenu de l’émergence, à côté de l’Inde et de la Chine, de nouvelles puissances industrielles en Asie du Sud-Est (Corée du Sud, Malaisie, Indonésie, Vietnam), c’est dans le monde américano-asiatique que l’intelligence artificielle devrait continuer à se développer, entre accords de coopération et guerre commerciale, échanges scientifiques et contrôle des exportations.
Ancien étudiant du philosophe Massimo Cacciari, Alessandro Aresu est un homme cultivé qui cite Keynes, Schumpeter et Karl Polanyi, Robert Musil, Hermann Hesse et Leopardi. Son livre reste cependant résolument centré sur certains aspects techniques et économiques de l’intelligence artificielle. Il n’évoque ni ses usages actuels en médecine, dans la recherche scientifique, l’industrie, la finance et le travail administratif, ni ses applications attendues en robotique, ni son développement possible au-delà des grands modèles de langage et les perspectives que pourraient lui ouvrir les progrès de l’informatique quantique. L’ouvrage ne creuse pas non plus les questions que soulève la possibilité de voir des systèmes artificiels égaler l’intelligence humaine (« intelligence générale »), voire la surpasser (« superintelligence »), la perspective que naisse un jour une intelligence artificielle dotée de conscience ou de la capacité de s’améliorer indéfiniment et de s’auto-reproduire sous la forme de systèmes de plus en plus puissants que l’intelligence humaine serait trop limitée pour comprendre. Il ne dit rien des risques associés à son développement foudroyant, de la disparition (certaine) à grande échelle de nombreuses professions intellectuelles à la prise de contrôle (hypothétique) de la société par les machines, en passant par la mise au point de systèmes d’armement autonomes et de puissants outils de contrôle social ; ainsi que, last but not least, l’érosion des capacités de réflexion, de synthèse, d’analyse et d’expression des générations à venir, les êtres humains voyant leurs fonctions intellectuelles s’atrophier progressivement à force de déléguer par paresse et par facilité aux machines les tâches qui requièrent leur usage.
Le grand mérite du livre est de fournir une image précise, complète et fidèle du paysage dans lequel l’intelligence artificielle est apparue et se développe actuellement. Un paysage constamment changeant, toutefois, qui évolue aussi rapidement que la technologie concernée : au mois de janvier 2025, la société chinoise DeepSeek, financée par un fonds spéculatif du pays, mettait sur le marché un grand modèle de langage aussi performant que les meilleurs modèles américains mais dont la mise au point a pu être réalisée à un coût 50 fois inférieur. L’embargo mis par les autorités américaines sur les microprocesseurs haut de gamme de Nvidia les ayant contraints à faire preuve d’ingéniosité, les chercheurs de DeepSeek ont développé leurs propres puces, démontrant qu’il était possible d’entraîner le système très efficacement à moindre frais. Aussitôt, Nvidia enregistrait une perte de capitalisation boursière de 600 milliards de dollars, la plus élevée jamais observée en une seule journée.