Cours : Histoire de l’Intelligence Artificielle – Des origines à nos jours
Cours d’Expert

Histoire de l’Intelligence Artificielle
Des mythes antiques à la révolution des grands modèles

Mars 2026 Expert en IA 45 min de lecture Niveau : Approfondi

Introduction : Une quête millénaire

Lorsque nous parlons d’intelligence artificielle aujourd’hui, nous avons tendance à penser aux algorithmes de recommandation, aux assistants vocaux ou aux générateurs d’images. Pourtant, l’idée de créer des êtres artificiels capables de penser et d’agir est bien plus ancienne que l’informatique. Elle remonte aux premières civilisations humaines, traversant les siècles, se nourrissant des progrès scientifiques et techniques, portée par une aspiration profonde : comprendre et reproduire l’intelligence humaine.

Ce cours vous propose un voyage à travers cette histoire fascinante. Nous explorerons ensemble comment les mythes antiques ont posé les bases de l’imaginaire artificiel, comment les automates du XVIIIe siècle ont matérialisé le rêve mécanique, comment la logique mathématique du XIXe siècle a fourni les outils théoriques, avant d’arriver aux bouleversements du XXe siècle et à la révolution actuelle du deep learning. Chaque étape de cette histoire est une réponse à une question fondamentale : qu’est-ce que l’intelligence, et peut-on la reproduire ?

Chapitre I : Les prémices antiques — Mythes et premières mécaniques

La mythologie grecque, berceau de notre imaginaire collectif, regorge de récits de créatures artificielles. Ces mythes ne sont pas de simples divertissements : ils expriment une aspiration fondamentale de l’humanité à créer du vivant.

Talos, le premier robot de l’histoire

Forgé par Héphaïstos, le dieu forgeron, Talos était un géant de bronze qui patrouillait les côtes de la Crète pour protéger l’île des envahisseurs. Selon les versions du mythe, il possédait une unique veine qui courait de son cou à ses chevilles, bouchée par un clou de bronze. Talos était capable de discerner amis et ennemis, et de les écraser dans ses bras de métal. Ce mythe, transmis par Apollonios de Rhodes dans ses Argonautiques, est considéré par les historiens comme la première représentation d’un robot dans l’histoire humaine.

Pygmalion et Galatée : l’amour qui donne vie

Le sculpteur chypriote Pygmalion, ayant juré de ne jamais aimer de femme vivante, passa des années à sculpter une statue d’une perfection absolue. Il tomba éperdument amoureux de sa création, lui offrant des présents, la parant de bijoux, la serrant dans ses bras. Touchée par sa passion, la déesse Aphrodite lui donna vie. Ce mythe, magnifiquement raconté par Ovide dans ses Métamorphoses, illustre avec une force poétique le désir de l’artiste de voir sa création s’animer — une aspiration que les chercheurs en IA ressentent encore aujourd’hui.

Les premières réalisations mécaniques

Au-delà des mythes, les civilisations antiques ont réellement construit des automates. Archytas de Tarente, philosophe et mathématicien grec du IVe siècle av. J.-C., conçut une colombe mécanique capable de voler sur quelques mètres grâce à un système de vapeur comprimée — le premier engin volant de l’histoire. Héron d’Alexandrie, au Ier siècle de notre ère, construisit des temples dont les portes s’ouvraient automatiquement, des fontaines animées et des théâtres de marionnettes mues par des systèmes hydrauliques. Ces machines, bien que rudimentaires, posaient déjà les principes fondamentaux de l’automatisation.

À retenir : L’imaginaire de l’être artificiel n’est pas une invention moderne. Il est présent dès l’Antiquité, à la fois comme mythe (Talos, Pygmalion) et comme réalisation technique (automates d’Héron). Cette double tradition — rêver et construire — accompagnera toute l’histoire de l’IA.

Chapitre II : Le XVIIe et XVIIIe siècles — La mécanisation du vivant

La révolution mécaniste du XVIIe siècle, portée par Descartes, change profondément la donne. Pour la première fois, le corps vivant est conçu comme une machine. Dès lors, construire des machines qui imitent le vivant devient non seulement possible, mais intellectuellement légitime.

Descartes et la machine animale

Dans son Discours de la méthode (1637), René Descartes propose une vision radicale : le corps humain fonctionne comme une machine complexe, soumise aux mêmes lois que le monde matériel. Les animaux, quant à eux, ne sont que des “machines” dépourvues d’âme. Cette conception mécaniste ouvre une perspective inédite : s’il est possible de décrire le fonctionnement du corps en termes mécaniques, alors il devient concevable de construire des machines imitant le vivant. Descartes lui-même envisage la possibilité de “machines qui ressemblent parfaitement à l’homme”.

Jacques de Vaucanson (1709-1782) — Le rival de Prométhée

Vaucanson est sans doute le plus grand inventeur d’automates du XVIIIe siècle. Son Joueur de flûte (1737) stupéfia l’Europe : un automate grandeur nature capable de jouer douze mélodies différentes en soufflant véritablement dans une flûte traversière. L’appareil utilisait des doigts articulés, un soufflet pour imiter la respiration humaine, et une mécanique d’une complexité inouïe. Mais son chef-d’œuvre reste le Canard digérateur (1739) : un canard mécanique capable de battre des ailes, de nager, de manger du grain, et surtout… de le digérer (en apparence). Voltaire, qui le rencontra, le qualifia de “rival de Prométhée”. Le Canard, exposé à travers l’Europe, fut admiré par des milliers de personnes, témoignant de l’engouement de l’époque pour la création de la vie artificielle.

Pierre Jaquet-Droz (1721-1790) — L’ancêtre de l’ordinateur programmable

Horloger suisse, Jaquet-Droz porta l’art de l’automate à son paroxysme avec trois chefs-d’œuvre, exposés aujourd’hui au Musée d’art et d’histoire de Neuchâtel. L’Écrivain (1774) est le plus remarquable : cet automate capable d’écrire n’importe quel texte de 40 caractères, programmé par des cames interchangeables. Ses yeux suivent la plume, sa main tremble légèrement comme une main humaine, il respire et repose sa plume après chaque phrase. Le programme est stocké sur des disques, préfigurant la mémoire informatique. Le Dessinateur réalise quatre dessins différents, tandis que La Musicienne joue du clavecin, sa poitrine se soulevant pour simuler la respiration, ses yeux suivant ses mains sur le clavier. Ces créations, d’une complexité mécanique inouïe, sont aujourd’hui considérées comme les premiers ordinateurs programmables de l’histoire.

“Les automates de Jaquet-Droz sont plus que des machines. Ce sont des tentatives de comprendre, par la construction, ce qui fait l’humanité. Chaque rouage, chaque came, chaque ressort est une question : qu’est-ce que penser ? qu’est-ce que créer ?”
— Historien des techniques

Chapitre III : Le XIXe siècle — La naissance de la logique computationnelle

Le XIXe siècle voit émerger les fondements théoriques qui rendront l’intelligence artificielle possible. Deux figures dominent cette période : Charles Babbage, qui conçoit le premier ordinateur mécanique, et George Boole, qui invente l’algèbre de la pensée.

Charles Babbage (1791-1871) — Le père de l’ordinateur

Mathématicien britannique, Babbage consacre sa vie à la construction de machines à calculer d’une ambition inouïe. Sa Machine à différences (1822) est conçue pour calculer et imprimer des tables mathématiques avec une précision absolue. Mais c’est sa Machine analytique (1837) qui est révolutionnaire : elle possède tous les composants d’un ordinateur moderne. Une “usine” (unité arithmétique), un “magasin” (mémoire), un système de programmation par cartes perforées (inspiré du métier Jacquard), et des boucles conditionnelles. Jamais entièrement construite de son vivant, la Machine analytique est reconnue bien plus tard comme le premier concept d’ordinateur universel, anticipant de plus d’un siècle les travaux d’Alan Turing.

Ada Lovelace (1815-1852) — La première programmeuse

Fille du poète Lord Byron, Ada Lovelace est une mathématicienne de génie qui collabore avec Babbage. Elle traduit et annote un article sur la Machine analytique, y ajoutant des notes qui dépassent en ampleur et en profondeur le texte original. Dans ces notes, elle décrit ce qui est considéré comme le premier algorithme destiné à être exécuté par une machine : un programme pour calculer les nombres de Bernoulli. Mais son génie va bien au-delà. Elle entrevoit que la Machine analytique ne se limiterait pas au calcul numérique : “Elle pourrait composer des morceaux de musique d’une complexité et d’une beauté insoupçonnées.” Cette vision prophétique anticipe de plus d’un siècle la capacité de l’informatique à traiter des symboles, à créer de l’art, et à simuler n’importe quel processus formel.

George Boole (1815-1864) — L’algèbre de la pensée

Autodidacte, Boole publie en 1854 Les Lois de la pensée, un ouvrage qui jette les bases de l’algèbre booléenne. Dans ce système, les variables ne prennent que deux valeurs : vrai (1) ou faux (0). Boole a l’intuition géniale que les opérations de la logique peuvent être exprimées par des opérations algébriques. L’algèbre booléenne deviendra le fondement mathématique de tous les ordinateurs. Sans elle, ni le calcul numérique, ni l’intelligence artificielle ne seraient possibles. Les travaux de Boole resteront confidentiels de son vivant, mais deviendront cent ans plus tard le langage même de l’informatique.

Synthèse : Le XIXe siècle pose les trois piliers de l’informatique moderne : la machine programmable (Babbage), la programmation (Lovelace) et la logique binaire (Boole). Sans ces fondations, l’IA n’aurait jamais pu émerger.

Chapitre IV : Le début du XXe siècle — Alan Turing et les fondations théoriques

Le XXe siècle voit l’émergence de la figure qui incarne le plus la naissance de l’informatique et de l’IA : Alan Turing. Mathématicien, logicien, cryptologue, il pose les bases théoriques de ce qui deviendra la science de l’intelligence artificielle.

La Machine de Turing (1936) — Le modèle de tous les ordinateurs

À seulement 24 ans, Turing publie “On Computable Numbers”, un article qui révolutionne la logique mathématique. Il y imagine une machine abstraite composée d’un ruban infini et d’une tête de lecture capable d’écrire et de lire des symboles. Cette “Machine de Turing” peut exécuter n’importe quel algorithme. Elle définit ce qu’est un calcul possible, et devient le modèle théorique de tous les ordinateurs. Ce concept est si fondamental qu’aujourd’hui encore, on dit qu’un système est “Turing-complet” s’il est capable d’exécuter tous les calculs possibles.

Le décryptage d’Enigma — La guerre secrète

Pendant la Seconde Guerre mondiale, Turing travaille à Bletchley Park, le centre de décryptage britannique. Il conçoit la “Bombe”, une machine électromécanique qui déchiffre les codes de la machine Enigma allemande. Le travail de Turing est déterminant pour l’issue du conflit, mais reste secret pendant plusieurs décennies. Certains historiens estiment que ses découvertes ont raccourci la guerre de deux ans et sauvé des millions de vies. Cette expérience forge sa conviction : les machines peuvent penser, et leur pensée peut rivaliser avec celle des humains.

Le Test de Turing (1950) — Une question fondamentale

Dans son article “Computing Machinery and Intelligence”, Turing pose la question qui traverse toute l’histoire de l’IA : “Une machine peut-elle penser ?” Plutôt que de se perdre dans des définitions métaphysiques, il propose un critère opérationnel : un ordinateur est intelligent s’il parvient à se faire passer pour un humain lors d’une conversation. C’est le célèbre “Test de Turing”. Ce test, toujours utilisé aujourd’hui, pose les bases de la philosophie de l’esprit artificiel. Turing prédit qu’en l’an 2000, une machine passerait le test avec 30% de probabilité — une prédiction qui ne s’est réalisée que plus tard, avec l’avènement des grands modèles de langage.

“Je propose de considérer la question : ‘Les machines peuvent-elles penser ?’ Les machines peuvent-elles faire ce que nous (en tant qu’êtres pensants) pouvons faire ?”
— Alan Turing, 1950

À retenir : Turing est le père fondateur de l’IA. Il a non seulement posé les bases théoriques de l’informatique, mais il a aussi formulé la question centrale de l’IA et proposé un critère pour y répondre. Son destin tragique (il fut poursuivi pour homosexualité et mourut à 41 ans) reste une tache dans l’histoire de la science.

Chapitre V : 1956 — L’année de naissance officielle de l’IA

L’été 1956 restera à jamais gravé dans l’histoire des sciences comme l’acte de naissance officiel de l’intelligence artificielle. Pendant six semaines, une poignée de jeunes chercheurs se réunit sur le campus de Dartmouth College, dans le New Hampshire, à l’invitation de John McCarthy, Marvin Minsky, Nathaniel Rochester et Claude Shannon.

La conférence de Dartmouth

Dans leur proposition de conférence, les organisateurs formulent un objectif d’une ambition vertigineuse : “Nous proposons qu’une étude de deux mois et la participation de dix personnes soit menée durant l’été 1956 à Dartmouth College pour la recherche sur l’intelligence artificielle. Nous pensons qu’une avancée significative peut être réalisée si un groupe de scientifiques sélectionnés avec soin travaille ensemble durant l’été.” C’est lors de cette conférence que John McCarthy forge le terme “Artificial Intelligence”.

Les pères fondateurs

John McCarthy (1927-2011) est l’inventeur du terme “IA”. Il crée le langage LISP en 1958, qui deviendra le langage de prédilection de la recherche en IA pour les décennies suivantes. Il reçoit le prix Turing en 1971.
Marvin Minsky (1927-2016) fonde le MIT AI Lab en 1959, qui devient l’un des centres de recherche les plus influents. Pionnier des réseaux de neurones, il reçoit le prix Turing en 1969.
Claude Shannon (1916-2001), déjà père de la théorie de l’information, apporte son prestige à l’entreprise.
Allen Newell et Herbert Simon créent le Logic Theorist (1956), premier programme d’IA fonctionnel, capable de démontrer des théorèmes mathématiques.

“Nous pensons que tout aspect de l’apprentissage ou toute autre caractéristique de l’intelligence peut en principe être si précisément décrit qu’une machine peut être construite pour le simuler.”
— Proposition de la conférence de Dartmouth, 1955

L’optimisme des participants est à son comble. Certains prédisent qu’une machine battra le champion du monde d’échecs dans les dix ans (il faudra attendre 1997), ou qu’un programme traduira parfaitement n’importe quelle langue (objectif toujours pas atteint en 2026). Mais cet optimisme est aussi la source des désillusions futures.

Chapitre VI : Les cycles de l’IA — Entre espoirs et désillusions (1956-2012)

L’histoire de l’IA est marquée par des cycles : des périodes d’optimisme débridé suivies de désillusions, des avancées fulgurantes puis des “hivers” où les financements se tarissent. Chaque fois, la recherche a rebondi, portée par la conviction que l’intelligence humaine peut être reproduite.

L’âge d’or (1956-1974)

Les années suivant Dartmouth sont marquées par un optimisme démesuré. Le gouvernement américain, par l’intermédiaire de la DARPA, investit massivement dans la recherche. Les universités créent des laboratoires dédiés : le MIT AI Lab (1959), le Stanford AI Lab (1963). Les premiers programmes fascinent : ELIZA (1966) simule un psychothérapeute rogérien ; SHRDLU (1970) manipule des blocs virtuels en langage naturel. Mais très vite, les chercheurs se heurtent à des obstacles insurmontables. Les ordinateurs manquent de puissance. Les programmes sont incapables de généraliser. La “connaissance de bon sens” qu’un enfant de trois ans possède s’avère impossible à formaliser.

Le premier hiver (1974-1980)

La désillusion est brutale. En 1973, le rapport Lighthill commandé par le gouvernement britannique est cinglant : “Dans aucune des branches de la recherche en IA, les découvertes n’ont produit l’impact qui était initialement promis.” Les financements s’arrêtent. Les laboratoires ferment ou se reconvertissent. La recherche entre dans une période de vaches maigres.

L’ère des systèmes experts (1980-1987)

La recherche se recentre sur des objectifs plus modestes mais concrets : les systèmes experts. Ces programmes reproduisent le raisonnement d’un expert humain dans un domaine très spécifique. MYCIN diagnostique les maladies infectieuses, XCON automatise la configuration des ordinateurs DEC (40 millions de dollars d’économies par an). Le succès commercial est fulgurant. Les investissements repartent à la hausse.

Le second hiver (1987-1993)

Nouvelle désillusion. Les systèmes experts s’avèrent coûteux à maintenir. Leur base de connaissances, construite manuellement, est difficile à mettre à jour. L’éclatement du marché des LISP machines entraîne une nouvelle crise. Les financements gouvernementaux s’arrêtent.

Le tournant (1993-2012)

La recherche se tourne vers l’apprentissage statistique. Deep Blue bat Garry Kasparov aux échecs en 1997. Watson gagne Jeopardy! en 2011. Les réseaux de neurones, marginalisés depuis les années 1960, reviennent sur le devant de la scène grâce à l’algorithme de rétropropagation. La puissance de calcul augmente exponentiellement. L’IA sort de l’hiver.

Chapitre VII : La révolution du deep learning (2012-2020)

En 2012, l’IA bascule dans une nouvelle ère. AlexNet, développé par Alex Krizhevsky, Ilya Sutskever et Geoffrey Hinton, remporte le concours ImageNet de reconnaissance d’images avec un taux d’erreur de 15,3% contre 26,2% pour le second. La performance stupéfie la communauté. Le deep learning est né.

La vision par ordinateur explose

Les réseaux de neurones convolutifs (CNN) se perfectionnent. En 2014, les Generative Adversarial Networks (GANs) inventés par Ian Goodfellow permettent de générer des images d’un réalisme stupéfiant. En 2016, AlphaGo de DeepMind bat Lee Sedol, champion du monde de Go — un jeu réputé plus complexe que les échecs (10^170 positions possibles). Les experts pensaient que l’IA ne maîtriserait le Go que dans une décennie. Le succès est retentissant.

La révolution du langage

En 2017, l’équipe de Google Brain publie “Attention Is All You Need”, qui introduit l’architecture Transformer. Ce mécanisme d’attention révolutionne le traitement du langage naturel en permettant aux modèles de comprendre le contexte des mots dans une phrase. En 2018, BERT améliore encore la compréhension du langage. Les performances des modèles de langage explosent.

Pourquoi 2012 est une date charnière ? Trois facteurs convergent : la puissance de calcul des GPU (cartes graphiques), la disponibilité de données massives (ImageNet), et les progrès algorithmiques (rétropropagation, dropout). C’est la fin de l’hiver et le début de la déferlante.

Chapitre VIII : L’ère des grands modèles (2020-aujourd’hui)

OpenAI, fondée en 2015 par Elon Musk, Sam Altman et d’autres, développe la série des GPT (Generative Pre-trained Transformer). Ces modèles, entraînés sur des quantités astronomiques de données textuelles, marquent une rupture radicale.

La croissance exponentielle

GPT-3 (2020) compte 175 milliards de paramètres et génère un texte indiscernable de l’humain. Il peut écrire des poèmes, des articles, du code, des scripts, répondre à des questions complexes. ChatGPT (2022) est lancé publiquement : en deux mois, il atteint 100 millions d’utilisateurs — l’adoption la plus rapide de l’histoire d’une application grand public. GPT-4 (2023) est multimodal : il comprend et génère du texte, des images, des diagrammes. Ses performances dépassent l’humain dans de nombreux tests académiques. Sora (2024) génère des vidéos réalistes à partir de descriptions textuelles.

L’IA omniprésente

Aujourd’hui, l’intelligence artificielle est partout. En médecine, AlphaFold prédit la structure des protéines, transformant la recherche biologique. Les voitures autonomes (Waymo, Tesla) parcourent des millions de kilomètres. Les assistants vocaux équipent nos foyers. Les générateurs d’images (Midjourney, DALL-E) et de vidéos (Sora) redéfinissent la création. L’IA est devenue une technologie transversale, aussi fondamentale que l’électricité ou l’internet.

“L’IA est l’une des technologies les plus importantes que l’humanité ait jamais développées. Elle a le potentiel de résoudre les problèmes les plus difficiles, mais aussi de créer des risques existentiels si elle n’est pas correctement encadrée.”
— Sam Altman, PDG d’OpenAI

Conclusion : Une histoire inachevée

De Talos, le géant de bronze qui patrouillait les côtes crétoises, aux réseaux de neurones capables de générer des images, des textes et des vidéos, l’histoire de l’intelligence artificielle est celle d’une quête millénaire pour reproduire l’intelligence humaine. Chaque époque a apporté sa pierre à cet édifice : les automates du XVIIIe siècle, la logique mathématique du XIXe, les ordinateurs du XXe, et aujourd’hui les modèles de fondation du XXIe.

Les cycles d’optimisme et de désillusion ont jalonné ce chemin, mais jamais la recherche n’a véritablement cessé, portée par la conviction que l’intelligence humaine peut être comprise et reproduite. Nous vivons aujourd’hui l’une des périodes les plus excitantes de cette histoire. Les progrès des dernières années semblent ouvrir des possibles que les pionniers de Dartmouth, en 1956, n’avaient même pas imaginés. Mais comme eux, nous ne savons pas où cette route nous mènera.

L’IA est aujourd’hui au cœur de tous les débats : économiques (quel impact sur l’emploi ?), éthiques (comment éviter les biais ?), politiques (comment réguler ?), existentiels (que devient l’humanité face à une intelligence qui la dépasse ?). Une certitude demeure : l’intelligence artificielle, née de l’imaginaire antique, est devenue l’une des forces les plus puissantes de transformation de notre monde. Son histoire ne fait que commencer, et les chapitres à venir s’écrivent sous nos yeux.

Références bibliographiques

  • Turing, A. M. (1950). Computing machinery and intelligence. Mind.
  • McCarthy, J., Minsky, M. L., Rochester, N., & Shannon, C. E. (1955). A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence.
  • Russell, S. J., & Norvig, P. (2020). Artificial Intelligence: A Modern Approach (4th ed.). Pearson.
  • Nilsson, N. J. (2009). The Quest for Artificial Intelligence. Cambridge University Press.
  • LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436-444.
  • Vaswani, A., et al. (2017). Attention is all you need. Advances in Neural Information Processing Systems.
  • Silver, D., et al. (2016). Mastering the game of Go with deep neural networks and tree search. Nature, 529(7587), 484-489.
  • Babbage, C. (1864). Passages from the Life of a Philosopher. Longman.
  • Boole, G. (1854). An Investigation of the Laws of Thought. Walton & Maberly.
  • Descartes, R. (1637). Discours de la méthode. Jan Maire.
  • Weizenbaum, J. (1966). ELIZA—a computer program for the study of natural language communication. Communications of the ACM.
  • Krizhevsky, A., Sutskever, I., & Hinton, G. E. (2012). ImageNet classification with deep convolutional neural networks. Advances in Neural Information Processing Systems.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Pin It on Pinterest

Shares

Share This

Share this post with your friends!