Comment l’homme a-t-il eu cette idée folle de développer une technologie concurrençant ses aptitudes les plus nobles ? KODS vous propose de retracer les grands événements qui nous ont amené à l’une des innovations les plus bouleversantes de l’histoire de l’humanité.

 

Antiquité & Moyen-âge : IA, un rêve vieux comme le monde ?

Les origines de l’intelligence artificielle remontent à l’antiquité, avec les mythes des hommes mécaniques et des êtres artificiels. Ces mythes furent répandus à travers les histoires propres à chaque civilisation. Dans la mythologie grecque par exemple, l’histoire contée d’Héphaïstos, dieu du feu et de la métallurgie, est celle de l’artisan de la fameuse Pandore. Cet être artificiel créée par Héphaïstos sera, pour la mythologie grecque, la première femme de l’humanité et accessoirement propriétaire de la célèbre boite du même nom. D’après la mythologie grecque, Héphaïstos fabriquera deux autres automates sous forme de jeunes femmes. Ces femmes avaient la capacité de marcher, de parler, et de réfléchir, alors même qu’elles ne respiraient pas.

IA et antiquité
Héphaïstos fabriquant Pandore

Au moyen âge, ce fantasme devient plus prenant lorsque voient le jour, non plus des contes mais des rumeurs de créations effectives d’êtres artificiels. L’histoire de l’alchimie, ancêtre de la chimie, regorge de récits affirmant la création de telles êtres possible. Ces êtres étaient désignés sous le nom de Takwin pour certains, Homonculus pour d’autres. L’histoire la plus connue et qui a su traverser les siècles reste néanmoins celle du Golem de Prague : au 16eme siècle, un rabbin du nom de Yehouda Loew aurait construit un être artificiel à l’aide de formules magiques afin de protéger la communauté juive des pogroms de l’époque.

Au-delà des contes et des récits, les hommes ont commencé à vouloir « donner vie » aux objets très tôt, en créant des automates. Le plus ancien document attestant de construction d’automates remonte à il y a plus de 4500 ans. Dans l’ancienne Egypte, les prêtres possédaient des statues qu’il était possible de manipuler subtilement. Sans ne rien laisser apparaitre au public. La statue bougeait alors, animation qui avait d’ailleurs un effet bouleversant auprès des fidèles.

Mais c’est dans la Grèce et la Rome antiques que la construction d’automates se multiplie. Héron d’Alexandrie y consacre même un traité qu’il nomme « Automata ». Les méthodes de l’époque consistaient à mettre en pratique des principes de physique basés sur les mouvements de liquides et sur la compression de l’air. Dans le même temps, les artisans chinois sous la dynastie de Han commencent à développer le même art, fabriquant différentes répliques d’animaux mécaniquement animés. Les ancêtres du Maneki-neko, ce fameux chat japonais remuant mécaniquement la patte, étaient alors nés.

 

L’époque moderne : l’apport des mathématiques.

Bien évidemment la reproduction des caractéristiques humaines ne se limitera pas à son apparence, mais également à son intelligence. La reproduction des facultés intellectuelles remonte au moyen-âge, grâce au développement des mathématiques et notamment de l’algèbre et des algorithmes. Cette recherche de modèles mathématiques, qui permettront d’obtenir plus rapidement des résultats que par des additions forcenées de calculs, seront le moteur de cette « mécanisation intellectuelle ». Les mathématiques joueront ainsi un rôle essentiel et indispensable dans le développement de l’informatique ainsi que de l’intelligence artificielle.

D’ailleurs, pour Leibniz, célèbre mathématicien et philosophe des temps modernes, la raison humaine pouvait tout simplement être réduite au calcul mathématique. Un jour il déclara même : « Il n’y aura plus besoin entre deux philosophes de discussions plus longues qu’entre deux mathématiciens, puisqu’il suffira qu’ils saisissent leur plume, qu’ils s’asseyent à leur table de calcul et qu’ils se disent l’un à l’autre : Calculons ! ».

Hobbes, Hume et Kant, célèbres philosophes contemporains à Leibniz, tiendront des propos similaires, et affirmeront que l’intelligence humaine pourrait être réduite au calcul mathématique ou à une série de règles formelles. Ils inspireront des générations de philosophes et de mathématiciens après eux, qui joueront tous un rôle dans le développement des mathématiques appliquées au domaine de l’informatique, et de facto, au développement de l’intelligence artificielle.

Alors qu’au XXe siècle l’étude de la logique mathématique explose, les écrits se multiplient et les théories se font diverses. Les mathématiciens s’affrontent, beaucoup critiquant l’incohérence des paradoxes découverts à cette époque. Une crise éclate alors, « la crise des fondements », qui cherchera à rassoir les mathématiques sur des bases solides. Dans ce contexte, David Hilbert, célèbre mathématicien de l’époque fonde l’école du formalise dont la philosophie est la suivante : tant que l’on manipule le fini, les mathématiques sont sures. Pour ce qui est des concepts infinis, les théories mathématiques doivent au moins être cohérentes, à défaut d’être sures. Cette cohérence-là doit elle-même être démontrée par des moyens finis. C’est ce qu’on appelle le formalise. D’après Hilbert, les mathématiques sont donc des symboles qui doivent être manipulés selon des règles dites formelles. Alors qu’il pose les bases de son courant de pensée, David Hilbert émet, en l’an 1900, 23 problèmes mathématiques, considérés par beaucoup comme la liste de problèmes ayant eu le plus d’influence dans l’histoire des mathématiques.

Parmi cette liste de 23 problèmes figurait en dixième position ce qu’on appelle l’entscheidungsproblem, aussi appelé « problème de la décision », et qui était le suivant : « Donné un langage formel particulier, est-il possible de créer un algorithme capable d’indiquer si une proposition mathématique énoncée dans le langage formel en question est vraie ou fausse ? ».

 

Alan Turing : un tournant dans les avancées

Alors que 35 ans plus tard l’entscheidungsproblem reste entier, un jeune étudiant en mathématiques au King’s College de Cambridge, répondant au nom d’Alan Turing, cherche à percer ce problème numéro 10. Bien qu’il se fasse devancer de quelques mois par Alonzo Church, un de ses contemporains, Turing trouve lui aussi une solution, mais avec une méthode bien plus originale que son rival. Il imagine alors une machine capable de procéder à une infinité de calculs, et qu’il appelle « machine de Turing », élément fondateur de la science informatique. Turing continuera ses recherches, tout en mettant en avant le futur caractère intelligent qu’acquerront les machines, déclarant que « lorsque la machine sera capable d’apprendre d’elle-même, l’on sera obligé de considérer la machine comme intelligente ».

En 1950, Turing inventera d’ailleurs un test consistant à faire converser un humain d’un côté (qui est le sujet testé) avec une intelligence artificielle et un autre humain de l’autre côté, le tout à l’aveugle. On considère que l’ordinateur a réussi le test s’il parvient à persuader plus de 30% des sujets testés qu’il est l’humain, le tout en moins de 5 minutes. Ce test, censé répondre à la question « une machine peut-elle penser ?», a été inventé avant même qu’un programme capable d’imiter l’humain n’existe, les ordinateurs de l’époque étant encore loin des prouesses d’aujourd’hui. Le test de Turing sera pourtant toujours utilisé 70 ans plus tard, et fait même l’objet d’une compétition annuelle récompensant l’intelligence artificielle la plus performante (le prix Loebner).

IA et Turing

En 1945, le premier ordinateur complétement électronique voit le jour. Commandé par l’armée américaine 2 ans plus tôt, Il est surnommé l’ENIAC, « Electronic Numerical Integrator and Computer » et pèse 30 tonnes ! Ce tout premier ordinateur, construit en s’appuyant sur les travaux visionnaires d’Alan Turing, sera l’ancêtre d’une machine disruptive qui sera en permanence améliorée. L’avancée de l’intelligence artificielle sera bien évidemment corrélée à cette amélioration continue.

 

Le 20e siècle : enfin un nom au fantasme !

La naissance officielle de l’intelligence artificielle comme objet de recherche aura lieu en 1956, lors de la conférence de Dartmouth. Cette conférence, qui s’est tenue à l’Université de Dartmouth, aux Etats-Unis, fut organisée afin de réfléchir sur l’évolution de l’intelligence artificielle. C’est depuis cet évènement que va universellement être adopté les termes « d’intelligence artificielle ».

L’intelligence artificielle comme objet de recherche va alors passer par plusieurs phases d’intéressement et de désintéressement. Au départ, l’intelligence artificielle provoque un réel engouement : les ordinateurs résolvaient des problèmes d’algèbre, prouvaient des théorèmes de géométrie, et apprenaient même à parler anglais. Ce fut une véritable révolution pour l’époque, qui dépassait de loin toutes les attentes en la matière.

Néanmoins, dans les années 1970, le développement de l’intelligence artificielle va être mis à mal par la lenteur relative du développement des ordinateurs d’alors. Les recherches en intelligence artificielle sont ralenties, faute de pouvoir être appliquées sur les ordinateurs de l’époque dont la puissance était limitée Dans le même temps, de nombreuses critiques voient le jour sur les limites de la technologie, notamment sur les théories de mises en réseaux de neurones, pas assez matures à cette époque. Les investissements et les financements de l’intelligence artificielle vont alors se faire de plus en plus rares.

Malgré une tentative de relance, notamment grâce à des investissements japonais et une nouvelle technique d’application de l’intelligence artificielle, appelé « système expert » (systèmes conçus pour résoudre des problèmes complexes en raisonnant par des moteurs de règles de type « if-then » plutôt que par un code de procédure conventionnel), l’intelligence artificielle ne réussira pas à s’imposer comme la grande innovation qu’elle représente aujourd’hui. Ces périodes de vaches maigres ont été surnommés les hivers de l’intelligence artificielle par la communauté scientifique travaillant sur la technologie.

Il faudra attendre la fin du XXème siècle pour que l’intelligence artificielle fasse l’objet d’un regain d’intérêt, lui permettant de s’imposer au sein de l’industrie technologique. Ce regain d’intérêt est marqué par un évènement clé dans l’histoire de l’intelligence artificielle : le 11 Mai 1997, Deep Blue, l’intelligence artificielle développée par IBM, bat le champion du monde d’échecs, Garry Kasparov. L’événement, suivi en direct par plus de 70 millions de téléspectateurs, marquera un tournant dans l’histoire de l’intelligence artificielle, et fera acquérir ses lettres de noblesse à la technologie.

IA Deep Blue
Kasparov jouant contre l’IA Deep Blue

Les années 2010 sont marquées par le perfectionnement des ordinateurs et des superordinateurs, ainsi que l’explosion du nombre de données numériques dont l’agrégat est communément appelé « big data ». Ce sont autant de facteurs qui expliquent et justifient l’emballement récent pour l’intelligence artificielle. Dans le contexte actuel, l’intelligence artificielle bénéficie enfin des prérequis qu’elle a attendu durant tant d’années…