L’intelligence artificielle, mythes et réalités
Les origines
L’intelligence artificielle, ou IA, est officiellement née en 1956 lors d’une conférence à Dartmouth (USA). Même si les recherches ont de fait commencé dès l’après-guerre (par exemple le « Test de Turing » en 1950), cette conférence est historique en ce qu’elle a rassemblé en un même lieu presque toutes les figures emblématiques de l’IA, notamment John McCarthy, mathématicien, Herbert Simon, théoricien des organisations, Allen Newell, mathématicien, Claude Shannon, père de la théorie de l’information et Marvin Minsky, mathématicien. Ces pionniers rêvaient alors de construire des machines pouvant égaler voire surpasser l’intelligence humaine, sur la base des nouveaux moyens de l’informatique naissante. C’était un projet d’une ambition folle, puisqu’à cette époque tout restait à faire. Or, malgré les immenses difficultés qui se trouvaient devant eux, ces chercheurs et beaucoup d’autres vont rapidement obtenir des résultats qui feront date dans l’histoire de l’informatique.
Ainsi, dès 1955, Newell et Simon conçoivent un programme (Logic theorist) qui permet de démontrer automatiquement 38 des 52 théorèmes du traité Principia Mathematica d’Alfred North Whitehead et Bertrand Russell (1913). C’est un résultat majeur et extrêmement impressionnant pour l’époque, puisque pour la première fois, une machine est capable de raisonnement. On considère légitimement ce programme comme la toute première intelligence artificielle de l’histoire. Quelques années plus tard, Newell et Simon vont généraliser cette approche et concevoir le GPS — General Problem Solver — qui permet de résoudre n’importe quel type de problème, pour peu que l’on puisse le spécifier formellement à la machine. À cette même époque, d’autres chercheurs vont défricher les domaines de la traduction automatique, de la robotique, de la théorie des jeux, de la vision, etc. Jusqu’au milieu des années 1970, l’intelligence artificielle est extrêmement prolifique et engendre un nombre considérable de résultats. Mais elle va bientôt être victime de ses promesses originelles qui n’ont pas été tenues. En effet, si des avancées extraordinaires ont été réalisées, les chercheurs sont encore très loin d’avoir résolu le problème général de l’intelligence. Ils se rendent compte qu’ils ont été un peu trop optimistes, à l’exemple de Marvin Minsky qui affirmait en 1970 que « Dans trois à huit ans nous aurons une machine avec l’intelligence générale d’un être humain ordinaire ». On parle de ce coup d’arrêt comme du premier hiver de l’IA. Mais avec l’arrivée des systèmes experts et la résolution du problème de l’apprentissage dans les perceptrons multi-couches, l’IA connaît un second souffle jusqu’à la fin des années 1990 où, de nouveau, tout s’arrête ou presque pour à peu près les mêmes raisons.
Deep Blue vs. Kasparov
Il fallut attendre 1997, pour enfin lire ces quelques lignes dans la presse :
Kasparov mis en échec par Deep Blue. […] le super-ordinateur d’IBM a vaincu le champion du monde […] en gagnant dimanche soir la sixième et dernière partie de leur choc. […] Le grand maître électronique s’impose 3-1/2 à 2-1/2 face au meilleur des humains et devient surtout le premier ordinateur à l’emporter sur un champion du monde dans une rencontre classique.
Avec presque trente ans de retard, la prophétie de Newell et Simon s’est réalisée (« d’ici dix ans un ordinateur sera le champion du monde des échecs », 1958). Les objectifs de l’intelligence artificielle auraient-ils été finalement atteints ? Serions-nous capables de concevoir des machines intelligentes et omnipotentes ? La réponse est non. S’il est effectivement possible aujourd’hui de battre n’importe quel humain aux échecs, il reste impossible, par exemple, de faire jouer un robot au football contre un quelconque adversaire humain. Ce jeu ne peut pourtant prétendre rivaliser en finesse et en intelligence avec le jeu des échecs. Mais comment peut-on battre le champion du monde des échecs et se trouver en même temps incapable de jouer au football ?
Cette situation paradoxale s’explique par la diversité d’interprétation de la notion d’intelligence. En effet, l’intelligence que l’on veut prêter à Deep Blue est ici fondée sur le calcul, l’analyse et le raisonnement. Depuis le discours de la méthode de Descartes, le courant de pensée des rationalistes, mené par Descartes, Spinoza et Leibniz, a voulu croire à cette intelligence, une intelligence fondée sur l’esprit et la raison, équivalente à l’intelligence humaine. À l’opposé, le courant de pensée des empiristes, parmi lesquels Bacon, Locke, Berkeley et Hume, prôna la prise en compte de l’expérience sensible du monde et rejeta l’idée de la connaissance réduite à l’esprit et à la raison.
Si la frontière entre ces deux courants de pensée n’est plus aussi franche aujourd’hui, l’IA n’a pourtant pas su éviter cette séparation. Ainsi, deux courants de pensée vont coexister plus ou moins pacifiquement dès la naissance de l’IA. Un premier courant, symbolique, considère la machine comme un système de manipulation de symboles qui peut être utilisé pour instancier des représentations formelles du monde. Il repose sur la logique, se faisant ainsi l’héritier des rationalistes. Sa philosophie peut se résumer à la volonté de construire un esprit (« making a mind »). Mené par Allen Newell et Herbert Simon, ce courant symbolique stipule que l’intelligence repose sur la notion de symbole. Le deuxième courant, connexionniste, considère en revanche la machine comme un support de la modélisation du cerveau, offrant les capacités nécessaires pour simuler les interactions entre les neurones. Il repose sur le domaine des statistiques et sa philosophie peut se résumer à la volonté de modéliser le cerveau (« modelling the brain »). Ce courant connexionniste, mené entre autres par Frank Rosenblatt, propose une vision numérique du traitement de l’information et s’oppose en cela à l’hypothèse symboliste.
La victoire de Deep Blue sur Kasparov représente le paroxysme de l’approche symbolique. En effet, le jeu d’échecs est un très beau problème de nature symbolique, où il faut en substance déplacer des pièces sur des cases pour atteindre un but précis (échec et mat). La plus grande difficulté est l’explosion combinatoire, lorsque le programme souhaite prédire des séquences de coups. Cependant, grâce à des algorithmes très ingénieux, à la force brute, à la rapidité de calcul et une bibliothèque d’ouvertures bien fournie, Deep Blue a pu prédire plus de coups à l’avance que ce qu’il est humainement possible de faire. Deep Blue est-il intelligent au sens commun du terme ? A priori non, c’est simplement un logiciel qui joue aux échecs et ne fait que cela.
Au-delà de l’échec
Certains n’ont pas été réellement surpris par ce résultat. Ainsi Rodney Brooks avait écrit dès 1990 un article au titre un peu curieux, « Les éléphants ne jouent pas aux échecs ». Ce qu’il voulait expliquer alors, c’était que les éléphants ont une certaine intelligence — ils doivent se nourrir, trouver des points d’eau, se reproduire, fuir les prédateurs, etc. — mais n’ont a priori pas besoin de manipuler des symboles abstraits pour le faire. C’est de fait une critique assez sévère du courant symbolique de l’IA, que l’on désigne aussi par le terme GOFAI (Good Old Fashion Artificial Intelligence, la bonne vieille intelligence artificielle). Or, nous savons aujourd’hui que ce courant de l’IA ne pourra pas résoudre le problème de l’intelligence générale à cause du problème de l’ancrage du symbole notamment. En effet, comment mettre en relation les symboles avec les objets qu’ils désignent ? Comment faire le lien entre un verre, le mot, et un verre, l’objet physique que je vois posé sur la table ? Autant cela est évident pour nous humains, autant cela reste un défi pour une machine qui n’a jamais soif et qui n’a pas de corps pour manipuler l’objet. C’est pourquoi l’idée de la cognition incarnée a émergé dès les années 1990, en mettant en avant le rôle du corps dans la cognition et son intelligence propre.
Aujourd’hui, en 2015, l’Intelligence Artificielle connaît un second souffle, notamment avec l’avénement du big data et une puissance de calcul inégalée jusqu’alors. Ainsi, la redécouverte récente de l’apprentissage profond ou deep learning, qui date des années 1980, a permis de nouvelles avancées en traitement de données et reconnaissance d’images. Cet algorithme d’apprentissage est un réseau de neurones artificiel qui permet d’apprendre à partir d’exemples. De fait, la différence fondamentale entre les années 1980 et les années 2010 se situe au niveau de la puissance de calcul mise en jeu et de la masse de données qui a atteint des proportions gargantuesques. Imaginez un peu que plus d’un milliard de personnes postent leur photo sur Facebook alors qu’il y a trente ans, les chercheurs se démenaient pour constituer des échantillons de quelques dizaines de portraits. De nos jours, ils peuvent donc avoir accès à des centaines de millions de visages. C’est ainsi que Facebook possède un algorithme de reconnaissance faciale (DeepFace) qui égale statistiquement les performances humaines. Est-il besoin de préciser qu’on ne parle pas ici d’intelligence, mais bien d’algorithmes et d’apprentissage machine sur des gros volumes de données (big data) ?
Ces algorithmes restent pour le moment incapables de déchiffrer la majorité des captcha, ces mots écrits de façon bizarre qu’il faut recopier pour démontrer que l’on est humain. Néanmoins, on peut d’ores et déjà se demander quels sont les risques liés à la reconnaissance faciale de tout un chacun, que ce soit en ligne ou dans la rue. Imaginez simplement les possibilités d’un drone militaire équipé d’une caméra haute résolution à la recherche de sa cible dans une foule…
Dans le même temps, les voitures entièrement autonomes deviennent une réalité (Google), la traduction automatique à la volée devrait bientôt être opérationnelle (Skype) et les joueurs de poker ont du souci à se faire (Tartanian).
Comme le montrent ces exemples, les chercheurs en intelligence artificielle ne cherchent plus, comme aux débuts de l’IA, à créer une machine intelligente ou omnipotente. Ils cherchent avant tout à étudier des situations bien identifiées, résoudre des problèmes ouverts et répondre à des questions précises.
Faut-il avoir peur de l’Intelligence Artificielle ?
Diverses interventions dans les médias soulignent les avancées extraordinaires en intelligence artificielle et ses dangers potentiels. S’il existe certainement des dangers liés à ce domaine comme à tout progrès scientifique, les vrais risques de l’IA sont peut-être masqués par la crainte que des machines prennent le pouvoir. Faut-il s’effrayer de l’avènement futur d’une super IA ? Que signifie la notion de singularité ?
Le concept de singularité a été introduit par Vernon Vinge dans les années 1990, au travers d’un article assez court qui commençait par cette phrase provocante :
Within thirty years, we will have the technological means to create superhuman intelligence. Shortly after, the human era will be ended.
(Dans 30 ans, nous disposerons de la technologie adéquate pour créer une super-intelligence. Peu de temps après, l’humanité s’éteindra.)
Si l’on s’en tenait à la prédiction de Vernon Vinge, nous pourrions en déduire qu’il nous reste à peu près cinq années à vivre et qu’ensuite nous disparaîtrions. Or, bien que le scénario de la disparition de l’Homme soit fascinant à bien des égards (voir notamment le livre d’Alan Weismann, The World Without Us ou Homo Disparitus en français), force est de constater que nous sommes encore très loin de ces conclusions dramatiques car il n’y a pas aujourd’hui de machine « super-intelligente ».
Pourtant, ce concept de singularité peut séduire car il repose sur une idée somme toute assez simple : si l’on construisait des ordinateurs de plus en plus « intelligents », alors ceux-ci deviendraient plus intelligents que leurs concepteurs et pourraient à leur tour concevoir de nouveaux ordinateurs plus intelligents qu’eux-mêmes. Le moment précis où l’Homme construirait cet ordinateur plus intelligent que lui-même est ce que Vernor Vinge désigne par singularité : puisque les ordinateurs sont beaucoup plus rapides que nous, l’accroissement de l’intelligence se ferait alors de façon exponentielle.
Avec la création en 2008 de l’université de la singularité par Peter Diamandis et Ray Kurzweil, ce concept a été remis au goût du jour, bien qu’il soit bancal.
Pour interpréter les prédictions de Vernor Vinge sur la singularité, il conviendrait de lui faire préciser sa pensée, afin de savoir ce qu’il considère être une intelligence surhumaine. Par exemple, cette intelligence devrait-elle parler ? avoir des buts propres ? avoir un corps ? avoir des opinions ? des amis ? des émotions ? des rêves ? etc. Et d’ailleurs, comment pourrions-nous reconnaître la singularité, c’est-à-dire, comment pourrions-nous savoir que la machine que nous venons de créer est intelligente ?
Au final, l’intelligence artificielle est un champ de recherche extrêmement fécond, qui a enfanté à son tour de très nombreux champs de recherche, que ce soit en reconnaissance de la parole, en algorithmes pour la génétique, en fouille de données, en vision par ordinateur, en réseaux de neurones artificiels, en apprentissage machine, etc. L’IA « canal historique » a permis de concevoir de très nombreux algorithmes que l’on retrouve aujourd’hui dans un très grand nombre d’applications grand public. Et si aujourd’hui on ne les appelle plus IA, ils en sont pourtant les héritiers directs. C’est d’ailleurs là une des malédictions de l’IA, car dès qu’un algorithme fonctionne, on a tendance à lui retirer sa filiation. En effet, si une machine sait le faire, c’est qu’il ne s’agit plus d’intelligence !
Newsletter
Le responsable de ce traitement est Inria. En saisissant votre adresse mail, vous consentez à recevoir chaque mois une sélection d'articles et à ce que vos données soient collectées et stockées comme décrit dans notre politique de confidentialité
Niveau de lecture
Aidez-nous à évaluer le niveau de lecture de ce document.
Votre choix a été pris en compte. Merci d'avoir estimé le niveau de ce document !