Les Newsletters Interstices
    Niveau facile
    Niveau 1 : Facile

    Des machines intelligentes ?

    Intelligence artificielle
    Robotique
    En 1950, Alan Turing proposa un test d’intelligence pour les machines. Il pensait que les progrès de l’informatique permettraient de le satisfaire en cinquante ans. Même si les avancées de l’intelligence artificielle ont été remarquables, aujourd’hui, aucune machine n’a encore réussi le test.

    Définir l’intelligence est difficile et il n’est pas certain qu’on puisse y arriver un jour d’une façon satisfaisante. C’est cette remarque qui poussa le mathématicien britannique Alan Turing, il y a soixante ans, à proposer le « jeu de l’imitation » qui fixait un objectif précis à la science naissante des ordinateurs qu’on n’appelait pas encore « informatique ». Le jeu de l’imitation consiste à mettre au point une machine impossible à distinguer d’un être humain. Précisément, Alan Turing suggérait qu’un « juge » échange des messages dactylographiés avec, d’une part, un être humain, et d’autre part, une machine, ces messages pouvant porter sur toutes sortes de sujets. Le juge ne sait pas lequel de ses deux interlocuteurs, qu’il connaît sous les noms « A » et « B », est la machine et lequel est l’humain. Après une série d’échanges, le juge doit deviner qui est la machine et qui est l’être humain.

    Joey Chaos est un robot humanoïde

    Une technicienne ajuste les cheveux sur la tête du robot humanoïde « Joey Chaos ».

    Joey Chaos est un robot humanoïde. Sa tête contient des capteurs envoyant des informations à un ordinateur doté d’un logiciel d’intelligence artificielle. En retour, le robot, grâce à plusieurs dispositifs, simule des expressions du visage en faisant bouger sa « peau » et parle.

    Photo © Volker Steger/Science Photo Library.

    « Joey Chaos » est un robot créé par Hanson Robotics aux États-Unis. Il représente un buste et une tête humaine à la perfection : sa peau est composée d’un polymère spongieux, léger et suffisamment souple pour être contrôlé par de petits servomoteurs. Sa tête contient des systèmes de détection de mouvement et des capteurs de reconnaissance vocale qui envoient des signaux à un ordinateur externe exécutant un logiciel d’intelligence artificielle. L’ordinateur réagit en contrôlant les servomoteurs pour produire des expressions faciales et vocales. Comme d’autres robots humanoïdes, Joey Chaos crée une illusion troublante…

    Aujourd’hui le débat pour savoir si on réussira à créer un jour des machines imitant exactement les humains est toujours très animé et son issue reste incertaine. La réflexion philosophique sur ce thème, dans le domaine de ce qu’on nomme « la philosophie de l’esprit », se poursuit. Malgré les succès partiels de l’intelligence artificielle, l’unanimité est loin d’être atteinte sur la possibilité à terme de la mise au point d’androïdes parfaits.

    Le test de Turing

    Alan Turing pensait que si un jour nous réussissions à mettre au point des machines rendant impossible l’identification correcte (c’est-à-dire conduisant le juge à un taux de mauvaise identification de 50 %, identique à ce que donnerait une réponse au hasard), alors nous pourrions affirmer avoir conçu une « machine intelligente » ou – ce que nous considérerons comme équivalent – « une machine qui pense ». Sa procédure, aujourd’hui appelée « test de Turing », a donné lieu à de nombreuses discussions souvent intéressantes et est à l’origine d’une série de réalisations informatiques concrètes mises en compétition annuellement lors du prix Loebner. Les résultats des logiciels participant au jeu de l’imitation progressent chaque année… mais plutôt lentement.

    Est-il possible qu’un être humain échange des messages écrits, sur n’importe quel sujet, avec un système informatique, sans qu’il ne se rende compte qu’il dialogue avec une machine ? C’est le test proposé par Alan Turing en 1950. Il pensait qu’on saurait construire de tels systèmes à la fin du XXe siècle. La réalité est qu’aujourd’hui, malgré d’immenses progrès dans le domaine de l’intelligence artificielle, on ne sait toujours pas réaliser de programmes possédant une intelligence générale permettant de passer le test avec succès. Les progrès ont porté sur des capacités spécialisées (jeux d’échecs, traitement de problèmes mathématiques, dialogues en langue naturelle sur des sujets limités, etc.) mais butent sur ce qu’on nomme le « sens commun ».

    Intelligence ou imitation ?

    Il faut mesurer à quel point réaliser un programme qui passe le test de Turing est difficile. Mettons-nous dans la peau du juge dialoguant par le biais d’un terminal d’ordinateur avec les deux interlocuteurs A et B. Une première idée pour reconnaître la machine consiste à poser une question du type : « Quelle est la valeur de 429 à la puissance 3 ? ». Si A répond 78 953 589 au bout d’une seconde et que B refuse de répondre ou attend trois minutes pour proposer un résultat, il ne fera pas de doute que A est la machine et B l’humain. Cependant, les spécialistes qui conçoivent les programmes pour passer le test de Turing ne sont pas idiots et ils prévoient cette ruse grossière. Leur programme, bien que capable sans mal de mener le calcul de 4293 en une fraction de seconde, refusera de répondre ou demandera dix minutes avant de fournir un résultat, ou même proposera une réponse erronée. Tout ce qu’un humain ne sait pas très bien faire et qu’un ordinateur réussit sans mal (par exemple mémoriser une suite de cent chiffres aléatoires) sera traité de la même façon : l’ordinateur fera semblant de ne pas réussir. Pour reconnaître l’humain, la méthode du juge doit donc s’appuyer sur des tâches que les humains traitent sans difficultés et sur lesquelles les ordinateurs butent.

    Comment démasquer une machine ?

    L’humour est un point d’attaque possible : racontez une histoire drôle à vos interlocuteurs A et B et demandez-leur d’expliquer où il faut rire et pourquoi. Les questions d’actualité sur lesquelles nous sommes tous informés peuvent aussi servir de base à une tentative d’identification. L’association des deux difficultés sera obtenue par exemple en demandant un commentaire sur le titre de la première page du dernier numéro du Canard enchaîné. Faire tenir à un ordinateur une conversation traitant de toutes sortes de sujets (science, histoire, art, spectacles, musique, gastronomie, etc.) est un objectif extrêmement difficile. L’idée d’Alan Turing semble bonne : si on réussit à tromper un juge avec un programme, cela signifie indubitablement qu’on a mis dans l’ordinateur quelque chose ressemblant à ce que nous appelons de l’intelligence. Aujourd’hui nous sommes loin d’avoir réussi. Ce qui est obtenu avec les meilleurs programmes est un simulacre de conversation qui, en dépit des progrès récents, ne réussit que rarement plus de quelques minutes à entretenir l’illusion.

    La réussite du test, une preuve d’intelligence ?

    Malgré l’évidente difficulté et l’échec relatif dans lequel nous sommes tenus, certains philosophes, dont John Searle, pensent que même si nous réalisons un programme réussissant le test de Turing, cela ne prouvera pas que nous avons mis de l’intelligence dans notre ordinateur. Son raisonnement peut se résumer de la façon suivante :

    • les programmes informatiques sont syntaxiques : ce ne sont que des outils à manipuler des symboles ;
    • les pensées humaines ont un contenu sémantique : un sens est attaché aux mots que nous utilisons, qui ne se réduisent pas à de la syntaxe, ce sens provient de propriétés biologiques particulières de nos neurones qu’un programme ne peut pas posséder.

    En conséquence, les programmes ne penseront jamais et ne seront jamais intelligents. Cette façon de voir les choses permet, en-dehors de toute tentative concrète, de conclure que les ordinateurs programmés ne penseront jamais, et qu’ils ne posséderont jamais aucune intelligence authentique. Et cela, même si on réussissait à leur faire passer le test de Turing. Pour John Searle, la réussite au test n’est pas une condition suffisante pour qu’on puisse parler d’« ordinateur intelligent ». L’article original où John Searle exposait en 1980 son point de vue était accompagné de vingt-six commentaires critiques et, depuis cette date, une multitude d’autres discussions se sont déroulées. Sans entrer dans les controverses, remarquons cependant que ce raisonnement semble biaisé. Effectivement, aujourd’hui les ordinateurs sont incapables de nous imiter de manière satisfaisante, refuser de les qualifier d’« intelligents » peut donc se justifier, mais si un jour l’imitation était parfaite ? S’il existait un système que rien ne distinguerait dans un dialogue d’un être humain ? Alors serions-nous certainement forcés de reconnaître à cet objet une forme d’intelligence, une intelligence artificielle.

    Le test de la mouette

    Une critique plus subtile à l’encontre du test de Turing a été formulée par Robert French. Alors que John Searle considère que le test de Turing n’est pas une condition suffisante pour qu’on puisse affirmer qu’un ordinateur pense, Robert French soutient lui que passer le test Turing n’est pas une condition nécessaire d’intelligence.

    Il imagine l’histoire d’un peuple qui ne connaîtrait qu’une seule espèce d’oiseaux : les mouettes. Ce peuple se poserait le problème de réaliser une machine volante et pour savoir s’il a réussi, utiliserait le « test de la mouette » : une machine serait dite « volante » s’il est impossible de la distinguer d’une mouette dont le comportement serait observé à l’aide d’un radar. Le radar limiterait la précision de la demande d’imitation tout comme le dialogue par le biais d’échanges dactylographiés limite la précision de la demande d’imitation dans la mise en œuvre du test de Turing. Bien sûr les avions, les hélicoptères, les montgolfières et même les oiseaux autres que les mouettes ne réussiront pas le test de la mouette et ne seront donc pas considérés comme capables de voler. Est-ce bien raisonnable ? Certes non.

    Pour Robert French, le test de Turing est une condition suffisante d’intelligence, mais d’intelligence humaine : passer le test assure qu’on est intelligent comme l’est un humain. De plus, ce test est lié à la langue utilisée pour les dialogues, ce qui empêche de le considérer comme universel. Robert French affirme qu’il se pourrait bien que nombre de nos comportements dépendent fortement de la façon particulière dont notre cerveau traite l’information au niveau le plus profond − il parle de « processus subcognitifs », c’est-à-dire, dont nous n’avons pas une conscience claire. Imposer comme preuve d’intelligence une imitation servile du comportement humain, c’est se protéger à trop bon compte du risque de devoir admettre que des machines intelligentes sont devenues nos concurrentes, puisqu’une intelligence « autre », n’ayant pas la même façon très particulière de traiter le langage que la nôtre, ne réussirait pas le test quelles que soient la finesse et la profondeur de son jugement et de ses connaissances.

    Nao, le robot humanoïde français.
    Photo © NAO, Aldebaran Robotics.

    Mon psychanalyste est un programme

    C’est seulement dans la décennie 1960 que des programmes capables de dialogue en langue naturelle sont apparus (on les nomme chatbots ou chatterbots pour « robots de conversation »). Un de ces programmes est le célèbre Eliza de Joseph Weizenbaum mis au point en 1964 au Massachusetts Institute of Technology (MIT). Le mécanisme interne du programme est assez simple. Les phrases de l’interlocuteur sont analysées et, à partir de leur structure grammaticale, une réponse est construite en utilisant certains des mots de l’interlocuteur. Des phrases passe-partout sont aussi utilisées pour détourner la conversation ou pour esquiver les questions lorsque le programme se trouve embarrassé. Le but d’Eliza était de jouer le rôle d’un psychanalyste attentif à ce que dit son interlocuteur et l’incitant à se confier. Bien qu’il fût conçu comme un amusement sans prétention, certaines personnes l’utilisant et informées de sa véritable nature se prirent au jeu et se confièrent à lui comme s’il s’agissait d’un être humain. Des utilisateurs passionnés prétendirent même s’y être attachés.

    Un concours pour les meilleures conversations

    Depuis 1990 se déroule un concours annuel, le prix Loebner, qui détermine, sur la base d’une procédure inspirée du test de Turing, le meilleur programme de conversation générale. Aujourd’hui aucun candidat ne s’est révélé très intéressant et il semble qu’il manque quelque chose pour réaliser de bons systèmes informatiques de dialogue réellement susceptibles de tromper un juge.

    Certains chercheurs ont jugé que l’organisation de ce prix était inutile et même nuisible au progrès des recherches en intelligence artificielle. En effet, disent-ils, en détournant les chercheurs d’objectifs plus raisonnables et en les incitant à accumuler des astuces dans leurs programmes qui ne sont finalement que de simples bases de données conçues pour faire semblant d’être intelligent sans l’être vraiment, on ne fera pas avancer la véritable compréhension de l’intelligence.

    Même si certains chatbots sont conçus pour imiter des personnes humaines ayant existé (John Lennon, Elvis Presley, Jésus, etc.), aujourd’hui les spécialistes les plus optimistes ne se risquent pas à parier sur un succès avant 2030. Puisqu’il semble qu’on en reste à faire des programmes qui, comme Eliza en 1964, sont sans véritable ambition, la date réelle d’un succès définitif pourrait bien être plus lointaine encore.

    • Hofstadter D., Dennett D., Vues de l’esprit. Fantaisies et réflexions sur l’être et l’âme, Interéditions, 1999.
    • Delahaye J-P., Non, le test de Turing n’est pas passéScilogs, 2014, 06, [En ligne] (consulté le 20 janvier 2015).
    • Delahaye J-P., Une seule intelligence ?, in Logique et calcul, Pour la Science, n°446, décembre 2014 (PDF accessible ici).

    Références sur Turing :

    • Delahaye J-P., La barrière de Turing, in Logique et calcul, Pour la Science, n°312, octobre 2003 (PDF accessible ici).
    • Lassègue J., The Imitation Game : et si vous préfériez l’original ?, Binaire, 2015, 01, [En ligne] (consulté le 20 janvier 2015).

     

    Références en anglais :

    • Le prix Loebner
    • Epstein R., Roberts G., Beber G., Parsing the Turing Test : Philosophical and Methodological Issues in the Quest for the Thinking Computer, Springer, 2008.
    • French R., Subcognition and The Limits of the Turing Test, Mind, 1990, 99, p. 53-66.
    • Searle J., Minds, Brains and Programs, Behavioral and Brain Sciences, 1980, 3, p. 417-57.
    • Turing A., Computing Machinery and Intelligence, Mind, 59, 236, p. 433-460. 1950.

    Cet article est paru dans la revue DocSciences n°14 Alan Turing : La pensée informatique, éditée par le CRDP de l’Académie de Versailles en partenariat avec Inria.

    Newsletter

    Le responsable de ce traitement est Inria. En saisissant votre adresse mail, vous consentez à recevoir chaque mois une sélection d'articles et à ce que vos données soient collectées et stockées comme décrit dans notre politique de confidentialité

    Niveau de lecture

    Aidez-nous à évaluer le niveau de lecture de ce document.

    Si vous souhaitez expliquer votre choix, vous pouvez ajouter un commentaire (Il ne sera pas publié).

    Votre choix a été pris en compte. Merci d'avoir estimé le niveau de ce document !

    Jean-Paul Delahaye

    Professeur émérite d'informatique à l'Université des Sciences et Technologies de Lille (Lille 1) et chercheur au Centre de recherche en informatique, signal et automatique de Lille (CRIStAL).

    Voir le profil

    Découvrez le(s) dossier(s) associé(s) à cet article :

    DossierCulture & Société

    DocSciences