Les Newsletters Interstices
Robot Nao © Inria / Photo H. Raguet
    Niveau facile
    Niveau 1 : Facile

    Quels usages pour les robots sociaux ?

    Robotique
    Interaction Humain/Machine
    Les robots dits sociaux s'immiscent peu à peu dans notre quotidien. Mais pour quels usages et à quelles fins ? Quels sont les enjeux de recherche autour de cette cohabitation émergente entre les humains et les robots ? Xavier Alameda-Pineda, chercheur en robotique sociale, partage avec nous sa vision de ces interactions.

    Écoutez l’interview de Xavier Alameda-Pineda

    Retranscription

    Lorenzo Jacques pour Interstices : Chers auditeurs et auditrices, bienvenue dans ce quatre-vingt-dix-septième podcast d’Interstices. Il y a soixante-et-un ans, dans une usine de General Motors au New Jersey était mis en service le premier robot industriel de l’Histoire, Unimate. Depuis, la robotique a énormément évolué pour épargner à nos semblables des tâches difficiles, dangereuses, ou répétitives. Depuis quelques années, un nouveau genre de robots émerge, conçu pour s’adresser à des humains et interagir avec eux : on les appelle les robots sociaux. Pour en parler, je reçois aujourd’hui Xavier Alameda Pineda, chef d’équipe de la jeune équipe Inria RobotLearn, rattachée à l’université Grenoble Alpes, membre du projet européen Spring qui rassemble six pays partenaires autour du sujet des robots sociaux et de leur usage pour prendre soin de nos personnes âgées. Xavier Alameda-Pineda, bonjour.

    Xavier Alameda-Pineda : Bonjour.

    Interstices : Alors dites-nous quelle est la différence entre un robot normal et un robot social ?

    X.A.-P. : Disons que le robot social c’est des robots qui ont ce qu’on pourrait appeler des capacités d’interaction sociale. Par exemple, un robot social est censé être capable de démarrer une conversation, d’accompagner un groupe de personnes de l’accueil à la salle qu’elles cherchent, même d’accueillir des gens qui arrivent au sein de la salle d’attente d’un hôpital par exemple. 

    Interstices : Mais les robots normaux ne sont-ils pas déjà en interaction avec nous quand nous utilisons une imprimante par exemple ? Qu’est-ce qui différencie ces interactions de celles du robot social ?

    X.A.-P. : Quand on interagit avec une imprimante, avec l’ordinateur, on doit utiliser leur code, ce code ça va être des boutons, ça va être des phrases clés qui permettent de démarrer l’interaction. Alors que ce qu’on attend d’une personne et donc d’un robot social c’est que le robot ait appris les codes sociaux des humains, ceci rend la chose beaucoup plus compliquée qu’avoir des boutons pour démarrer l’interaction ou que pouvoir dire « Alexa : cherche un restaurant » . 

    Interstices : Qu’est-ce qui rend ces problèmes particulièrement difficiles ?

    X.A.-P. : Tout d’abord c’est une question de genre de scénario que le robot va rencontrer. C’est-à-dire quand on imagine ce que le robot va faire, nous imaginons un certain nombre de scénarios et on essaye de préparer le robot du mieux possible pour ce scénario. Mais bien entendu on ne peut pas imaginer tous les scénarios possibles, et le robot souvent va se retrouver à voir des choses pour lesquelles on ne l’a pas préparé, entendre des choses pour lesquelles on ne l’a pas préparé, et ainsi de suite. Le robot il doit constamment s’adapter à des nouvelles perceptions, de nouvelles images, de nouveaux sons, et aussi de nouvelles configurations de scénarios.  Ceci est une première problématique qui est très difficile à résoudre. La deuxième problématique c’est que pas mal de nos algorithmes se basent sur l’apprentissage dit apprentissage automatique. 

    Interstices : Le machine learning c’est bien ça ?

    X.A.-P. : C’est bien ça exactement cet apprentissage automatique ou machine learning a besoin de données, que ce soient des images, des textes, des sons, etc. Ces données-là, il faut les avoir, il faut pouvoir les traiter, et puis ensuite il faut savoir en tirer des conclusions intéressantes, pour que le robot puisse en extraire des connaissances pour pouvoir mieux interagir par la suite. Un troisième axe sur lequel on travaille aussi, c’est le fait que les capacités de calcul du robot sont réduites par rapport aux ordinateurs qu’on peut avoir dans le laboratoire donc une fois dans le laboratoire on peut aboutir à un logiciel qui est capable de résoudre une certaine tâche, une certaine performance, il faut par la suite qu’on l’adapte pour qu’il puisse faire ses calculs dans la plate-forme robotique en question.

    Interstices : Pour nourrir ces intelligences artificielles il faut des données particulières qui ont été étiquetées par des humains ?

    X.A.-P. : Tout à fait. Depuis un certain nombre d’années on utilise des techniques qu’on appelle l’apprentissage profond, le  deep learning en anglais, et ce genre de techniques ont l’avantage d’arriver à des performances pour certaines tâches qui sont très remarquables. Un des premiers exemples en vision par ordinateur a été la classification d’images donc de décider si dans une image il y a une table, un chien, un avion. Et pour cela à l’époque des chercheurs américains ont collecté un dataset avec un million d’images et donc ils les ont annotées ça veut dire qu’il y a des gens qui ont passé du temps à dire ce qu’il y avait dans les images. Mais le problème est que si on doit faire ça pour chaque tâche que le robot doit résoudre ceci est impraticable, c’est impossible ! C’est pour cela qu’on imagine des méthodes qui peuvent utiliser des datasets qui existent déjà puisqu’ils ont déjà été annotés mais aussi qui peuvent s’adapter à de nouvelles images, des nouvelles tâches, de nouveaux datasets, sans avoir des étiquettes puisque c’est des étiquettes qui sont très très coûteuses à obtenir. Voilà, donc on va devoir développer d’autres techniques ; et pour expliquer ça je veux faire un peu la différence entre la perception du robot et les actions du robot. En ce qui concerne la perception, le robot doit savoir où se trouvent ses interlocuteurs, et donc il a besoin de détecter et suivre les personnes et aussi il doit être capable de les réidentifier c’est-à-dire de pouvoir comprendre que c’est la même personne avec laquelle il interagissait deux minutes plus tôt. Nous avons à notre disposition des datasets publiques avec lesquels on peut travailler, sauf que ces datasets  n’ont pas été enregistrés avec la caméra du robot, ils n’ont pas été enregistrés dans la salle d’attente de l’hôpital avec les mêmes conditions de luminosité, etc. Maintenant on a ce qu’on appelle un problème d’adaptation de domaines ; c’est-à-dire que la tâche reste la même, j’ai un dataset enregistré dans un domaine spécifique et maintenant je vais exploiter ça dans un domaine autre qui sera dans notre cas à nous la salle d’attente d’un hôpital.

    Interstices : Idéalement il y a deux étapes d’apprentissage ? une première en amont avec des données générales, et une deuxième pendant que le robot est en service pour l’usage spécifique qui lui est demandé ? 

    X.A.-P. : Voilà on peut penser à ça comme quand nous utilisons des choses qu’on a déjà apprises alors qu’on se trouve face à une nouvelle tâche par exemple.

    Interstices : Voilà comment est résolue la question de la perception. Et pour l’action du robot ? 

    X.A.-P. : Donc pour l’action du robot on va se baser sur un tout autre type de méthode d’apprentissage parce que de base, étiqueter les actions optimales d’un agent en général ou d’un robot en particulier c’est quelque chose de très compliqué. Si le robot se trouve dans la pièce et doit aller d’un point A à un point B il se trouve qu’il y a plusieurs chemins possibles. Donc dire au robot ceci est l’action que tu vas prendre ce moment-là c’est un problème qui est mal posé parce qu’il n’y a pas une seule option ; donc on essaye de prendre en main un tout autre type de méthodes qui est l’apprentissage par renforcement. À la place de dire au robot quelle est la bonne action à prendre, on va lui dire, en fonction d’où il se trouve et de l’action qu’il prend, si ceci est une bonne action ou une mauvaise action. Donc on va lui donner une bonne ou une mauvaise récompense. Par exemple, est-ce que l’action le rapproche de la cible : si oui, on va lui donner une bonne récompense. Par exemple est-ce que l’action le rapproche trop d’une personne de façon à la faire sentir inconfortable alors on va donner une mauvaise récompense. Et avec cet apprentissage par renforcement, le robot va trouver sa politique optimale d’action donc en fonction des récompenses qu’on lui a données. L’avantage de ça c’est qu’il y a certaines de ces récompenses qui peuvent être calculées en temps réel alors que le robot est en train  d’agir et donc de ce fait il continue à apprendre en même temps qu’il agit.

    Interstices : Et tout ce chemin accompli il est fait pour une tâche du robot ? Et pour chaque nouvelle tâche qu’on veut lui demander, il faut reprendre le travail depuis le début ? 

    X.A.-P. : Oui, c’est vrai. Surtout ce qu’on questionne souvent c’est ce qu’on a appris avec les tâches qu’entre guillemets on a « déjà résolues ». Quelle partie de ces nouvelles connaissances que nous avons extraites est-ce qu’on peut  réutiliser, certaines on peut, certaines on ne peut pas, ça dépend de la tâche, etc. Mais c’est vrai qu’il faut se questionner en amont avec des données de simulateur et ensuite dans le robot afin de pouvoir après faire le test au sein de l’hôpital.

    Interstices : Est-ce qu’il n’y a pas un problème dans l’utilisation de ces données personnelles dans un contexte où les personnes n’ont pas forcément donné leur accord ?

    X.A.-P. : Pour l’instant quand il s’agit des expériences il faut absolument que les personnes aient donné leur accord. C’est une condition sans laquelle on ne peut pas faire nos expériences et on ne veut pas faire nos expériences. Alors quand on se pose la question de déployer on va dire de façon large cette technologie, évidemment il va falloir développer la législation qui va avec. Nous serons là en tant qu’experts scientifiques pour conseiller les gens qui doivent prendre ces décisions.  Dans notre cas précis, nous devons évaluer la technologie qu’on développe au sein de la salle d’attente d’un hôpital de jour. Donc on se pose la question « comment organiser des expériences au sein de l’hôpital ? ». Nous en avons conclu après avoir échangé bien évidemment avec le personnel soignant, que ce qui était le plus simple c’était que le robot ait une salle qui lui soit réservée et où les personnes qui ont envie d’interagir avec le robot et qui bien sûr ont signé un consentement peuvent interagir avec lui ; et ça sera une façon d’évaluer la technologie sans avoir un impact négatif sur l’organisation de la vie et du travail à l’hôpital.

    Interstices : Et le but de ces robots c’est d’animer une salle d’attente comme un panneau interactif finalement ?

    X.A.-P. : Oui un peu plus que ça puisque le robot peut être à l’initiative de certaines actions de certaines propositions et surtout ce qui est très différent d’une borne ou d’un panneau c’est que le robot il peut se déplacer dans l’espace d’une part pour accompagner les gens pour présenter certaines activités ou même pour laisser les gens tranquilles. D’autre part aussi, et ça c’est très intéressant — ça fait partie des recherches qu’on fait ici à Inria — le robot il peut s’orienter, se déplacer pour mieux percevoir et donc encore une fois on revient tout au début pour s’adapter à l’utilisateur, ne pas forcer l’utilisateur à s’adapter au code spécifique du robot ou d’autres technologies.

    Interstices : Au final une vraie personne pourrait faire le travail d’un robot social là où d’habitude les robots effectuent des tâches qui sont trop dangereuses ou trop difficiles pour nous. Quelle plus-value cela représente de mettre un robot social dans ce contexte d’hôpital ?

    X.A.-P. : Je pense qu’il y a un avantage à utiliser le robot dans ce contexte-là, c’est le manque de fatigue, on va dire l’endurance. Par exemple, un robot quand on lui demande une fois ou 425 fois où sont les toilettes, eh bien il va répondre de la même façon. Donc vous voyez ce sont des tâches qui peuvent être des tâches sociales au sens d’interaction sociale mais qui peuvent être très répétitives et donc pas forcément très intéressantes pour les gens qui sont formés à soigner les humains, ces tâches typiquement peuvent être faites par un robot social. Ce qui est très intéressant et très important à souligner, c’est que nous, la question qu’on se pose,  c’est : « quelle est la technologie qui sera le mieux acceptée tant par les patients que par le personnel ? ». On n’essaye pas de démontrer que ce qu’on développe nous c’est la meilleure chose à faire. Donc la question de l’acceptabilité de la technologie est au cœur des recherches des personnels de l’hôpital Broca qui sont impliqués dans Spring et ça fait partie des objectifs scientifiques de ce projet européen.

    Interstices :  Eh bien c’est sur ce sujet que va s’achever notre interview. Merci beaucoup Xavier Alameda-Pineda d’avoir répondu à nos questions.

    X.A.-P. : Merci beaucoup c’était un plaisir de pouvoir discuter et présenter mes sujets de recherche et j’attends avec impatience de voir les prochains numéros d‘Interstices

    Lorenzo Jacques pour Interstices : Merci beaucoup et merci beaucoup chers auditeurs et auditrices pour votre écoute. Au revoir, Xavier Alameda-Pineda. 

    Xavier Alameda-Pineda : Au revoir.

    Chers auditeurs et auditrices, à la prochaine, et n’oubliez pas les sciences du numérique sur Interstices

    Newsletter

    Le responsable de ce traitement est Inria. En saisissant votre adresse mail, vous consentez à recevoir chaque mois une sélection d'articles et à ce que vos données soient collectées et stockées comme décrit dans notre politique de confidentialité

    Niveau de lecture

    Aidez-nous à évaluer le niveau de lecture de ce document.

    Si vous souhaitez expliquer votre choix, vous pouvez ajouter un commentaire (Il ne sera pas publié).

    Votre choix a été pris en compte. Merci d'avoir estimé le niveau de ce document !

    Xavier Alameda-Pineda

    Photo © Inria / Photo G. Scagnelli
     
    Chargé de Recherche Inria, responsable de l'équipe de recherche RobotLearn au centre Inria Grenoble Rhône-Alpes.
     
     
    Voir le profil

    Lorenzo Jacques

    Chargé de projet éditorial au sein d'Inria, responsable de l'animation d'Interstices (d'avril à novembre 2022).

    Voir le profil

    Découvrez le(s) dossier(s) associé(s) à cet article :

    DossierCulture & Société

    Les Sciences du Numérique en vacances

    Ces articles peuvent vous intéresser

    PodcastRobotique
    Médecine & Sciences du vivant

    Des robots au service des hommes

    Serena Ivaldi
    Joanna Jongwane

    Niveau facile
    Niveau 1 : Facile
    ArticleRobotique
    Culture & Société

    Des robots capables de faire face à des environnements ouverts

    Stéphane Doncieux

    Niveau facile
    Niveau 1 : Facile
    ArticleRobotique
    Intelligence artificielle

    Des robots et des humains

    Jean-Pierre Merlet

    Niveau facile
    Niveau 1 : Facile
    PodcastIntelligence artificielle
    Robotique

    L’intelligence artificielle pour apprendre aux robots

    Joanna Jongwane
    Amélie Cordier

    Niveau facile
    Niveau 1 : Facile