Les Newsletters Interstices
    Niveau avancé
    Niveau 3 : Avancé

    Asservissement visuel

    Culture & Société
    Robotique
    Les techniques d'asservissement visuel se situent à l'intersection des domaines de la robotique, de l'automatique et de la vision par ordinateur. Elles utilisent les informations fournies par un capteur de vision pour contrôler les mouvements d'un système dynamique. Ce système peut être réel dans le cadre de la robotique, ou bien virtuel pour l'animation d'entités artificielles ou la réalité augmentée.

    Principes et applications de l’asservissement visuel sont montrés à travers l’exemple des recherches menées par l’équipe LAGADIC de l’IRISA.

    Recherches en asservissement visuel

    Quelle que soit la configuration du capteur, pouvant aller d’une caméra embarquée sur l’effecteur d’un robot à plusieurs caméras déportées, il s’agit de sélectionner au mieux un ensemble d’informations visuelles fournies par le capteur.

    Voir une séquence vidéo sur les principes de l’asservissement visuel – Durée : 1 min 22 s.

     

    Il faut ensuite élaborer une loi de commande contrôlant les degrés de liberté souhaités, afin que ces informations atteignent une valeur désirée, qui définit une réalisation correcte de la tâche. On peut ainsi réaliser une grande variété de tâches de positionnement du système par rapport à son environnement, ou de poursuite d’objets mobiles, en contrôlant de un à l’ensemble des degrés de liberté du système. Cette approche permet de compenser les imprécisions des modèles, aussi bien du capteur que du système à commander.

    Avec un capteur de vision, fournissant à la base des informations 2D, la nature des informations visuelles potentielles est extrêmement riche. En effet, pour l’asservissement visuel, on peut utiliser les informations 2D, telles que les coordonnées de points caractéristiques dans l’image, ou des informations 3D, fournies par un module de localisation exploitant les mesures 2D extraites. De cette richesse provient la problématique majeure de l’asservissement visuel, à savoir, parmi l’ensemble des informations potentielles, comment sélectionner celles qui fourniront un comportement satisfaisant au système ? Il convient également de développer des algorithmes de traitements d’images temps réel (c’est-à-dire à la cadence vidéo) pour extraire et suivre les mesures dans les séquences d’images acquises.

    Plates-formes expérimentales

    Les travaux menés par l’équipe LAGADIC sont avant tout de nature méthodologique, mais il est inconcevable dans ce domaine de ne pas valider les résultats de recherche par des expérimentations sur des systèmes réels.

    Voir une séquence vidéo sur les recherches et les applications – Durée : 4 min 15 s.

     

    Deux plates-formes expérimentales servent ainsi à valider ses travaux en vision robotique. Ces plates-formes sont très faciles à utiliser, car bien maîtrisées et fondées sur du matériel industriel. Elles sont composées de robots de type manufacturier, l’un de structure cartésienne à six degrés de liberté, l’autre de structure cylindrique à quatre degrés de liberté. Ces deux robots sont chacun équipés d’une caméra embarquée sur leur effecteur et de cartes de numérisation d’images.

    Il est même possible de simuler des robots de nature complètement différente sur ces systèmes, afin d’effectuer facilement de premières expérimentations en toute sécurité. Ainsi, le modèle dynamique d’un robot sous-marin a pu y être intégré, pour étudier la stabilisation d’images et le positionnement de bras articulés non instrumentés. Un hélicoptère miniature a aussi pu être simulé, pour étudier la localisation et le contrôle de ses mouvements. Après validation, les résultats peuvent être intégrés sur des systèmes beaucoup plus délicats à manipuler.

    L’équipe dispose également d’un véhicule Cycab. Sur ce robot mobile électrique entièrement informatisé, les chercheurs ont installé une caméra montée sur une tourelle dont l’orientation peut être commandée, pour réaliser la détection et le suivi d’objets mobiles (piétons, autres véhicules). Une autre tourelle de télésurveillance a également été installée pour observer le domaine d’évolution du véhicule, et contrôler ses mouvements par asservissement visuel.

    Enfin, un nouveau robot d’acquisition d’échographies 3D, commun aux deux équipes LAGADIC et VISAGES de l’IRISA, permettra de valider leurs travaux de recherche en robotique médicale. Ce robot à six degrés de liberté porte un capteur d’effort et une sonde échographique 2D. Une caméra extérieure permet en outre de visualiser le champ d’examen. Il s’agit de développer un système d’acquisition d’échographies 3D piloté à distance à l’aide d’images vidéo et d’images échographiques 2D. L’objectif est de permettre à un médecin, expert d’une pathologie, de réaliser lui-même et à distance l’examen échographique. L’apport de la troisième dimension viendra renforcer la qualité du diagnostic et la précision des informations quantitatives.

    Les recherches menées étant indépendantes du système robotique considéré, le robot et le capteur de vision peuvent même être virtuels. En collaboration avec l’équipe SIAMES de l’IRISA, l’équipe LAGADIC cherche à appliquer les techniques d’asservissement visuel dans le domaine de l’animation. Il peut s’agir soit de contrôler le mouvement d’avatars ou d’humanoïdes virtuels en fonction de leur pseudo-perception, soit de contrôler le point de vue de restitution visuelle d’une animation. Dans les deux cas, des applications potentielles se situent dans le domaine de la réalité virtuelle, par exemple pour la réalisation de jeux vidéos.

    Des applications existent également en vision par ordinateur et en réalité augmentée. Il s’agit alors de réaliser un asservissement visuel virtuel pour la localisation ou l’estimation du mouvement 3D, en vue de la réalisation d’effets spéciaux ou de la conception et de l’inspection d’objets manufacturés.

    Environnement logiciel

    Le prototypage rapide de tâches d’asservissement visuel nécessite de développer un environnement logiciel. Cet objectif est d’envergure à cause de l’emploi de matériels spécifiques (robot, carte d’acquisition d’images, etc.), mais aussi en raison de la très grande variété des applications potentielles, des lois de commande possibles, et des traitements d’images correspondants. Sans un tel environnement, la mise en œuvre d’applications serait lourde et donc source potentielle d’erreurs.

    Un logiciel prototype, nommé ViSP (pour « Visual servoing platform »), est développé depuis maintenant cinq ans. Il repose sur la mise à la disposition du programmeur d’un ensemble de briques élémentaires qui peuvent être combinées pour construire des applications plus complexes. ViSP est écrit en C++ et utilise largement les fonctionnalités des langages orientés objets, en particulier pour assurer son évolution future et sa portabilité. Il est diffusé sous forme de logiciel libre sous licence QPL.

    Newsletter

    Le responsable de ce traitement est Inria. En saisissant votre adresse mail, vous consentez à recevoir chaque mois une sélection d'articles et à ce que vos données soient collectées et stockées comme décrit dans notre politique de confidentialité

    Niveau de lecture

    Aidez-nous à évaluer le niveau de lecture de ce document.

    Si vous souhaitez expliquer votre choix, vous pouvez ajouter un commentaire (Il ne sera pas publié).

    Votre choix a été pris en compte. Merci d'avoir estimé le niveau de ce document !

    Fabien Spindler

    Ingénieur de recherche Inria dans l'équipe LAGADIC.
    Voir le profil

    Christian Blonz

    Responsable du pôle réalisation audiovisuelle d'Inria.

    Voir le profil