Découvrir

Idée reçue : Les ordinateurs produisent des images virtuelles

Le qualificatif virtuel est mis à toutes les sauces. Peut-il s’appliquer aux images ? Troisième volet de notre collection d’idées reçues.

Grâce à Robert Desnos, nous avons appris que :


© INRIA / équipe IPARLA.

Une fourmi de dix-huit mètres
avec un chapeau sur la tête
ça n'existe pas, ça n'existe pas.

On peut ajouter une nouvelle strophe :

Une image virtuelle,
avec plein de pixels,
ça n'existe pas, ça n'existe pas.

Eh ! Pourquoi pas ?

On utilise très souvent le mot « image » accolé à de nombreux qualificatifs : image de marque, image mentale, image publique, image médicale, etc. De son côté, l’adjectif « virtuel » est, depuis l’avènement du Web, mis à toutes les sauces : monde virtuel, rencontre virtuelle, communauté virtuelle... Quand les deux se rencontrent, ils forment une expression très utilisée mais malheureusement dénuée de sens : « image virtuelle ».

Mais reprenons depuis le début : l’homme est un être vivant qui capte, stocke, traite, et émet de l’information, comme nous le rappelle Michel Serres. Ces informations sont de natures très différentes : des images, des sons, des odeurs. Ce sont nos sens qui nous permettent de les capter, notre cerveau de les stocker et de les traiter.

Si l’on veut utiliser un ordinateur pour capter, traiter, stocker, et émettre de l’information, il est d’abord nécessaire de la transformer en une forme que la machine peut, non pas comprendre, mais manipuler. Les nombres étant les seules grandeurs prises en compte, on utilise des codages basés sur des valeurs numériques, comme le code ASCII qui associe un nombre à chaque caractère de notre clavier, ou la compression MP3 qui nous permet de stocker de la musique sur des clés USB, ou encore la norme JPEG utilisée pour stocker des images sur nos appareils photos.

 Chaque pixel de l'image est associé à une couleur. 
Source : Wikipédia.

Concentrons-nous sur les images dans le monde informatique (dans la suite du texte, on simplifiera en n’utilisant que le mot « image », sans rappeler à chaque fois le contexte informatique) : ces images sont affichées sur des écrans qui sont composés d’un ensemble de points appelés pixels (contraction de picture element en anglais). Ces pixels sont organisés de façon très régulière en lignes et colonnes à la façon d’un tableau.

Dans le cas le plus simple, celui d’une image utilisant seulement deux valeurs, le noir et le blanc, on utilise un codage basique, binaire, où un pixel blanc est représenté par la valeur 0 et un noir par 1. Pour une image en couleurs, il suffit de définir une fonction associant une valeur unique à une couleur donnée (8 pour le bleu nuit, 45 pour le vert clair…).

Une image étant ainsi constituée d’un tableau de pixels, un pixel étant associé à une couleur, on en déduit facilement qu’une image est une matrice de valeurs numériques (les anglophones parlent de bit-map). D’un point de vue électronique, ces valeurs sont stockées dans des mémoires et sont associées à des potentiels électriques parfaitement réels et mesurables.

Finalement, que l’on considère une image d’un point de vue visuel, informatique ou électronique, elle est réelle (perceptible, mesurable) et absolument pas imaginaire. On ne doit donc pas parler d’image virtuelle, mais bien d’image numérique.

Dans le même registre, il y aurait beaucoup à dire sur l'expression « réalité virtuelle », mais ceci est une autre histoire...

Une hypothèse expliquant cette erreur courante est basée sur le mélange entre le support et le contenu : dans Jurassic Park, on peut voir des créatures virtuelles (les dinosaures) au milieu d’êtres humains (les acteurs). Mais les images calculées par les ordinateurs de la société ILM sont elles parfaitement réelles.

D’ailleurs, qualifie-t-on un livre de virtuel parce qu’il contient des personnages de fiction ?
 

Tags

Niveau de lecture

Aidez-nous à évaluer le niveau de lecture de ce document.

Il vous semble :

Si vous souhaitez expliquer votre choix, vous pouvez ajouter un commentaire (qui ne sera pas publié).