Réseaux sans fil de nouvelle génération
1. Les réseaux existants : réseaux sans fil à stations de base
Les réseaux sans fil que nous utilisons aujourd’hui, tels que le GSM / GPRS / UMTS ou le Wi-Fi, sont ce que l’on appelle des réseaux sans fil à stations de base. Ils souffrent d’un coût de déploiement important. Sans parler des prix des licences UMTS (ceux des licences en Allemagne auraient permis de couvrir l’ensemble du territoire de points d’accès Wi-Fi), ils nécessitent tous les deux une infrastructure fixe interconnectée de manière filaire.
Pour en illustrer la complexité, regardons le cas du téléphone sans fil dont l’infrastructure est hiérarchique.
Elle est composée par :
- les stations de base ou BTS (Base Transceiver Station) : ce sont les antennes qui sont chargées de communiquer avec les téléphones portables. La zone de communication couverte par une station de base est appelée cellule – d’où le terme « réseau cellulaire » ;
- les contrôleurs de station de base ou BSC (Base Station Controller) : ces composants sont chargés de gérer un ensemble de stations de base ;
- les centres de commutation de service mobile ou MSC (Mobile-service Switching Centre) qui doivent organiser les communications dans le réseau ;
- les enregistreurs de localisation de visiteurs ou VLR (Visitor Location Register) : ces bases de données, associées aux centres de commutation, stockent des informations de localisation précises sur des utilisateurs mobiles ;
- l’enregistreur de localisation nominal ou HLR (Home Location Register) qui est une base de données centrale – éventuellement dupliquée – contenant les informations sur les abonnés (dont une information de localisation comme la zone de localisation) ;
- le centre d’authentification des abonnés ou AUC (AUthentification Centre) qui est une base de données chargée d’assurer l’authentification des utilisateurs.
Ce réseau possède également des passerelles vers le Réseau Téléphonique Commuté (RTC) classique afin d’assurer les communications d’un GSM vers un poste fixe et vice versa. Ce dernier réseau a d’ailleurs largement été sollicité pour interconnecter les différents éléments du réseau GSM.
Au coût de déploiement s’ajoute la nécessité de perpétuellement faire évoluer la configuration du réseau pour offrir la meilleure qualité de service possible. Ainsi, les opérateurs réévaluent périodiquement le placement des stations de base, la taille des cellules, les fréquences attribuées à chaque cellule, les regroupements des stations de base affectées aux contrôleurs, les regroupements des contrôleurs affectés aux centres de commutation, etc. Tous ces paramètres influent directement sur la qualité de connexion : une cellule trop grande, donc surchargée, a de grands risques de ne pas pouvoir accepter toutes les connexions ; le changement de cellule par le téléphone mobile lors d’un déplacement (on parle de « hand-over » ou de « hand-off ») est favorisé si les cellules appartiennent au même contrôleur, voire au même centre de commutation.
La complexité du problème de configuration de ce type de réseau est énorme. À grands coups d’algorithmes génétiques, les ingénieurs des opérateurs utilisent les « logs » – les fichiers où sont enregistrées les opérations – des différents équipements du réseau pour tenter de trouver la configuration optimale. La survie de la première réification de l’ « Ubiquitous Computing » est à ce prix.
Le coût de déploiement et de maintenance n’est pas le seul critère. Par exemple, les coûts sont bien sûr moindres dans les réseaux de plus faible envergure tels que les réseaux Wi-Fi. Néanmoins, l’immaturité de la norme – notamment en termes de sécurité – nécessite la mise en place d’une pléiade de garde-fous (pare-feu, authentification, VPN, IPSec, etc.) qui plombent irrémédiablement des performances déjà bien basses en termes de débit. Non seulement on est loin du « plug-and-play » promis – ceux qui ont déjà configuré un client VPN savent de quoi il en retourne – mais, sauf pour une utilisation ponctuelle, on appréciera de trouver une connexion filaire offrant des débits raisonnables.
À long terme, le succès de la communication sans fil est conditionné par les réponses qu’elle saura donner aux quatre grands défis qui lui sont posés aujourd’hui : haut-débit, faible consommation, flexibilité/accessibilité/auto-configuration, sécurité.
Aucune solution existant aujourd’hui ne répond à ces quatre critères. C’est pourquoi de nouvelles architectures de réseaux sont proposées. Nous allons faire un panorama de ces différentes alternatives dans la suite de cet article.
2. Réseaux radio maillés : supprimer définitivement les fils
Pour déployer à moindre coût un réseau sans fil à l’échelle d’une ville, on peut utiliser un réseau radio maillé, aussi appelé « mesh network », qui consiste en un ensemble de stations de base qui couvrent la zone visée. La différence avec les réseaux à stations de base vus précédemment est qu’ici les stations de base utilisent également une liaison radio pour communiquer entre elles. Ainsi, les stations de base agissent comme des relais radio pour les communications des mobiles. Dans un réseau radio maillé, chaque mobile est rattaché à la station de base la plus proche, avec laquelle il communique exclusivement. Cette station de base peut ainsi faire office de chef d’orchestre et organiser les communications « au mieux » afin d’éviter les pertes de paquets et d’optimiser l’utilisation de la bande passante.
Si les communications ne sont pas prévisibles, les différents chemins possibles eux sont connus, car ils utilisent le graphe constitué par les stations de base. Pour que deux mobiles puissent communiquer, il suffit que les stations de base auxquelles ils sont rattachés puissent communiquer. Idéalement, l’ensemble des stations de base d’un réseau radio maillé est connexe, c’est-à-dire qu’il existe toujours une route, utilisant éventuellement des stations de base intermédiaires, reliant deux stations quelconques du réseau. Pour effectuer le routage des messages, on utilise par exemple des techniques bien connues dans les réseaux d’interconnexion de microprocesseurs. Enfin, il suffit que l’une des stations de base soit reliée à un réseau filaire pour permettre à l’ensemble des nœuds du réseau l’accès à ce réseau filaire – voire à Internet via ce dernier.
Les réseaux satellitaires
Les réseaux satellitaires constituent une variante très intéressante des réseaux maillés. En effet, les satellites des réseaux de téléphonie satellitaires comme Iridium ou Teledesic peuvent être vus comme des stations de base qui se relaient entre elles les paquets des mobiles. À l’échelle de tels réseaux, les téléphones peuvent être considérés comme fixes, et ce sont les satellites en orbite basse qui sont mobiles.
|
Dans le réseau Iridium, la couverture de la Terre est réalisée grâce à soixante-six satellites placés à une orbite de 780 km et répartis sur six orbites polaires. À cette altitude, un satellite doit réaliser une rotation autour de la Terre toutes les 1h40. Ceci induit que le satellite situé au-dessus d’un téléphone change toutes les neuf minutes – ce qui équivaut à un changement de cellule pour ce téléphone. Ici, chaque satellite communique à l’aide d’antennes directionnelles avec ses voisins le précédant et le suivant sur la même orbite, ainsi qu’avec ses voisins directs sur les orbites voisines (hormis pour les satellites situés sur la « couture », où l’une des orbites voisines est à contre-sens, ce qui rend les communications impossibles). Le graphe généré par un tel réseau est une grille ayant subi deux torsions aux endroits qui correspondent aux pôles. Ces « torsions » se déplacent au cours du temps, accompagnant les trajectoires des satellites.
Il en est de même pour Teledesic, qui est le plus abouti techniquement. Il est constitué de douze orbites quasi-polaires de vingt-quatre satellites chacune à une altitude de 1500 km (un hand-over inter-satellite toutes les sept minutes). Les satellites communiquent avec huit voisins : deux en avant, deux en arrière et deux de chaque côté. Cette redondance des liens est garante de résistance aux pannes et à la charge.
Pour Iridium et Teledesic, il suffit d’une station terrestre pour assurer l’interconnexion entre les téléphones satellitaires et le réseau terrestre. Simplement, contrairement aux réseaux radio maillés classiques, ce n’est pas toujours le même satellite qui communique avec cette station terrestre.
Il est à noter que le réseau satellitaire Globalstar n’est pas un réseau maillé, car dans ce dernier, chaque satellite ne fait que relayer directement les transmissions vers une station terrestre. Pour qu’une communication fonctionne – même entre deux mobiles Globalstar – il faut donc qu’il y ait une station terrestre sous le faisceau des satellites concernés par la communication. Ce dernier exemple illustre bien notre propos puisqu’il utilise moins de satellites (seulement vingt-quatre), qui sont moins coûteux puisqu’il n’y a pas de communication inter-satellites, mais il requiert une infrastructure terrestre conséquente pour couvrir l’ensemble du globe terrestre, c’est-à-dire vingt-quatre stations terrestres et leur interconnexion, contre seulement une station terrestre dans le cas d’Iridium ou de Teledesic.
3. Réseaux pair-à-pair : supprimer également les stations de base ?
Si plusieurs mobiles sont à portée de communication, ils peuvent échanger directement des informations sans l’aide d’une station de base. Ce mode de communication est connu sous le terme « mode ad hoc » ou « pair-à-pair » en Wi-Fi ou Bluetooth. En fait, il s’agit du mode ad hoc « simple saut », comme nous le verrons plus loin.
Cette manière d’échanger des messages peut être pratique lors de réunions où tous les participants sont dans l’espace confiné de la salle de réunion. C’est le cas idéal où le graphe des communications possibles forme un graphe complet. Par contre, dans le second cas illustré ici, celui d’un graphe non complet, le mobile D ne pourra pas échanger des informations avec le mobile A puisqu’ils ne sont pas connectés directement.
Dans un réseau ad hoc mobile, constitué de stations munies d’une interface de communication radio, un nœud du réseau peut communiquer directement avec ses voisins, c’est-à-dire ceux qui sont à portée de communication de sa propre interface, et fait office de routeur pour les autres mobiles du réseau. Ainsi, dans l’exemple présenté ci-dessus, le nœud B pourra relayer les messages du mobile D vers le mobile A. Ce type de réseaux, appelé aussi MANET pour Mobile Ad hoc NETwork, est utile quand aucune connexion filaire n’est disponible, par exemple lors d’interventions sur le site d’une catastrophe, lors d’une opération militaire, et plus généralement quand le déploiement rapide d’un réseau est nécessaire. Dans ce cas, les nœuds communiquent en acheminant les messages par routage « multi-saut ».
Indépendamment du fait de disposer ou non d’une infrastructure, le mode ad hoc multi-saut a de nombreux avantages en comparaison des modes de communication avec stations de base. Par exemple, concernant la consommation énergétique. Un mobile émet plus de messages en mode ad hoc qu’en mode infrastructure, puisqu’il doit à la fois transmettre ses propres informations mais également les données des autres mobiles pour lesquels il fait office de routeur. On pourrait donc penser que ce mode est plus gourmand en énergie. Néanmoins, les portées de communication peuvent être largement réduites en mode ad hoc (à titre d’exemple, on parle de dix mètres en mode ad hoc contre cent mètres en mode infrastructure). Cette diminution de portée de communication permet d’économiser beaucoup d’énergie, puisque la consommation énergétique varie au moins proportionnellement au carré de la distance de communication. Ainsi, même si l’on transmet dix fois plus de messages en mode ad hoc, diviser par dix la portée de transmission permet de ne consommer qu’un dixième de l’énergie nécessaire au mode station de base. De plus, diminuer les puissances d’émission permet également de limiter les risques de collisions entre les communications, ce qui diminue le nombre de retransmissions dues à la perte de paquets, et donc de faire, encore, des économies d’énergie.
Néanmoins, dans un tel réseau, la configuration de la portée de communication des nœuds (ce qui revient à paramétrer la puissance d’émission) est importante. En effet, il faut qu’elle soit suffisante pour assurer la connexité du réseau. Mais plus on accroît la portée des mobiles, plus les communications demandent de l’énergie. De même, les risques de collisions augmentent avec le nombre de nœuds qui se partagent le même médium. Par conséquent, plus la portée augmente, plus les risques de collision augmentent. Il faut donc trouver l’équilibre entre la connexité du réseau et la consommation énergétique.
Dans l’exemple ci-dessus, une portée de cent mètres assure la connexité mais engendre plus de consommation énergétique qu’une portée de soixante-sept mètres qui est suffisante pour la connexité du réseau. En revanche, si l’on diminue trop la portée, la connexité du réseau est perdue, comme ici avec quarante-quatre et trente mètres.
On observe que plus on réduit la portée de communication, plus le nombre de mobiles voisins d’un nœud diminue. En effet, pour un ensemble de portables donné, la portée de communication et la densité, exprimée en nombre de mobiles par zone de communication, sont dépendantes l’une de l’autre. Si l’on étudie la densité requise pour assurer une bonne probabilité de connexité du réseau, on observe que cette probabilité présente un « effet de seuil ». Pour au moins 90 % de chances que le réseau soit connexe, il faudrait atteindre quinze mobiles par zone de communication. Si cette densité peut sembler importante, elle ne correspond en fait qu’à un mobile tous les 22 m2 pour une portée de communication de dix mètres.
Routage dans les réseaux dynamiques
Dans les réseaux mobiles ad hoc, le graphe d’interconnexion présente une très grande dynamicité, ce qui rend impossible l’utilisation de protocoles de routage classiques comme ceux utilisés dans Internet. Des expérimentations ont d’ailleurs été menées à l’Irisa (Rennes) pour montrer l’inefficacité d’IP (Internet Protocol) pour les réseaux mobiles. Les résultats obtenus montrent que l’échange des tables de routage occupent plus de 90 % de la bande passante et présentent des défauts de mise à jour lors de modifications de topologie trop fréquentes.
|
Il existe deux grandes familles de protocoles de routages dédiés aux réseaux ad hoc. La première est celle des protocoles réactifs, ou « à la demande », qui ne génèrent les routes que lorsqu’elles sont demandées par les mobiles. La seconde est celle des protocoles proactifs, ou « par table de routage », qui maintiennent continuellement des tables de routage.
Ces deux types de protocoles ont chacun leurs défauts. Les protocoles réactifs induisent un coût de démarrage, et généralement une inondation du réseau, lors de la découverte d’une route, tandis que les protocoles proactifs occupent constamment la bande passante avec des informations de contrôle des tables de routages.
L’IETF, au sein du groupe MANET, a tout récemment retenu deux protocoles, un de chaque famille. Le premier, réactif, de Charles Perkins (Nokia) et Elisabeth Royer (University of California), est baptisé AODV (Ad-hoc On-demand Distance Vector Routing). Il utilise un mécanisme de diffusion (broadcast) dans le réseau pour découvrir les routes valides. Le protocole proactif retenu est français, de l’équipe HIPERCOM de Philippe Jacquet (INRIA Rocquencourt), et s’appelle OLSR (Optimized Link State Routing). Il utilise un mécanisme qui permet de désigner un sous-ensemble de son voisinage responsable de la dissémination des informations de contrôle de topologie dans le réseau à moindre coût.
Il existe bien sûr des protocoles hybrides, qui utilisent un mode proactif pour le voisinage proche et qui adoptent un comportement réactif pour les communications lointaines. Une piste prometteuse est celle des protocoles basés sur la localisation géographique. En effet, si l’on connaît la localisation géographique d’un mobile, il est facile de lui faire parvenir des informations même sans connaître la route. Une utilisation naïve (qui, malheureusement, peut être mise en défaut) est simplement d’envoyer le message en indiquant non seulement l’identifiant du destinataire, mais également la localisation de ce dernier. Parmi tous les nœuds qui reçoivent ce message, seuls celui ou ceux qui sont le plus près géographiquement de la cible le retransmettront. Ceci est particulièrement intéressant, car l’information de localisation peut être utile également pour les couches applicatives, par exemple pour les applications contextuelles dont le comportement dépend de la localisation et de l’environnement.
4. Vers un mariage des différents types de réseaux ?
Les réseaux ad hoc ont été conçus pour être utilisés sans infrastructure, par exemple sur le champ de bataille. La Navy américaine serait d’ailleurs en train de se munir d’un réseau basé sur le protocole français OLSR. Néanmoins, il est certain qu’ils trouveront leur place dans l’Internet de nouvelle génération. En particulier, l’économie d’énergie qu’ils peuvent apporter conduit naturellement à préconiser leur intégration dans les réseaux sans fil à stations de base. Ainsi, un nœud ne devrait pas être nécessairement à portée de communication d’une borne, mais pourrait faire acheminer ses données via un routage ad hoc. De fait, la bonne solution est très certainement un juste mélange de ces différents types de réseaux : réseaux à stations de base centralisés, réseaux maillés, réseaux pair-à-pair.
Les réseaux ad hoc sont probablement aussi la réponse au défi que nous pose l’apparition de nombreux objets communicants dans notre environnement de tous les jours. Cette profusion sera accentuée par la miniaturisation des équipements. Les ingénieurs d’Intel nous parlent déjà de la « Smart Dust », littéralement « poussière intelligente », qui sera dotée de capteurs, de capacité de traitement et de communication et aura plusieurs années d’autonomie sur quelques millimètres carrés.
L’Internet de demain nous promet donc d’être riche, non seulement par son contenu, mais aussi par son étendue qui ne se réduira pas à trouver les recettes coïncidant avec le contenu du réfrigérateur… Au regard des technologies émergentes, les auteurs de science-fiction ne sont pas loin de la réalité.
« Les machines devinrent de plus en plus miniaturisées jusqu’à ce que la maison de l’être humain moyen et son bureau soient pleins de dizaines de milliers d’entre elles. Le fauteuil d’une secrétaire la reconnaissait dès qu’elle s’asseyait, appelait le dossier auquel elle travaillait sur son grossier ordinateur à silicium, bavardait avec une autre puce dans une machine à café pour qu’on lui en prépare une tasse, permettait à la grille des télécommunications de traiter les appels, les télécopies et les arrivées d’un courrier électronique rudimentaire afin que la secrétaire ne soit pas dérangée, communiquait avec l’ordinateur de la maison ou du bureau afin que la température reste optimale, etc. Dans les supermarchés, les micropuces des boîtes de haricots, rangées sur les étagères, notaient leur prix et ses changements, commandaient d’autres boîtes quand elles commençaient à manquer, surveillaient les habitudes d’achats des consommateurs et communiquaient avec le magasin et les autres produits. »
Dan Simmons, Hypérion 4, l’Éveil d’Endymion, 1997.
Newsletter
Le responsable de ce traitement est Inria. En saisissant votre adresse mail, vous consentez à recevoir chaque mois une sélection d'articles et à ce que vos données soient collectées et stockées comme décrit dans notre politique de confidentialité
Niveau de lecture
Aidez-nous à évaluer le niveau de lecture de ce document.
Votre choix a été pris en compte. Merci d'avoir estimé le niveau de ce document !