C'était hier

D’une informatique centralisée aux réseaux généraux : le tournant des années 1970

Comment est-on passé de machines fonctionnant en local à la mise en réseau des ordinateurs, puis des architectures propriétaires, où le réseau ne supporte que les machines d’un même constructeur, à des réseaux généraux ? Quels sont les apports des réseaux Arpanet ou Cyclades, de TCP/IP et de l’OSI (Open Systems Interconnection) dans les années 1970 ?

Au début des années 1960, le paysage informatique est dominé par de gros calculateurs, qui fonctionnent en local : les informations sont fournies à l’entrée par une carte perforée, ou un ruban magnétique, manipulés par des opérateurs, et on recueille les informations à la sortie.

Comme l’écrit R. Rocquet en 1962 dans la Revue des PTT de France : « Il s’agit donc d’une machine desservie par quelques spécialistes, remplaçant dans les locaux même d’une entreprise un service de secrétariat, de comptabilité, ou de bureau technique. »

 

1. De l’idée de transmettre des données à celle des réseaux d’ordinateurs

Ce fonctionnement est simple quand les terminaux et l’ordinateur sont au même endroit, mais cela limite leur utilisation. Pour travailler à distance, les cartes perforées ou les bandes magnétiques sont expédiées par la poste ou par coursiers. Dès la fin des années 1950 et le début des années 1960 toutefois, les administrations des Télécommunications offrent la possibilité de transférer automatiquement les données au moyen de lignes spécialisées (télégraphiques, télex, téléphoniques). L’introduction de ces moyens de télécommunications permet un changement majeur : une transmission presque instantanée entre deux lieux distants. On parle alors de transmission de données.

À la fin des années 1960, le transfert point à point entre calculateurs laisse progressivement place à des réseaux commutés équipés de modems. Les calculateurs sont connectés à des lignes de télécommunications pour accéder à des terminaux. Ceci implique le couplage de deux techniques et de deux types de messages différents, puisque le réseau téléphonique transmet des données alphanumériques et le calculateur des données numériques (code binaire), cette difficulté étant contournée par des modems.

Temps partagé et partage d’informations

Deux axes de réflexion féconds se développent en parallèle. Les recherches portent d’une part sur une utilisation collective, partagée de la machine, l’utilisateur mettant au point ses programmes en ignorant que de nombreux autres utilisateurs se servent de la machine dans le même temps. D’autre part, il s’agit de permettre une utilisation collective, partagée, des programmes de traitement et des informations, qui ouvre à des non-informaticiens l’utilisation de l’ordinateur.

Les systèmes d’utilisation partagée des ordinateurs autorisent plusieurs programmeurs à utiliser la machine en même temps, alors qu’avec le traitement par lots les temps de réponses étaient longs et les machines sous-exploitées. Les premiers pas dans le temps partagé sont effectués par le projet CTSS (Compatible Time-Sharing System) au MIT, puis la réalisation du PDP 1, et au début des années 1970 l’apparition des machines IBM 370.

En ce qui concerne le partage d’informations, la puissance de calcul étant un élément coûteux, le système en ligne (on line system), vise à ce que plusieurs utilisateurs partagent les mêmes données et programmes. Ce concept est défini au Massachusetts Institute of Technology par Wesley Clark en 1954.

Terminaux du réseau SABRE.
Photo Archives IBM.

Plusieurs utilisateurs à des kilomètres de distance, par exemple des employés à partir d’un terminal, partagent des informations et traitent des problèmes identiques. C’est le cas dans le réseau SABRE tourné vers les réservations aériennes.

Dans les années 1960, les utilisateurs cherchent donc à soumettre des travaux à distance et à saisir les données en temps réel, à s’affranchir du « support papier » en entrée.

Enfin, le temps partagé permet une véritable interaction entre l’homme et la machine, mise simultanément au service de plusieurs utilisateurs.

Des réseaux centralisés

Comme le rappelle Louis Pouzin dans un article de La Recherche de février 2000 intitulé « Cyclades ou comment perdre un marché » : « Dans les années 1970, le modèle de l’époque relevait du jacobinisme parfait : un ordinateur central était relié à quelques centaines de terminaux par le moyen de circuits téléphoniques loués aux PTT. Pour le reste, il s’agissait d’exploiter au maximum les vertus du temps partagé : le calculateur répondait, tour à tour, à chacun des terminaux. Le résultat donnait des vitesses de transmission qui se situaient autour de 30 à 240 caractères par seconde. »

La structure des réseaux est alors de type étoilé, c’est-à-dire que les échanges d’informations ont lieu entre l’ordinateur central et un terminal particulier. Habituellement, il n’y a pas d’échanges entre les terminaux eux-mêmes. Puis naît l’idée d’interconnecter les différents terminaux, ce qui permet l’apparition de réseaux spécialisés.

L’évolution vers une informatique en réseaux, répartie, décentralisée, aux « terminaux intelligents », n’est cependant pas naturelle ou évidente. À une informatique centralisée, où règne l’incompatibilité entre les calculateurs, la recherche en téléinformatique va chercher à substituer une informatique en réseaux qui implique progressivement la compatibilité des ordinateurs.

2. Arpanet et Cyclades : des pionniers dans la voie des réseaux généraux

En 1966, Lawrence Roberts prend en charge, au sein de l’IPTO (Information Processing Techniques Office) créé en 1962 à l’ARPA, Advanced Research Projects Agency, la construction d’un réseau informatique, Arpanet. Ses choix techniques font la synthèse des apports du projet MAC, des travaux sur la transmission par paquets, des avancées du temps partagé, mais aussi du temps réel.

Larry Roberts est un des premiers à avoir entrepris, avec Thomas Marill, de relier deux ordinateurs de types différents. Aussi inscrit-il dans les principes d’Arpanet de mettre fin aux structures centralisées des réseaux en interconnectant une grande variété d’ordinateurs de constructeurs différents (IBM, DEC, General Electric ou Univac), présents sur les sites universitaires liés à l’ARPA.

Des hommes de réseaux

La conceptualisation de ce projet commence en 1967. La même année est formé le NWG (Network Working Group), dirigé au début par Stephen Crocker. Toute une équipe se constitue pour donner naissance à l’ambitieux projet Arpanet de construction d’un réseau d’ordinateurs hétérogènes reposant sur la commutation de paquets. Travaillent à sa réalisation des pionniers dans le domaine des réseaux tels Leonard Kleinrock, d’anciens camarades de Larry Roberts d’UCLA, quelques étudiants parmi lesquels figurent les futurs grands noms de l’aventure internet comme Vinton Cerf et Jon Postel.

Robert Kahn rejoint également l’équipe en 1968, par le biais de la firme de consultants BBN (Bolt Beranek and Newman), qui décroche le contrat avec l’Arpa pour créer des IMP, Interface Message Processors, rendant possible la communication entre ordinateurs hétérogènes. Le réseau démarre réellement en 1969. Il dispose alors de quatre connexions entre universités aux Etats-Unis (à UCLA, au Stanford Research Institute, à l’University of California at Santa Barbara, et à l’Université d’Utah).

  

 
Un IMP (Source : Internet Pioneers). Le réseau Arpanet en 1969.
Schéma des connexions entre les quatre sites (Source : Computer History Museum).

En 1971, alors que commencent à se définir les recherches françaises sur Cyclades, Arpanet compte 15 nœuds aux Etats-Unis. La première liaison internationale a lieu en 1973 avec UCL (University College of London).

Le réseau Arpanet en 1975
Bulletin particulier de renseignement scientifique et technique du 2 juillet 1975.
En haut, carte géographique du réseau ; en bas, sa structure logique.

 

Lors de la conférence internationale sur les communications informatiques en 1972 (ICCC72), la première démonstration publique d’Arpanet, organisée par Robert Kahn, donne une vue générale des chercheurs et équipes intéressés par les réseaux.

Parmi les chercheurs qui assistent aux démonstrations, sont présents deux Français : Rémi Després qui développe au Centre national d’études des télécommunications (Cnet) le projet RCP, qui évoluera ensuite vers Transpac, et Louis Pouzin, maître d’œuvre du projet Cyclades à l’IRIA. Ce projet-pilote a été lancé en 1971 sur l’initiative de Maurice Allègre, alors Délégué à l’Informatique.

Une nouvelle vision des réseaux d’ordinateurs : d’une informatique « propriétaire » aux réseaux généraux

« L'informatique ne connaissait jusqu'alors que deux formules, intégration centralisée, ou décentralisation dispersée. Les réseaux en apportent une troisième : intégration décentralisée, ou informatique répartie. » Ainsi se résume en 1975 le principe qui guide le projet-pilote Cyclades.

Au début des années 1970, aucune politique globale n’existait, et quelques constructeurs d’ordinateurs avaient proposé des architectures complètes de réseau spécifiques comme Decnet de Digital Equipement Corporation, et Systems Network Architecture (SNA) d’IBM. Chaque constructeur informatique adopte en interne des standards qui lui sont propres. Dès lors, la clientèle est captive d’une seule source d’approvisionnement.

Les équipes Arpanet ou Cyclades proposent une alternative : un réseau conçu pour pouvoir supporter des ordinateurs et des terminaux de toute sorte (hétérogénéité), tout en offrant un ensemble de conventions (protocoles) permettant à des systèmes hétérogènes de dialoguer.

L’équipe qui conçoit le réseau Cyclades à l’IRIA (puis INRIA) de 1971 à 1979, date d’extinction du réseau, va pousser la réflexion théorique dans deux voies fondamentales. Il s'agit de construire un réseau à commutation de paquets, fondé sur des datagrammes, c'est-à-dire sur un format de paquets dont l'en-tête contient toutes les informations nécessaires à leur acheminement, pour que ces blocs de données soient envoyés indépendamment les uns des autres. Il s'agit aussi de construire un « réseau universel », pour permettre l’insertion dans le réseau de machines de constructeurs différents.

Cette idée repose sur un certain pragmatisme : le réseau Cyclades doit avoir des liens avec les matériels de la Compagnie internationale pour l’informatique (CII), qui est une entreprise française, dans le contexte du « Plan Calcul » qui vise à stimuler l’industrie nationale. Mais les ingénieurs prennent aussi en considération le fait que les futurs réseaux ne seront pas constitués exclusivement d’équipements CII, tant au plan national qu’au plan international, alors qu’IBM occupe une place dominante sur le marché mondial. Or IBM a développé en 1974 une architecture propriétaire, Systems Network Architecture (SNA), qui limite l’extension d’un réseau à ses propres calculateurs. En luttant contre SNA, et en démontrant qu’un réseau peut accueillir des machines de constructeurs différents, l’équipe Cyclades peut envisager de faire de la place aux matériels CII.

Dans les années 1960, IBM occupe une position dominante.
Graphique réalisé d’après INRIA, 88.16.014.

Cyclades, une copie d’Arpanet ?

Le projet Arpanet est bien connu des Français. Louis Pouzin effectue fin octobre 1972 la visite d’une dizaine de centres participant au réseau Arpanet, essentiellement orientés sur les protocoles. Il reçoit une documentation abondante émanant des Etats-Unis, notamment les documents techniques produits par Bolt Beranek and Newman.

Le réseau Cyclades en avril 1973.

 

Toutefois, le projet Cyclades n’est pas une simple réplique de celui mené aux Etats-Unis, et ce pour plusieurs raisons. Tout d’abord, le projet Arpanet lui-même n’est pas figé et subit des évolutions, en particulier à partir de 1972, lorsque Vinton Cerf et Robert Kahn s’associent pour définir un nouveau protocole face au premier protocole d’Arpanet, NCP (Network control program), jugé trop « primitif ».

À la suite de séminaires organisés par Vinton Cerf sur les questions de protocoles, celui-ci et Robert Kahn publient en 1974 un article qui définit TCP (Transmission Control Protocol) , qui évolue ensuite en TCP/IP (Transport Control Protocol et Internet Protocol) et remplace NCP. L’idée est de pouvoir connecter et faire communiquer de nombreux réseaux indépendants de conception différente et même des réseaux radio ou satellites utilisant les paquets, ce que ne permettait pas NCP.

Dans un entretien avec Judy O’Neill en 1990, Vinton Cerf évoque deux éléments apportés par l’équipe Cyclades, les datagrammes purs et les « fenêtres ».

Le principe des fenêtres ou windowing concerne la numérotation des paquets introduits dans le réseau. Cette fenêtre plus ou moins longue incorpore les éléments de numérotation des paquets et des accusés de réception qui circulent.

Le réseau Cyclades en janvier 1975
INRIA, Armoire des projets pilotes, Dossier Cyclades, ORG 554, janvier 1975.

 

Quant aux datagrammes purs, c’est aussi sur eux que repose TCP/IP, ce qui vaut au maître d’œuvre de Cyclades, Louis Pouzin, d’être honoré au Sigcomm 1997 aux côtés de Jon Postel. Dans un échange de courriers électroniques avec David Reed, Vinton Cerf le qualifie de « gourou des datagrammes ».

Une architecture de réseau en couches

Vinton Cerf mentionne aussi Hubert Zimmermann, autre membre de l’équipe de l’IRIA, comme étant le concepteur de la première version de l’architecture OSI. L’équipe française va en effet aussi se distinguer par son travail sur les architectures de systèmes ouverts bâties selon un système de couches.

Déjà dans SNA, le principe des couches est appliqué, mais il est systématisé dans Cyclades. C'est la seule manière, selon Louis Pouzin et son équipe, de pouvoir faire évoluer, d'une part les applications, d'autre part les systèmes de communications, pour tenir compte des améliorations futures de la technologie.

L’architecture en couches dans Cyclades
INRIA, Armoire des projets pilotes, dossier Cyclades, SCH 72, juillet 1973.

 

La conception de Cyclades se double d’une politique très vive en faveur d’une normalisation internationale, car seuls des standards internationaux peuvent, aux yeux de l’équipe, apporter une alternative crédible à la « dominance IBM ».

 

3. Vers des standards « de fait » ou « officiels » ?

Les membres de l’équipe Cyclades mènent une intense action en faveur de la normalisation des architectures de réseaux au plan international à l’ISO (International Standard Organization). Ils contribuent ainsi à ce qui deviendra l’Open Systems Interconnection, une architecture de réseau en sept couches.

Modèle d'architecture ISO pour l'Interconnexion de Systèmes Ouverts
INRIA, 86.007.007, Hubert Zimmermann, « Les réseaux informatiques », SCH 620.1, octobre 1979.

La recherche de standards informatiques officiels

L’OSI (Open Systems Interconnection) est un cadre de référence couvrant l’ensemble des normes des protocoles de communication qui doivent être mis en œuvre pour l’interconnexion de systèmes hétérogènes. Si les travaux sur l’OSI ne débutent qu’en 1977, les réflexions étaient engagées et débattues dès l’année 1972, dans un groupe de travail appelé INWG (International Network Working Group), rattaché en 1974 à l’International Federation for Information Processing (IFIP), et présidé par Vinton Cerf. Il s’est donné comme objectif de proposer des bases de standardisation aux organismes compétents. En avril 1975, le groupe de travail compte une liste de 130 membres, et se concentre sur les expériences Arpanet, Cyclades et le réseau du National Physical Laboratory britannique. Les réflexions de l’International Network Working Group vont amener des propositions à l’ISO qui aboutissent à un effort de réflexion sur les standards et les architectures de réseaux.

En 1977 est donc créé à l’ISO, au sein du comité 97 responsable de la normalisation informatique, le sous-comité 16 « interconnexion des systèmes ouverts ». Cette création suscite des débats sur l’interprétation de cette normalisation : faut-il normaliser une « interconnexion des systèmes ouverts » ou une « architecture des systèmes ouverts » ? C’est la première notion qui l’emporte, car il ne s’agit pas de normaliser le comportement interne d’un système d’exploitation. Les experts de l’OSI définissent des services génériques et vont établir sept couches, quatre couches « transport » et trois couches « applications ». En cela, ils se démarquent du protocole X25 adopté par exemple dans Transpac, qui ne ne concerne que la couche transport dans les réseaux à commutation de paquets reposant sur des circuits virtuels.

Une mise en œuvre longue

Stabilisé à l’ISO dès 1982, le modèle de référence de base de l’OSI est officiellement publié par l’ISO en 1984, mais le programme de normalisation internationale est abandonné au cours des années 1990. Parmi les freins, peuvent être relevées une prolifération de normes de fait, en particulier TCP/IP, la tentation de normes transitoires (au Royaume-Uni avec les coloured books ou MAP aux Etats-Unis), et la lenteur et la complexité du processus de normalisation. L’OSI a tendance à devenir une « tour de Babel ».

L’équipe Arpanet est restée effacée dans la définition de l’OSI, alors qu’elle a initié la réflexion dans le cadre de l’International Network Working Group. Janet Abbate note à ce sujet dans Inventing the internet : « Le fait que les protocoles de l'internet n'avaient pas été élaborés par un comité officiel de standardisation, combiné au fait qu'ils venaient des États-Unis, qui dominaient déjà le marché des ordinateurs, rendait impossible, sur le plan politique, leur acceptation par l'ISO comme standards pour les systèmes ouverts. » Rappelons aussi la philosophie exposée par David Clark du MIT en 1992, pour le 24e anniversaire de l’Internet Engineering Task Force :« We reject kings, presidents and voting. We believe in rough consensus and running code », phrase difficile à traduire qui signifie à peu près : « Nous rejetons les rois, les présidents et le vote. Nous croyons au consensus approximatif et au code qui fonctionne ».

En tout état de cause, dès 1974, Louis Pouzin a eu une vision prémonitoire. « En matière de standards, il ne faut pas s'attendre à une approbation officielle avant longtemps, car il y a encore une majorité de pays qui n'ont aucune expérience, ni même de compréhension du sujet. Par contre, il y aura d'ici un an (2 ans au plus), des standards de fait, qui tiendront lieu de modèles », écrit-il à Maurice Allègre. Il a pressenti que les standards de fait (TCP/IP) seraient plus puissants que les standards officiels (OSI) dans cette course à la normalisation.

Le bouillonnement d'idées et d'expérimentations dans les années 1970 a fait prendre conscience de la nécessité de l'interconnexion des réseaux. Il a ainsi conduit, par l'adoption du protocole TCP/IP, devenu un standard de fait, à la naissance d'Internet.

Pour en savoir plus, nous vous proposons quelques éléments bibliographiques.

Niveau de lecture

Aidez-nous à évaluer le niveau de lecture de ce document.

Il vous semble :

Si vous souhaitez expliquer votre choix, vous pouvez ajouter un commentaire (qui ne sera pas publié).