Schaeffer

De IPSS Network
Aller à : navigation, rechercher


Circuits virtuels et datagrammes : une concurrence à plusieurs échelles

par Valérie SCHAFER

Français
Le développement de la téléinformatique, et notamment des transmissions de données, va rapprocher deux techniques, celles des télécommunications et de l’informatique. Les ingénieurs œuvrant respectivement dans ces domaines découvrent au début des années 1970, au travers de la conception de réseaux à commutation de paquets, ce qui les rapproche mais aussi les oppose sur le plan technique, ou culturel. Les « informaticiens » de l’Institut de Recherche en Informatique et Automatique (IRIA) qui mettent en place le réseau Cyclades optent pour une technique de datagrammes, tandis que les ingénieurs des télécommunications du Centre National d’Études des Télécommunications (CNET), puis du Centre Commun d’Études de Télévision et Télécommunications (CCETT), émanation du CNET et de l’ORTF, choisissent les circuits virtuels. Comment les techniques des datagrammes et des circuits virtuels se concurrencent-elles à l’échelle française, européenne et internationale ? Les logiques à l’œuvre pour leur adoption diffèrent-elles selon l’espace concerné ? Nous verrons, à travers une étude à plusieurs échelles, que les datagrammes et les circuits virtuels ont pu tantôt s’imposer, tantôt reculer, selon des logiques très diverses qui rendent l’idée de « meilleure solution technique » caduque.
English
The development of data communications contributes to bring closer telecommunications and computing technology. The French engineers working respectively in these domains discovered at the beginning of the 1970s what could both bring them closer and oppose them on the technical or cultural fields : the conception of packet switching networks. The engineers of IRIA who put the Cyclades network in place chose a technique of datagrams, while the engineers of the telecommunications (CNET) chose the virtual circuits. How did the datagrams and the virtual circuits compete themselves at the French, European and international level ?
ISBN : 9782200923372
DOI : 10.3917/hes.072.0029
Éditeur : Armand Colin
_________________

Les premiers réseaux de données ont une extension géographique limitée, parfois à la sphère d’une seule entreprise. Dans les années 1970 émerge l’idée de concevoir des réseaux plus étendus, de les interconnecter, et de mettre fin aux structures centralisées qui prévalent à la conception des architectures de réseaux. À travers l’émergence d’une innovation, la commutation de paquets, se développe à la fois l’idée de réseaux à vocation publique, couvrant tout un territoire national, tel le réseau Transpac, mais aussi l’idée de réseaux généraux d’ordinateurs (OSI) et de réseaux interconnectables, internationaux tel internet.

La commutation par paquets arrive en France au début des années 1970. Or très rapidement coexistent sur le territoire français deux techniques de commutation de paquets :

  • celle les datagrammes développée par l’IRIA (Institut de Recherche en Informatique et Automatique),
  • et celle des circuits virtuels développée par le Centre National d’Études des Télécommunications (CNET) et le Centre Commun d’Études de Télévision et de Radiodiffusion (CCETT).

En effet, la téléinformatique, technique mêlant les télécommunications et l’informatique, pose la question de la rencontre de ces deux mondes au départ cloisonnés et différents de par leur formation technique, leurs centres de recherches, leurs approches de la transmission de données mais aussi leurs publics.

Comment une innovation téléinformatique s’impose-t-elle en France, prise entre sa double origine informatique et télécommunicante, des organismes de normalisation et des cultures différentes ?

Comment les techniques des datagrammes et des circuits virtuels se concurrencent-elles à plusieurs échelles, étendant leur compétition du territoire français à la scène européenne et internationale ? Les logiques qui prévalent à l’adoption des circuits virtuels ou des datagrammes aux différents niveaux de décision varient-elles selon l’espace concerné ?

Enfin comment la réflexion sur la commutation de paquets permet-elle l’émergence de concepts qui vouent les réseaux à une extension internationale, grâce aux efforts de standardisation menés dans X25 ou OSI et le développement d’internet ?

---



À l’échelle française : deux lieux et deux logiques pour une recherche

En France deux centres de recherche sont au cœur de la rencontre entre télécommunicants et informaticiens et de la mise en place des réseaux de données.

  • D’une part le CNET, Centre National d’Études des Télécommunications, créé en 1944  [1], et le CCETT, Centre Commun d’Études de Télévision et de Télécommunications, né de la rencontre de l’ORTF et du CNET à Rennes en 1972 (c’est ce centre qui accueillera l’équipe de Rémi Després chargé de développer le RCP, Réseau à Commutation de Paquets, « ancêtre » de Transpac).
  • D’autre part l’IRIA, Institut de Recherche en Informatique et Automatique, créé en 1967, peu après le lancement du Plan Calcul, et dépendant au départ de la Délégation à l’Informatique dirigée par Robert Galley à sa création puis par Maurice Allègre à partir de 1968.


---
  1. [1] M. Atten, « Histoire du CNET, de nouvelles perspectives », Les Cahiers, Télécommunications, Histoire et Société, n° 2, France Telecom, 1995, p. 7-17.


La rencontre logique en France des Télécommunications et de l’Informatique

Au départ, les domaines de recherches des informaticiens et des télécommunicants n’entrent pas en concurrence. C’est sous la direction de Pierre Marzin, lors de l’entrée du CNET dans des études sur l’introduction de l’électronique dans les techniques de commutation qu’est créé le Département RME (Recherches sur les Machines Électroniques) et que sont lancés des projets de commutation temporelle. Le passage à l’électronique dans les télécommunications va précipiter la rencontre des deux mondes  [1]. La convergence s’accentue dans les années 1970 avec les premières réalisations importantes en téléinformatique. Peu à peu les Télécommunicants prennent conscience d’un nouveau marché et de la demande en transmission de données des banques, compagnies d’assurance, d’EDF et d’autres entreprises, publiques ou privées. La DGT réalise autour de 1970 un service spécialisé de transmission de données, reposant sur la commutation de circuits : Caducée  [2]. Ce projet est destiné à répondre à la demande des entreprises en échanges de données, avant l’aboutissement du projet Hermès, qui a été lancé en 1971 et vise à intégrer les progrès faits notamment dans le domaine de la commutation électronique. Les transmissions de données sont pour les télécommunicants un enjeu important face au développement de réseaux privés, utilisant des liaisons spécialisées, face à la demande de certaines entreprises et au développement rapide des recherches sur les réseaux à l’étranger.

La rencontre entre les télécommunications et l’informatique apparaît comme nécessaire, ces deux domaines sont de plus en plus imbriqués. L’informatique a besoin des Télécommunications pour les réseaux d’ordinateurs (lignes), l’Administration a besoin de services informatiques pour la programmation ou le calcul, et pour garder une part de la responsabilité et de la gestion des réseaux afin de ne pas devenir un simple fournisseur de lignes.

Dès lors, les développements et les recherches informatiques en matière de réseaux entrent dans le champ d’intérêt de la DGT. Or au CCITT (Comité Consultatif International Télégraphique et Téléphonique) un certain nombre d’administrations discutent de leur projet de réseaux pour les données. Les Anglais évoquent le mode paquets. Le British Post Office est poussé dans cette voie par le laboratoire du NPL, National Physical Laboratory, où exerce D. Davies, un des pionniers dans le domaine de la commutation par paquets. En 1970, Antoine Jousset du CNET rapporte du CCITT des informations sur les projets anglais et trouve en la personne de Rémi Després un interlocuteur intéressé. Celui-ci fait accepter à Alain Profit, qui supervise le projet Hermès au CNET, l’idée d’expérimenter en parallèle à la commutation de circuits la commutation de paquets  [3]. La Sous-direction Téléinformatique et Réseaux Spécialisés de la DGT, pilotée par Gilbert Dennery et dans laquelle travaille Philippe Picard, un des acteurs principaux ensuite du projet Transpac, soutient également cette initiative. Alain Profit ressent d’autant moins de difficultés au lancement de ce projet qu’il a découvert quelques années auparavant la commutation par paquets aux États-Unis :

J’ai, en 1969, participé à une mission organisée par la Délégation à l’Informatique-IRIA, qui était consacrée au problème de la téléinformatique aux États-Unis. À cette occasion nous avons rendu visite au laboratoire du professeur Kleinrock à Los Angeles, et cela a été notre premier contact aux uns et aux autres avec la commutation de paquets. La commutation de paquets a commencé à germer dans les esprits français à partir de ce moment de mai 1969 où nous sommes allés avec Michel Montpetit  [4] faire cette mission aux États-Unis  [5] .

La Délégation à l’Informatique, qui a donc découvert la commutation de paquets dans le même temps, cherche elle aussi à développer un projet, qu’elle place à l’IRIA, et elle trouve un maître d’œuvre en la personne de Louis Pouzin, qui a déjà travaillé sur la réalisation d’un réseau pour la Météorologie et a une expérience et une connaissance des États-Unis, pour être allé au MIT en 1963 où il a appris la programmation et participé à la réalisation des premiers grands systèmes de temps partagé, CTSS  [6].

---
  1. [2] Voir P.-E. Mounier-Kuhn, « Le CNET et les débuts de l’informatique de 1944 à 1964 », dans M. Atten, Histoire, Recherche, Télécommunications : des recherches au CNET, Paris, CNET, 1996 et l’article de J. Carteron, « 1950-1980, les trente années où télécommunications et informatique se sont rencontrés », Histoire de l’informatique, Quatrième Colloque, Rennes, IRISA, INRIA, 14-15-16 novembre 1995, p. 296 et suiv.
  2. [3] A. Jousset, A. Profit, « Le projet Caducée », Écho des recherches, n° 60, avril 1970.
  3. [4] Entretien avec Rémi Després du 4 mars 2003.
  4. [5] Adjoint de Maurice Allègre à la Délégation à l’Informatique.
  5. [6] Entretien avec Alain Profit du 4 février 2003.
  6. [7] Entretien avec Louis Pouzin du 12 novembre 2002.


Deux centres de recherches pour une même innovation

Dès 1971, alors que l’IRIA se lance dans ce qui s’appellera le réseau Cyclades, le CNET s’est déjà tourné vers le projet d’un Réseau à Commutation de Paquets (RCP).

Cependant le projet de l’IRIA va au-delà de la réalisation d’un réseau de commutation de paquets. Il s’agit, en vue notamment de lutter contre la « dominance d’IBM »  [1] et de son architecture SNA (Systems Network Architecture), de créer l’architecture d’un réseau général d’ordinateurs  [2], de permettre la mise à disposition au niveau national des bases de données que les diverses administrations ont l’intention de bâtir, de stimuler l’industrie française avec l’apport de technologie avancée au constructeur national, la CII (Compagnie Internationale pour l’Informatique), enfin d’utiliser la commutation de paquets (dont le réseau est baptisé Cigale). L’IRIA a des objectifs différents de ceux du CNET. L’institut n’est pas attaché comme dans le cas du CNET à un organisme cherchant à exploiter immédiatement et commercialement ses développements (la Direction Générale des Télécommunications) mais à la Délégation à l’Informatique, qui a été créée pour développer, stimuler, et promouvoir l’informatique française. Or dans une optique de développement de l’informatique française qui doit stimuler le « poulain » français, c’est-à-dire la CII fondée en décembre 1966  [3], l’IRIA a conscience qu’il faut favoriser des systèmes hétérogènes : la CII n’a pas de monopole, même en France, et il faut bien admettre qu’il n’y aura pas que les machines de la CII dans un réseau, mais forcément aussi un certain nombre d’ordinateurs IBM, Control Data, ou Burroughs  [4].

Face à la proximité en apparence des recherches de l’IRIA et du CNET, un accord a lieu entre la DGT et la Délégation à l’informatique, le 29 juin 1972, prévoyant en principe, vue la complémentarité des objectifs, que le CNET réaliserait le système de commutation nécessaire au projet Cyclades, l’IRIA se chargeant des problèmes de connexion des ordinateurs au réseau de commutation et des applications informatiques. Les PTT s’engagent par ailleurs à fournir gratuitement les lignes et modems pendant trois ans pour la réalisation du réseau  [5].

Cependant très rapidement, malgré cet accord destiné à entraîner une collaboration étroite entre les laboratoires de recherches, il apparaît que les uns et les autres divergent fondamentalement sur les choix techniques à faire.

---
  1. [8] Archives de l’INRIA, Armoire 10, Dossier Cyclades, Rapport du groupe de travail Cyclope, t. 1, p. 4 et suiv.
  2. [9] « Un réseau général d’ordinateurs est conçu pour pouvoir supporter toute une variété d’applications mettant en jeu les ordinateurs et les terminaux du réseau. Il doit donc pouvoir accepter des ordinateurs et des terminaux de toute sorte (hétérogénéité), tout en offrant un ensemble de conventions (protocoles) permettant à des systèmes hétérogènes de dialoguer », Archives de l’INRIA, Armoire 10, Dossier Cyclades, note écrite à Rocquencourt, le 7 février 1974, « Présentation du réseau Cyclades ».
  3. [10] Voir les articles de M. Barré, « La Compagnie Internationale pour l’Informatique dans le cadre du Plan Calcul (1969/1975) », p. 85 et suiv. et J.-P. Brulé, « Autopsie d’un changement de politique (1975-1976). D’Unidata à CII Honeywell Bull », p. 127-168, dans le Colloque sur l’histoire de l’informatique en France, 2 vol., 3-5 mai 1988, Grenoble, P. Chatelain, 1988.
  4. [11] Entretien avec Louis Pouzin du 12 novembre 2002.
  5. [12] Archives de l’INRIA, Note du 19.07.1972, Accord entre le Délégué à l’Informatique et le Directeur Général des Télécommunications du 29 juin 1972.


Le conflit datagrammes et circuits virtuels : deux logiques culturelles, techniques, politiques et industrielles s’affrontent en France

Les informaticiens et les télécommunicants s’accordent sur les avantages de la commutation par paquets au regard des techniques utilisées auparavant, à savoir la commutation de messages et de circuits.

La commutation de circuits consiste en effet à commuter des circuits en aboutant des artères pour constituer pour chaque demandeur « une voie réservée » pour la durée de la transaction. C’est le cas par exemple dans le réseau Caducée, premier réseau spécialisé dans la transmission de données français lancé par le CNET et la DGT en 1971. Mais cette technique n’est intéressante que si les opérations se déroulent en continuité et s’il n’y a pas trop de taux de silence, ce qui représente sinon un gaspillage des ressources allouées. D’où le recours possible à la commutation de messages. Dans ce cas les réseaux sont constitués de circuits spécialisés reliant des centres de commutation entre eux, et de circuits reliant les abonnés aux centres. L’abonné transmet le message à son centre de rattachement qui stocke le message et après avoir trouvé un circuit disponible effectue la transmission, vers le centre destinataire ou un centre intermédiaire. Le message reçu par un centre intermédiaire est vérifié et relayé de centre en centre jusqu’à son centre de destination  [1]. Cette technique induit certes un délai de transmission plus long, et qui augmente avec la taille du message, mais en contre-partie, si le délai n’est pas critique, on peut utiliser une plus grande fraction de la capacité des circuits. La commutation de paquets, proche de la commutation de messages, résout ces deux problèmes, de « gaspillage » et de lenteur. Les messages sont découpés en paquets. Ils sont accompagnés d’informations de service qui les identifient pour permettre leur acheminement vers la destination choisie, puis ils sont pris en charge par le réseau de transmission constitué de commutateurs spécialisés chargés de reconnaître la présence d’un paquet, d’examiner les données de service contenues dans chacun, de détecter les erreurs  [2]. Un tel système permet une utilisation optimale des lignes de transmission par partage entre les utilisateurs. Une ligne n’est « allouée » à un utilisateur que le temps nécessaire à la transmission d’un paquet au nœud suivant. En fonction de l’état du réseau (charge, pannes de ligne ou de nœud), les paquets emprunteront un itinéraire différent, permettant d’atteindre le destinataire dans les meilleures conditions  [3].

La commutation par paquets est à la fois rapide et plus « économique en lignes » que les deux techniques précédentes, sur ce point télécommunicants et informaticiens sont d’accord. Mais la commutation par paquets peut passer par une technique de datagrammes ou des circuits virtuels  [4]. Avec les datagrammes, les paquets sont acheminés de façon autonome au niveau de chaque nœud. Il n’y a pas d’asservissement entre le réseau et des systèmes extérieurs connectés, terminaux et ordinateurs (routage adaptatif). Mais un service circuit virtuel peut aussi être utilisé : il y a alors établissement, avant un transfert d’informations qui peut comprendre plusieurs paquets, d’une communication virtuelle, utilisant un chemin physique identique pour tous les paquets d’une communication (routage fixe), et impliquant une réservation des moyens nécessaires à la commutation au niveau de chaque nœud traversé.

Aux yeux de la DGT les avantages des circuits virtuels sont les suivants  [5] :

  • les circuits virtuels permettent un meilleur contrôle du flux dans le réseau, et sont un service mieux adapté à un public de grande envergure, car ils permettent de garantir un délai de transmission économe en mémoire, et utilisent mieux les lignes d’abonnés, même s’ils impliquent des affectations de ressources dans le réseau pour la durée de la communication.
  • les datagrammes sont d’une réalisation plus simple au niveau du réseau, et sont bien adaptés aux messages très brefs, mais si le récepteur est trop lent, l’usager n’est pas garanti contre la perte de paquets et la facturation semble plus complexe à mettre en œuvre  [6] pour un organisme qui pense déjà à l’exploitation de cette innovation dans le cadre d’un futur service commercial.

Aussi les circuits virtuels paraissent-ils préférables aux télécommunicants. Pour Rémi Després le choix est évident :

La première raison est qu’avec les datagrammes, le réseau ignore si un paquet est transmis à l’initiative de celui qui l’émet ou s’il s’agit d’une réponse provoquée par une requête émanant d’un autre utilisateur. Du point de vue de la facturation du service, il est alors impossible d’imputer l’utilisation des ressources du réseau à celui qui en est responsable. Avec les circuits virtuels en revanche le réseau a connaissance de qui établit une communication. Il est alors simple de lui imputer dans les deux sens les échanges de paquets qui s’ensuivent (…). La deuxième raison est qu’avec les circuits virtuels le réseau peut adapter le rythme auquel il accepte les paquets à destination des divers correspondants. Il est ainsi possible d’assurer qu’un paquet émis sera reçu. Avec les datagrammes au contraire, quand le trafic adressé à une destination dépasse le débit de sa ligne d’accès le réseau doit supprimer des paquets, choisis de façon essentiellement arbitraire, avant qu’ils ne parviennent à leur destinataire. Une qualité de service bien définie n’étant pas possible, un nouveau service public payant aurait eu peu de chance d’être adopté par les clients professionnels auxquels il était destiné  [7] .

Les informaticiens ne reconnaissent pas ces arguments : ils voient dans le choix des PTT le résultat d’une tradition culturelle, celle des liaisons point à point et le réflexe Not Invented Here  [8]. Pour eux les logiques qui prévalent dans les choix des télécoms sont culturelles plus que techniques.

La logique industrielle, et derrière politique, n’est pas non plus totalement absente des choix des uns et des autres et de leurs querelles : l’IRIA par la voix de Louis Pouzin reproche en effet au CNET de développer l’expérimentation du projet sur des PDP 11 de Digital Equipement Corporation :

Ni la Délégation à l’Informatique, ni la CII ne tenait à un tel voisinage, dans un projet politiquement sensible. Ajoutons à cela des doutes sur les délais de réalisation, et les différences de tempérament. Il a donc été décidé de passer outre et de développer Cigale à l’IRIA sur un Mitra 15 de la CII  [9] .

Le projet Cyclades devant avoir aux yeux de la Délégation à l’Informatique des retombées industrielles (promotion du Mitra 15 et du logiciel de télécommunication des IRIS 50 et IRIS 80), l’IRIA ne peut en tout état de cause envisager de bâtir un réseau de commutation utilisant des machines étrangères, même à un stade expérimental. Rapidement la collaboration entre les centres de recherches est entravée par ces divergences qui inquiètent la DGT. Elle hésite même un temps à revenir sur sa décision de fournir gratuitement des lignes à l’IRIA, ce qui permettrait d’exercer une pression sur celui-ci  [10]. La DGT condamne la volonté affirmée de l’IRIA de promouvoir les techniques utilisées dans Cigale, par exemple pour un réseau de la Marine, mais aussi son action internationale intensive pour faire accepter au nom de l’Administration française les normes de Cigale dans les organismes internationaux.

---
  1. [13] D. Battu, Formation FCR, Initiation aux télécommunications, p. 113.
  2. [14] P. Fortin, « Transpac, un réseau au service des entreprises », Revue française des Télécommunications, n° 55, avril 1985, p. 32-41.
  3. [15] Archives de l’IRIA, Armoire 10, dossier Cyclades, note écrite à Rocquencourt, le 7 février 1974, p. 3. Voir également dans le Fonds Bernard, carton 235 des archives du CNET à Lannion, le projet d’article pour 01 Informatique de P. Conruyt, adjoint au directeur du CCITT sur la commutation de paquets.
  4. [16] Archives de l’INRIA, Armoire 10, Dossier Cyclades, Plaquette Cyclades, p. 20 : « Datagrammes : simple système d’acheminement de paquets indépendants, dont la longueur est limitée à 255 octets de texte. Circuits virtuels : système dans lequel un asservissement est établi entre deux extrémités logiques et maintient l’ordre de transmission des paquets ».
  5. [17] Archives de la DGT conservées au CAC, Note confidentielle sur les relations Cyclades-Transpac du 20-02-1974.
  6. [18] Entretien avec Philippe Picard du 1er février 2003.
  7. [19] Entretien avec R. Després du 4 mars 2003.
  8. [20] Entretien avec M. Allègre du 16 novembre 2002.
  9. [21] L. Pouzin, « Du télétraitement au RNIS », Colloque sur l’histoire de l’informatique en France, 2 vol., 3-5 mai 1988, Grenoble, P. Chatelain, 1988, p. 368.
  10. [22] Archive de la DGT conservées au CAC, Note confidentielle de la DGT du 20 février 1974.


En France la logique publique s’impose

Un tournant a lieu fin 1973 lorsque la DGT en la personne de son Directeur Général L. J. Libois annonce le lancement des études devant déboucher sur la création d’un réseau public à commutation de paquets avant fin 1975.

La DGT répond à une double pression : d’une part le projet Cyclades est en train de monter en puissance (la première démonstration officielle de Cyclades a lieu début 1974 en présence des Ministres de l’Industrie et des PTT), et en parallèle les grands utilisateurs, regroupés dans un groupement spécialisé animé par Pierre Lhermitte, le GERCIP, qui réunit entre autres la Société Générale, EDF, ou Saint-Gobain, commencent à se demander s’ils ne vont pas essayer de mettre en place un réseau partagé de données, basé sur la commutation de messages ou de paquets. Ils étudient la possibilité de louer des lignes aux PTT et de faire eux-mêmes leur propre réseau  [1], et inquiètent certains télécommunicants qui craignent que cela porte atteinte à leur rôle et au monopole.

En 1975 est lancé l’appel d’offre Transpac, et sept consortiums y répondent. C’est la SESA qui emporte le marché. Le réseau Transpac est ouvert en décembre 1978, après la création en 1977 d’une société dont 77 % est détenu par l’État. Transpac est un des premiers réseaux publics de transmission de données au Monde et s’impose comme le réseau à commutation de paquets français, desservant dès ses débuts tout le territoire national  [2]. Le réseau est organisé autour d’ordinateurs spécialisés assurant les fonctions de concentration et de commutation de données. Ils sont reliés entre eux par un réseau maillé de canaux rapides, et les utilisateurs peuvent être raccordés directement aux commutateurs du réseau ou y accéder dans le cadre d’un abonnement au réseau téléphonique ou télex. La société Transpac (décision interministérielle de 1974) est rapidement bénéficiaire, son chiffre d’affaire de 150 millions de francs en 1982, passe à 530 millions en 1984, alors que le nombre d’abonnés passe de 640 abonnés en 1979 à 21 650 fin 1984  [3]. Ce réseau va notamment supporter le développement du trafic minitel, décision prise après quelques polémiques au sein des télécommunicants, notamment à cause du statut de la société Transpac que certains ont pu considérer comme un outil au « démantèlement du service public »  [4].

Parallèlement les premières démonstrations de Cyclades, ont eu lieu en 1974. Le réseau est utilisé assez régulièrement jusqu’en 1978, époque à laquelle la DIELI (Direction des Industries à l’Électronique et à l’Informatique), interrompt le financement de sa maintenance. Aussi Cyclades s’éteint-il, victime notamment de la disparition de ceux qui l’ont soutenu et en particulier de la Délégation à l’Informatique, alors que l’arrivée à la présidence de Valéry Giscard d’Estaing a marqué un changement brutal et profond dans l’organisation de l’informatique française : la Délégation à l’Informatique est supprimée en 1974 et la CII fusionne au même moment dans CII-Honeywell Bull (1975), avant que l’IRIA ne soit en 1979 remplacé par l’INRIA et les projets pilotes « exilés » à la nouvelle Agence de l’Informatique créée à la Défense.

La logique publique développée par la DGT et le CNET qui a permis à Transpac de naître voit donc s’imposer le projet des télécommunicants, alors que Cyclades est victime de logiques surtout politiques de l’époque giscardienne.

Pourtant si les informaticiens ont perdu « une bataille », ils ont encore plusieurs théâtres d’opérations possibles pour promouvoir les datagrammes, et notamment la Communauté Européenne qui cherche à stimuler des projets de réseaux communs aux pays membres.

---
  1. [23] Entretien avec Philippe Picard du 1er février 2003 (il a été notamment Directeur Général de Transpac après en avoir été le chef de projet).
  2. [24] CEPT, Réseaux publics de données, 2e éd., 1979, 241 p., p. 82-84.
  3. [25] P. Fortin, « Transpac : un réseau au service des entreprises », Revue française des télécommunications, n° 55, avril 1985, p. 32-41.
  4. [26] « Quand au début des années 1980 on s’est demandé quel réseau utiliser pour le minitel, (je ne parle pas de l’annuaire électronique, qui ne posait pas ces problèmes de facturation, mais des services télématiques, et en particulier cette invention fantastique qui a été un des deux facteurs de réussite du minitel, à savoir la facturation kiosque), il y avait des débats à l’intérieur de France Télécom, car comme Transpac était une société extérieure, certains disaient qu’ils ne voulaient pas lui confier leurs intérêts, et voulaient construire un réseau spécifique plutôt qu’utiliser Transpac pour véhiculer le trafic minitel. (…) Transpac a été choisi car il était le seul capable pour chaque facturation de savoir qui émettait et surtout qui recevait, donc il était capable de calculer tous les éléments de la facturation : durée, volume, numéro du serveur informatique demandé, etc. », entretien avec Philippe Picard du 1er février 2003.


Une concurrence qui se porte à l’échelle européenne : les logiques politiques et industrielles s’accentuent

La stratégie des informaticiens français dans le projet EIN (European Informatics Networks)

Les projets réunissant plusieurs pays européens autour d’un objectif commun dans le domaine de l’informatique, des télécommunications ou de la téléinformatique, commencent à voir le jour dans les années 1970. Ils se font notamment dans le cadre des actions COST (Coopération Scientifique et Technique) lancées par la Communauté Européenne. En effet vers le milieu des années 1960 la Communauté se trouve confrontée à une inquiétude qui est le rythme trop lent de développement technologique européen face à la concurrence américaine et japonaise. En 1967 le Conseil des Ministres réclame que soit entreprise une action de redressement et de promotion dans le domaine de la recherche scientifique et de l’innovation industrielle et invite le groupe de travail PREST (Politique de Recherche Scientifique et Technologique) à examiner les possibilités d’une coopération technologique européenne dans sept principaux secteurs d’activités dont l’informatique et les télécommunications, (mais aussi les nouveaux moyens de transport, la métallurgie, etc.). Le comité COST est créé en 1970.

Cost 11 concerne la téléinformatique. C’est ce comité qui lance un projet ambitieux de développement d’un réseau de données, EIN, en 1972, à la Commission Européenne. Les participants sont au nombre de neuf à l’origine et onze en 1975 : l’Allemagne, la France, le Royaume-Uni, la Suède, la Suisse et l’Italie, la Yougoslavie, les Pays-Bays, le Portugal, Euratom, la Norvège  [1]. Le projet comprend deux parties : tout d’abord l’établissement d’un réseau d’ordinateurs, et d’autre part l’utilisation de ce réseau pour des recherches dans lesquelles les ordinateurs coopéreraient. Encore faut-il que les partenaires européens s’entendent sur les choix techniques à adopter dans ce réseau.

La création d’une norme commune ne fait pas table rase des normes existantes. Chaque pays souhaiterait, en effet, que l’Europe adopte une norme voisine de sa norme nationale  [2] .

Aussi les Anglais souhaiteraient voir s’imposer un projet proche du système EPSS dont ils ont établi les premières connexions. Ils sont donc des compétiteurs sérieux des Français et cherchent à faire triompher leur solution, proche de celle des circuits virtuels. Mais les limites de cette proposition sont très vite décelées par les autres pays participants car la spécificité de la réalisation anglaise imposerait un matériel qui ne serait pas standard mais anglais, et donc de confier à une société anglaise le pouvoir de réalisation.

En deux temps la France, par l’intermédiaire de Maurice Allègre (Délégué à l’Informatique), va contrer ce projet : il souhaite imposer un matériel français, le Mitra 15 de la CII et veut donc mettre fin aux velléités anglaises d’imposer leur technique. Il reçoit le soutien des autres pays qui ont compris que soutenir le point de vue français peut leur permettre de participer au projet plus facilement. Dans un premier temps M. Allègre contre la spécification EPSS et impose les datagrammes puis il peut alors engager une discussion sur le matériel et l’adoption du Mitra 15. La négociation est difficile. Il est délicat d’imposer à la fois pour la conception des logiciels et du matériel français. Pour les logiciels, c’est finalement Logica, une société anglaise qui est choisie, mais qui a des accords commerciaux avec la SESA française (dont quelques ingénieurs avaient été associés à la réalisation de Cyclades), et pour le matériel le Mitra 15 finit par s’imposer.

Dans une moindre mesure que Cyclades, EIN a également favorisé l’industrie française. Directement d’abord, puisque c’est le MITRA qui a été choisi pour les nœuds du sous réseau et que c’est le consortium SESA-LOGICA (franco-anglais) qui a réalisé le logiciel de ces nœuds. Ce fut un élément important dans la décision qui a attribué le contrat de réalisation d’Euronet à ce même consortium (et le contrat Transpac à SESA). Indirectement, car une partie des développements ont été réalisés en collaboration avec des sociétés de services françaises (Cap Sogeti en particulier) pour l’implémentation d’un certain nombre de logiciels et notamment le GATEWAY qui effectue la connexion entre Cyclades et EIN  [3] .

La logique politique et industrielle, par le biais des négociations menées par la France auprès de ses partenaires européens, permet donc un temps aux datagrammes de s’imposer au niveau européen.

---
  1. [27] European Informatics Network, Cost Project 11, A european Informatics Network. Report on the project, 1980, 119 p., p. 4.
  2. [28] E. Kessous, « L’objectivation des qualités industrielles en discussion. Les acteurs du marché européen confrontés à l’élaboration de normes communes », Réseaux, Communication, Technologie et Société, n° 102, vol. 18, 2000, p. 93-115, p. 101.
  3. [29] Note n° 2916/RSI du 26 avril 1978, de M. Robin à M. Oziard, Monod Broca, Rozelot, Micoulot. Copie à M. Danzin, « Bilan provisoire de l’action de COST 11 », Archives de l’INRIA, Armoire 11, Fonds Danzin, carton 02.00. 014.


Euronet ou le retour des télécommunicants au centre de la réalisation des réseaux

Euronet, projet lancé peu après EIN par la Communauté Européenne a pour objectif de permettre l’accès à partir de tout terminal informatique situé dans la Communauté aux diverses banques et bases de données scientifiques, techniques et socio-économiques mises en œuvre dans les pays membres, et aux banques législatives, sociales, économiques et juridiques des Communautés Européennes. Il vise également à la mise en commun d’autres services informatiques offerts aux utilisateurs, de manière à réduire la duplication de l’information, et à encourager la coopération inter-européenne dans différents secteurs d’activités, tels l’agriculture ou la médecine. L’idée de construire une telle structure a été lancée en 1971 par le Comité de l’Information Scientifique et Technique des Communautés Européennes (CIDST). En 1974 un plan d’action de trois ans a été adopté par le Conseil des Ministres de la Communauté. La responsabilité du projet a été confiée à la Direction Générale pour l’information et la Documentation Scientifique et Technique (DG13) de la Commission. En 1975 la Commission a délégué la responsabilité de la réalisation du réseau de transmission de données aux Administrations des Télécommunications des neuf États Membres, qui ont déjà réfléchi au projet au sein de la CEPT. C’est cette fois-ci faire une place centrale à ceux qui tiennent dans toute l’Europe les lignes de transmission et réclament que leur place stratégique soit prise en compte. C’est reconnaître leur rôle dans la transmission de données, alors que le projet EIN avait plutôt fait une place aux chercheurs tournés vers l’informatique. Est-ce ainsi une logique économique qui a prévalu ? On peut penser que pour ce réseau la participation économique consentie par les PTT européennes et la fourniture de lignes rendaient ce vaste projet plus facilement réalisable. Par ailleurs les PTT étaient partout intéressés à la question : les PTT européennes visent ainsi rapidement à transformer Euronet en un réseau public de transmission de données qui ait la capacité d’absorber une partie significative des flux de données inter-européennes (d’autant que certaines Administrations ne souhaitent pas développer leur propre réseau national), et permette de limiter l’évasion de trafic au profit des grandes infrastructures américaines ayant des extensions en Europe  [1].

Les Administrations nationales signent à leur tour une convention qui les rend solidaires et délèguent à l’Administration française des PTT la responsabilité des relations contractuelles avec la Commission ainsi que la définition industrielle du projet. Le Réseau Euronet est une simple infrastructure de transport et ne possède aucun moyen propre de traitement informatique en dehors de ce qui est nécessaire pour la commutation et de la comptabilité du réseau  [2].

Au départ les informaticiens espèrent que la forme industrielle et commerciale d’Euronet ressemblerait à ce qu’ils avaient fait dans EIN. Mais les PTT passent des accords notamment franco-anglais, pour s’assurer la réalisation du projet. Toutes les Administrations des PTT sont unies contre les datagrammes, et préconisent l’utilisation du protocole X25, qui normalise les circuits virtuels. En effet X25 est en cours de réalisation au CCITT (Comité Consultatif International Téléphonique et Télégraphique), l’organisme de normalisation internationale des Administrations. Aussi ce sont les circuits virtuels qui cette fois passent à l’échelle européenne. En permettant d’utiliser le protocole X25 du CCITT et en retenant une norme technique internationale, la Communauté Européenne situe sa volonté de placer les usagers sur un pied d’égalité au plan technique  [3]. La solution technique retenue est donc dérivée de Transpac  [4]et la question de l’évolution d’EIN et de sa convergence avec Euronet  [5]est réglée en faveur des circuits virtuels. Il est décidé dès 1978 de rendre compatible EIN et X25 et de pouvoir interconnecter EIN et Euronet  [6](concept EMU-3 développé par le centre de recherche Bell-Northern et Trans-Canada Telephones System Companies notamment  [7]). Ce projet permet aux pays européens de converger vers X25, notamment aux Allemands, très attachés jusque-là à la commutation de circuits et à X21.

Les PTT européennes semblent donc soudées au moins autour de l’acceptation de X25 et des circuits virtuels, et la centralisation des systèmes de télécommunications et des prises de décisions fait que la situation est claire du côté européen.

---
  1. [30] J.-P. Chamoux, L’information sans frontière, Informatisation et Société 8, Série Impact, Paris, La Documentation française, 1980, 180 p., p. 154.
  2. [31] Idem, p. 153 et suiv.
  3. [32] Idem, p. 153 et suiv.
  4. [33] Sur la réalisation du réseau voir l’article de B. Rouxeville dans la Revue française des télécommunications, n° 34, 1980, p. 16-22.
  5. [34] Commission des Communautés Européennes, Deuxième Congrès Européen sur les systèmes et réseaux documentaires, Luxembourg, 27-30 mai 1975, Münich, Verlag Dokumentation Éditeurs, 1976, 255 p., p. 80-81.
  6. [35] European Informatics Network, Cost Project 11, A european Informatics Network. Report on the project, 1980, 119 p., p. 16-17.
  7. [36] Idem, p. 20-21.


La logique normalisatrice internationale bousculée par internet

À l’échelle internationale, la persistance du clivage télécommmunications- informatique : la bataille des normes, ou la logique politique triomphante

Au CCITT la DGT a mené une campagne en faveur de la normalisation  [1]des circuits virtuels. En effet le CCITT cherche à normaliser des protocoles pour les réseaux à commutation de paquets. Tout naturellement la DGT choisit ce terrain d’action, qui lui est familier et « réservé ».

Il a toujours été clair pour le monde des télécommunications que la normalisation est essentielle. Pour plusieurs raisons, pour que des équipements se raccordent au réseau, il faut qu’ils s’adaptent aux standards du réseau et ils le font plus volontiers si le standard est international. La deuxième raison est que ces réseaux sont implantés nationalement mais ont vocation à communiquer internationalement, donc il faut des standards permettant l’interconnexion des réseaux  [2] .

Antoine Jousset, conseiller technique du Directeur du CNET, représente la France dans la commission A du CCITT qui s’occupe notamment des transmissions de données. Cette commission a créé un groupe NRD (Nouveaux Réseaux de données) en 1971 et a reçu des propositions notamment de l’Allemagne, tournée vers la commutation de circuits (ce qui deviendra X21), du Royaume-Uni qui défend plutôt EPSS, de la France, étudiant certes Hermès, son futur réseau de commutation de circuits mais qui très vite veut également tirer parti des recherches lancées sur le RCP (Réseau à commutation de paquets). Pour la période 1972-1976 le CCITT lance une étude sur la commutation de paquets. Rémi Després qui alors participe aux organismes de normalisation se souvient que dès le début des réunions se pose le problème du choix technique à faire entre circuits virtuels et datagrammes car même au sein des télécommunicants le consensus n’est pas total :

Au CCITT un rapporteur avait été nommé sur le sujet des paquets. C’était Harold Bothner-By, un représentant de l’Administration norvégienne, et peu de temps après à la CEPT (Commission Européenne des Postes et Télécommunications) un rapporteur a été nommé, c’était moi. Dès que les discussions sur la normalisation sont apparues, ce sont opposés les deux principes circuits virtuels et datagrammes. Harold Bothner-By était assez orienté datagrammes, c’est lui d’ailleurs qui a inventé le mot dans un train entre Rennes et Paris. (…) Mais il était un peu marginal dans sa façon de voir les choses par rapport au monde des télécoms  [3] .

La France va alors chercher des accords internationaux pour imposer les circuits virtuels. Elle trouve deux partenaires : ses homologues du Bell Canada, au départ tournés vers un projet Datapac avec datagrammes, mais qui vont préférer les circuits virtuels  [4], et l’entreprise privée américaine de Larry Roberts qui, après son expérience à Arpanet a développé Telenet, un service en mode paquets qui repose sur les circuits virtuels. Pourquoi un tel changement de la part de Larry Roberts ? Pour Louis Pouzin  [5]ce virage est dû au fait que celui qui pourtant a travaillé au projet Arpanet, dont la technique est au départ un système de datagrammes empruntant quelques éléments aux circuits virtuels (contrairement aux « datagrammes purs »  [6]des Français), s’est rendu compte que les Américains restent encore dans des logiques de lignes louées et que les circuits virtuels conservent cet aspect de ligne qui peut être « rassurant ». Larry Roberts cherche un soutien officiel pour Telenet et peut le trouver au CCITT auquel participe le département du commerce : si celui-ci soutient les circuits virtuels (et par conséquent Telenet), l’Administration Américaine peut elle aussi soutenir Telenet. Ces deux alliés sont une première victoire pour les PTT français, mais ils n’ont pas droit de vote au CCITT (droit réservé à leur Administration), aussi pour remporter la bataille des normes les PTT ont-ils besoin d’un autre allié qu’ils trouveront « en la personne de Philipp Kelly du British Post Office, avec qui P. Picard a su établir des relations de confiance notamment sur projet de réseau Euronet que doit mettre en place le CEPT »  [7]. Philipp Kelly décide de faire basculer le BPO d’une position de réserve envers les propositions françaises à leur soutien actif. Ce soutien était loin d’être acquis, d’autant qu’avec leur entrée dans le projet EIN, les britanniques s’étaient ralliés aux datagrammes, EIN étant même dirigé par un représentant du NPL, Derek Barber.

Le BPO a lui aussi un droit de vote au CCITT et Philipp Kelly donne le numéro X25 à cet avis. L’Avis X25 est accepté en Mars 1976 par le CCIT et confirmé en septembre-octobre 1976 par une réunion plénière. Immédiatement la SESA doit remplacer le protocole initialement défini pour Transpac par X25. Parallèlement en Europe se développent des réseaux similaires à Transpac (ainsi aux Pays-Bas, en Espagne, les autres pays adoptant ensuite Euronet qui s’appuie sur X25 et se met en place dans les années qui suivent).

Cette réussite des télécommunicants au CCITT, qui est par principe leur chasse gardée ne doit pas faire ignorer l’œuvre française des informaticiens dans l’organisme de normalisation qui les concerne, à savoir l’ISO (International Standards Organization).

On retrouve dans l’action des informaticiens un des objectifs initiaux de Cyclades, celui de connecter des matériaux hétérogènes et de faire des réseaux généraux d’ordinateurs, et la normalisation qu’ils recherchent dépasse de loin la simple question des datagrammes. Ce projet est très novateur car encore dans les années 1968-1969 « le modèle de l’époque relevait du jacobinisme parfait : un ordinateur central était relié à quelques centaines de terminaux par le moyen de circuits téléphoniques loués aux PTT. Pour le reste il s’agissait d’exploiter au maximum les vertus du temps partagé : le calculateur répondait tout à tour à chacun des terminaux »  [8]. De plus la stratégie commune jusque-là pour interconnecter les ordinateurs consistait à créer des modules spécialisés pour réaliser les différentes fonctions. Aucune politique globale n’existait et quelques constructeurs d’ordinateurs avaient proposé des architectures complètes de réseau spécifiques comme DECnet de Digital Equipement Corporation, et Systems Network Architecture (SNA)  [9]d’IBM. Or ce sont des spécifications de constructeurs et non des normes générales. Aussi en 1977 l’Organisation Internationale pour la normalisation, ISO, crée un sous-comité chargé d’étudier la mise au point d’un ensemble de protocoles de communication non spécifique à un constructeur mais répondant à l’ensemble des besoins des constructeurs  [10], le sous-comité SC 16 chargé de mettre au point des normes pour l’interconnexion d’un ensemble hétérogène d’ordinateurs. Le premier modèle de référence est achevé en 1979 : c’est l’OSI (Open Systems Interconnection), fruit des concertations qui ont lieu à l’ISO mais aussi à l’ECMA (European Computer Manufacturers Association dans laquelle se trouvent des grandes sociétés informatiques comme Bull, Siemens, ICL, DEC, IBM, par l’intermédiaire pour les deux derniers de leurs filiales européennes). Si les datagrammes ne triomphent pas, c’est une autre idée du projet Cyclades qui prend là de l’ampleur. Les idées développées dans le projet pilote de l’IRIA servent notamment à l’élaboration du modèle à sept couches de l’OSI. Cette idée, déjà en germe dans Arpanet, avec l’introduction de quelques couches, a été surtout pensée et développée dans Cyclades, sous l’influence de Louis Pouzin et Hubert Zimmmerman. Des couches bien définies sont créées, ainsi que les moyens de passer de l’une à l’autre. C’est là un point marqué vis-à-vis d’IBM et de son architecture SNA. IBM va en effet devoir prendre en compte sérieusement l’OSI. Ainsi Marc Levilion, d’IBM France, passe-t-il à IBM Europe, pour mettre en place la participation à une organisation OSI et la grande société américaine est amenée à étudier pour ses produits SNA des passerelles vers OSI  [11].

Face à la normalisation de X25, a lieu un accord entre le CCITT et l’OSI qui décident de travailler en commun. X25 est reconnu dans les couches basses de l’OSI même si cette architecture peut fonctionner avec des datagrammes (mode non connecté).

Si les informaticiens français voient même s’imposer X25 dans leur architecture, leur contribution à l’OSI reste majeure. Quant à la DGT, elle a pour l’instant tout lieu de se féliciter de ce résultat sur le plan international, couplé à celui de Transpac et d’Euronet.

Cependant de par son système plus libéral, plus ouvert à la concurrence, aux grandes firmes industrielles informatiques conquérantes et à l’éparpillement des centres de recherches et de décisions, beaucoup plus affranchis de la tutelle étatique que dans le cas européen, les États-Unis restent l’inconnu. Certes IBM a acté l’existence de X25 (en développant de simples passerelles permettant dans SNA de substituer des circuits virtuels aux liaisons spécialisées) mais le consensus autour de X25 ne semble pas acquis et tandis que l’on discute longuement au sein de l’ISO, les recherches Outre-Atlantique ont continué à se développer dans des voies variées et originales.

---
  1. [37] B. Lelong, A. Mallard, « Présentation », Réseaux, Communication, Technologie et Société, n° 102, vol. 18, 2000, p. 93-115, p. 11 : « Norme : un document déterminant des spécifications techniques de biens, de services ou de processus qui ont vocation à être accessibles au public, résultent d’un choix collectif entre les parties intéressées à sa création et servent de base pour la solution de problèmes répétitifs ».
  2. [38] Entretien avec R. Després du 4 mars 2003.
  3. [39] Entretien avec R. Després du 4 mars 2003.
  4. [40] Voir les articles de R. Després « Les origines de l’AvisX25 du CCITT et du réseau Transpac », Troisième Colloque Histoire de l’Informatique, INRIA, octobre 1993, Sophia-Antipolis et « Normes et standards en transmission de données », Entreprises et Histoire, juin 2002, n° 29.
  5. [41] Entretien n° 2 avec Louis Pouzin du 11 mars 2003.
  6. [42] L’expression est de Gérard Lelann lors de notre entretien n° 2 du 18 mars 2003.
  7. [43] R. Després « Les origines de l’Avis X25 du CCITT et du réseau Transpac », Troisième Colloque Histoire de l’Informatique, INRIA, octobre 1993, Sophia-Antipolis.
  8. [44] L. Pouzin, « Cyclades ou comment perdre un marché », La Recherche, p. 32.
  9. [45] D. Dromard, L’architecture SNA, Paris, Eyrolles, 1989, 215 p.
  10. [46] R. J. Deasington, X25, Protocole pour les réseaux à commutation de paquets, Paris, Masson, 1987, 121 p.
  11. [47] Entretien avec Marc Levilion, le 25 février 2003.


Un foisonnement d’innovations informatiques aux États-Unis depuis les années 1960

Aux États-Unis la commutation par paquets a une histoire plus ancienne qu’en Europe. Dans le contexte de la Guerre Froide, un premier apport à ce qui deviendra la commutation de paquets, est celui de Paul Baran à la Rand Corporation : la vulnérabilité du système de transmission de données est considéré par les américains comme un redoutable « talon d’Achille »  [1]et P. Baran cherche le moyen de transmettre des données sur un réseau détruit à plus de 50 % par des ennemis dans l’armée (1960). Aussi développe-t-il un système qu’il nomme message switching et qu’il décrit comme celui de la « patate chaude »  [2] : il s’agit de découper les messages en segments et de faire suivre à chaque segment le chemin le plus rapide et praticable pour atteindre son destinataire.

Parallèlement d’autres innovations jouent un rôle majeur dans l’avenir des réseaux de données, donnant réalité aux recherches visionnaires de J. C. R. Licklider, qui depuis 1962 développe l’idée d’un réseau planétaire et de l’ordinateur comme machine à communiquer et non comme simple machine de calcul.

Ainsi le lancement par les informaticiens du Massachusetts Institute of Technology (MIT) du projet MAC (Multiple Access Computer) permet à plusieurs usagers de travailler simultanément sur une même machine. Le professeur L. Kleinrock, à UCLA, université de Californie, travaille quant à lui, en parallèle à P. Baran, sur une architecture de réseaux qui reposerait sur la transmission par paquets, tandis que le temps partagé (le Time-Sharing System  [3]), développé au MIT par J. Mac Carthy et J. Minsky a rendu possible un système de partage d’information (on-line system)  [4]et un mode conversationnel, la réalisation la plus célèbre étant SABRE (1963) pour les réservations de place d’avions d’American Airlines. Parallèlement enfin, T. Marill à l’ARPA cherche à mettre fin à l’incompatibilité entre les systèmes informatiques.

Toutes ces innovations se rencontrent au cours de différents projets. En juillet 1961 L. Kleinrock publie au MIT un papier sur la théorie de la commutation de paquets et un premier livre sur le sujet en 1964. Il convainc Larry G. Roberts, lui aussi au MIT, de la faisabilité d’un réseau qui reposerait sur les paquets et non les circuits. La deuxième idée force est de permettre à des ordinateurs de communiquer entre eux. Travaillant avec T. Merill en 1965, c’est à nouveau Larry Roberts qui connecte les ordinateurs TX-2 au Massachusetts et Q-32 en Californie, réalisant ainsi le premier réseau d’ordinateurs connectés sur une longue distance et démontrant les possibilités du time-sharing.

En 1966 Larry Roberts, passé à l’Arpa  [5], lance l’idée de construire un réseau informatique avec des choix techniques novateurs, qui feraient en quelque sorte la synthèse des innovations précédentes : animateur du projet, Larry Roberts choisit en effet un mode de transmission par paquets pour le réseau Arpanet qui doit relier des centres de recherche universitaires  [6]et a inscrit dans ses principes l’idée de mettre fin aux structures centralisées des réseaux. La conceptualisation de ce projet commence en 1967, autour de l’Association of Computing Machinery (ACM), à laquelle participent des chercheurs américains bien sûr, mais également deux britanniques du National Physical Laboratory (NPL), R. Scantlebury et D. W. Davies, déjà évoqué.

La même année 1967 est formé le NWG (Network Working Group), dirigé au début par S. Crocker  [7], et toute une équipe se constitue pour donner naissance à l’ambitieux projet Arpanet de construction d’un réseau d’ordinateurs hétérogènes reposant sur la commutation de paquets. Travaillent à sa réalisation des pionniers dans le domaine des réseaux tels L. Kleinrock, d’anciens camarades de Larry Roberts d’UCLA, quelques étudiants parmi lesquels figurent les futurs grands noms de l’aventure internet tel Vinton Cerf et Jon Postel. Robert Kahn rejoint également l’aventure d’Arpanet en 1968, par le biais de BBN, firme de consultants qui décroche le contrat avec l’ARPA pour créer un IMP, Internet Message Processor, permettant de rendre possible la communication entre ordinateurs hétérogènes. En mai 1969 le groupe de BBN (Bolt Beranek and Newman) dirigé par Franck Heart rédige un rapport définissant l’IMP, tandis que Larry Roberts et le NWG élaborent le protocole de base de la commutation de paquets : NCP (Network Control Program) et que L. Kleinrock, passé à UCLA continue lui aussi à enrichir le système au sein d’un Network Measurement Center. En 1969 le réseau démarre réellement et dispose de quatre connexions entre universités aux États-Unis, la première ayant lieu avec UCLA.

La technique de la commutation par paquets est par ailleurs étudiée et utilisée aussi dans certains réseaux privés, indépendamment d’Arpanet, comme dans SITA, réseau de communication entre les compagnies aériennes  [8].

---
  1. [48] P. Baran, « The beginnings of Packet Switching : Some Underlying Concepts », IEEE Communications Magazine, « The internet Past, Present and Future », juillet 2002, vol. 40, n° 7, p. 42.
  2. [49] Idem, p. 45.
  3. [50] Le système de temps partagé consiste en le fait que plusieurs utilisateurs ont un accès direct au calculateur, chacun d’eux en obtenant une réponse dans un délai convenable.
  4. [51] « L’idée de relier des ordinateurs apparaît inévitable à partir du moment où le temps partagé devient une réalité en informatique », J.-C. Guédon, « La force de l’intelligence distribuée », La Recherche, n° 328, février 2000, p. 16.
  5. [52] Advanced Projects Research Agency, agence américaine de gestion des projets de recherches financés sur des crédits militaires et créée en 1957.
  6. [53] D. E. Comer, The internet Book, Everything you need to know about Computer Networking and how the internet works, Londres, Prentice Hall International Édition, 1994, 312 p.
  7. [54] Voir le site de l’Internet Society : http://www.isoc.org/internet/history/.
  8. [55] La Société Internationale des Télécommunications Aéronautiques a été créée en 1949 par un groupe de onze compagnies aériennes et son réseau a démarré au début avec un petit nombre de téléimprimeurs basse vitesse.


D’Arpanet à Internet

En octobre 1972, R. Kahn réalise une démonstration d’Arpanet à l’ICCC (International Computer Communication Conference). C’est la première démonstration publique de cette technologie  [1]. Mais déjà les objectifs du NWG (Network Working Group), présidé après S. Crocker par Vinton Cerf  [2], commencent à évoluer : on y réfléchit de plus en plus, face à la prolifération des réseaux, à la manière de pouvoir les relier entre eux, et à la suite de séminaires organisés par Vinton Cerf sur les questions de protocoles, celui-ci et R. Kahn publient en 1974 un article qui définit TCP (Transmission Control Protocol). Cette contribution  [3]est le démarrage de TCP/IP et d’internet. L’idée est de pouvoir connecter et faire communiquer de nombreux réseaux indépendants de conception différente et même des réseaux radio ou satellites utilisant les paquets  [4], ce que ne permet pas NCP. Ceci doit reposer sur une architecture ouverte, selon l’idée introduite par R. Kahn principalement après son arrivée à l’ARPA en 1972. Aussi a-t-il développé une nouvelle version de NCP, avec l’aide de Vinton Cerf, alors à Stanford et qui a déjà été impliqué dans la création de NCP. L’approche architecturale de R. Kahn et l’expérience de NCP de Vinton Cerf ont permis de définir TCP. La première version est distribuée à une réunion de l’International Network Working Group qui se tient en septembre 1973 à l’Université de Sussex  [5], avant le papier de 1974.

TCP est au départ dans une version qui n’autorise que les circuits virtuels mais les premières applications des paquets pour la voix montrent les limites de ce choix et il y a réorganisation du TCP original en TCP et IP  [6], qui sont deux protocoles distincts. IP (Internet Protocol) spécifie que le flot de données émis par un ordinateur vers un autre doit être au préalable découpé en paquets et utilise « les datagrammes purs », et TCP (Transport Control Protocol) permet aux deux ordinateurs communicants de détecter des pertes de paquets et de les retransmettre si nécessaires  [7]. Une longue phase d’expérimentation commence alors à Stanford, BBN et UCL  [8].

Dès 1979, les chercheurs en informatique soutenus par la National Science Foundation, derrière Larry Landweber de l’université de Wisconsin, Rick Adrion, et David Farber ont formé un réseau CSNet  [9], connecté à partir de 1980 à Arpanet en utilisant les protocoles TCP/IP sur suggestion de V. Cerf. De plus, le 1er janvier 1983 Arpanet bascule sous TCP/ IP  [10]et abandonne NCP, mélange hybride de datagrammes et de circuits virtuels.

Concentrés sur OSI, X25 et sur le concurrent qu’est aux yeux des européens IBM, les télécommunicants ne voient pas le développement rapide de TCP/IP et notamment son implantation dans Unix, système lui aussi voué à une large diffusion. Ce système d’exploitation, dont les principaux atouts sont la « rusticité », et la relative facile portabilité sur plusieurs types de machines, est né dans l’esprit de chercheurs d’AT&T qui travaillaient au développement d’un système d’exploitation multi-tâches pour les mini-ordinateurs apparus notamment chez Digital Equipement Corporation. Unix a un autre avantage : celui d’être offert à bas prix ou donné aux universités (à la suite de la décision de la Justice américaine d’empêcher ATT d’en tirer parti). Or Unix, qui se développe en dehors de tous corps d’État et va à la rencontre de son public lors des conférences Usenix, se soumettant à la critique publique, est rapidement adopté par les universités américaines. Pour qu’internet évolue un des défis majeurs est de le propager dans le software et l’ARPA convainc l’université de Berkeley de modifier le système Unix pour intégrer les protocoles TCP/IP. La nouvelle version d’Unix en 1983 est dotée de TCP/IP  [11]. La rencontre d’Unix et de TCP/IP est alors officielle, bien que des liens aient déjà étaient établis avant (notamment par l’intermédiaire de CSNet né de Theorynet qui utilisait UUCP (Unix to Unix Copy), logiciel qui permet à une machine utilisant Unix de contacter par ligne téléphonique ou modem une autre machine Unix pour échanger des fichiers avec elle)

---
  1. [56] La même année est introduite la première application de mail électronique, (développée en mars à BBN par Ray Tomlinson et poursuivie par L. Roberts).
  2. [57] Vinton Cerf, « Comment l’internet est devenu une réalité » : http://www.fnet.fr/history/VintonCerf.html.
  3. [58] Vinton G. Cerf et Robert E. Kahn, « A Protocol for packet network intercommunication », IEEE Transactions on Communications, COM- 22, mai 1974, p. 637-648.
  4. [59] Voir le site de l’Internet Society : http://www.isoc.org/internet/history/.
  5. [60] Idem.
  6. [61] Idem.
  7. [62] Ces protocoles sont des protocoles de transmission (tout comme X25). Par ailleurs seront également développés au fil des années des protocoles d’application tels SMTP (Simple Mail Transport Protocol) pour la messagerie électronique (créé en 1983, par J. Postel), FTP pour le transfert de fichier, Telnet pour se connecter à distance depuis un terminal vers un ordinateur distant. Ces protocoles ont pour principale qualité d’être ouverts et publics, « produits par une structure légère ouverte à tous : IETF (Internet Engineering Task Force) », voir F. Fluckiger, « Le réseau des chercheurs européens », La Recherche, n° 328, février 2000, p. 26.
  8. [63] Voir le site de l’Internet Society.
  9. [64] Le réseau au départ baptisé Theorynet est un réseau pour les chercheurs afin de mettre fin à l’inégalité entre les centres qui ont et ceux qui n’ont pas Arpanet, puis en 1979 une réunion de l’ARPA et de la NSF (National Science Foundation) crée CSNet.
  10. [65] J.-C. Guédon, « La force de l’intelligence distribuée », La Recherche, n° 328, février 2000, p. 21.
  11. [66] http://www.isoc.org/internet/history/.


L’OSI face à Internet : deux logiques de « normalisation » et de développement très différentes

En Europe la situation au même moment est confuse, alors que les chercheurs réclament de plus en plus un réseau transnational. Certes des réseaux de chercheurs ont vu le jour au début des années 1980, tel JANET en Grande-Bretagne, DSN en Allemagne ou SURFNet aux Pays-Bas, mais ceux-ci sont des réseaux nationaux qui choisissent en général OSI. Or les États-Unis ont ouvert la voie à des réseaux entre chercheurs plus larges par exemple avec BITNet, Because It’s Time to Network, de la City University of New-York créé par Ira Fuchs et Greydon Freeman, qui devient opérationnel début 1981 soutenu par IBM  [1], ou CSNet (Computer Science Network) déjà évoqué  [2].

En 1983 a lieu un tournant important. C’est non seulement la première réunion à Oslo de coordination à l’initiative de L. Landweber de ce qui deviendra en 1991 l’ISOC (conférences officielles de l’Internet Society), l’entrée de TCP/IP dans Arpanet et Unix, mais également la proposition, face au succès de BITNet aux États-Unis, par IBM, de créer pour les centres universitaires européens un réseau équivalent à BITNet, fondé sur des protocoles de communication propriétaires d’IBM  [3]. C’est une tentative de l’important constructeur américain de faire face à Unix et TCP/IP. Ce réseau prend le nom d’EARN (European Academic and Research Network) et entre en exploitation en 1984  [4]. Si le succès est immédiat, les avis sont très mitigés face à ce réseau créé par une entreprise américaine qui de plus n’utilise pas l’OSI, à tel point que Dennis Jennings, à la tête de EARN, proposera de remplacer l’infrastructure de transport de EARN par OSI (mais les applications restent des protocoles propriétaires de IBM !  [5]). Les Européens tentent de réagir et de promouvoir OSI en 1984-1985, derrière la Commission Européenne et P. Linnington directeur de JANET, en lançant le projet RARE (Réseaux associés pour la recherche européenne), qui doit converger vers OSI. Les années 1986/1988 sont marquées par le conflit de RARE et EARN, ce qui laisse une place libre dans laquelle s’immisce un autre réseau EUNet (European Unix Network), réplique du USENet américain créé en 1979 qui repose sur le système Unix  [6], mais également sur TCP/IP et donc les datagrammes depuis 1988. Parmi les partenaires européens principaux de EUNet on trouve d’ailleurs l’INRIA. L’OSI entre alors dans un bras de fer avec Internet puisqu’il est question à la Communauté Européenne de financer une infrastructure réseau OSI pour la recherche européenne : COSINE (Coopération for OSI Network in Europe achevé en 1988). Mais COSINE ne peut enrayer la déferlante de TCP/IP, réclamé par tous ceux qui souffrent de la complexité de l’OSI et repousse le système IBM. Même RARE recommande le 22 janvier 1990 d’accepter la technologie TCP : « Sans remettre en cause l’engagement à long terme de l’organisation en faveur des protocoles OSI, RARE reconnaît que les protocoles internet sont bien adaptés aux applications scientifiques et offrent des services requis par une partie de sa communauté, et non fournis à ce jour par les normes OSI »  [7]. Déjà l’INRIA de Sophia-Antipolis a mis en place dès 1988 à l’initiative de C. Huitema une connexion internet avec les États-Unis, tandis que la même année IBM, essayant de réduire sa participation financière à BITNet pour la faire supporter plus largement aux universités, contribue au choix du système Unix qui incorpore les protocoles TCP/IP.

Si l’OSI et Internet avaient au fond les mêmes objectifs, Internet qui fait triompher contre toute attente les datagrammes, montre ici la victoire d’une logique totalement différente de celle connue jusqu’à présent dans le cadre de la normalisation. L’ISO a mis des années à mettre en place OSI :

L’OSI était devenu beaucoup trop compliqué au niveau de la conception. Il y a un vice que les Américains appellent Bells and Whistles, « décorer de cloches et de sifflets ». L’OSI, trop riche et compliqué, devenait difficile à saisir et à mettre en œuvre et les entreprises s’en rendaient compte  [8] .

Pour internet une voie différente a été choisie : mettre l’innovation sur le marché, montrer qu’elle marche et la faire évoluer ensuite de façon pragmatique.

Cette méthode de travail, au demeurant centrée sur l’individu, et par extension fondée sur une certaine notion d’individualisme (…) diffère profondément des procédures hiérarchisées en vigueur dans les organismes officiels de standardisation tels que l’ISO ou l’UIT (Union Internationale des Télécommunications)  [9] .

Dès 1983 est créé le Internet Activities Board (IAB), qui permet l’accès de chacun à ce qui s’est appelé au départ Internet Experiment Notes puis RFCs (Requests for Comments) où figurent les protocoles d’internet que tout le monde peut consulter, essayer, enrichir  [10]. Les RFC sont apparus en 1969 à l’initiative de S. Crocker car le cycle traditionnel pour les échanges d’idées lui paraissait trop long face à la rapidité des créations (et les RFC sont même accessibles en ligne à la création du FTP-File Transfer Protocol).

Cette différence de conception pour le développement d’une innovation entre les Américains et les télécommunicants français en particulier, pour qui un système ne peut être proposé et développé que lorsqu’il offre une certaine qualité de service, est résumée par Rémi Després : « Reste le génie propre de l’approche retenue pour le réseau des réseaux, celui d’un service best effort, autrement dit sans aucun engagement de performance »  [11].

Par ailleurs la gratuité de TCP/IP, sa souplesse, son insertion dans Unix, mais aussi sa large adoption dans le cadre des universités américaines, au vaste réseau de chercheurs, et donc au potentiel de diffusion géographique et humain très large, face auquel aucun pays européen ne peut rivaliser seul, expliquent, au moins partiellement, ce développement d’internet. Internet a su créer une vaste communauté de recherches, en créant par exemple l’INWG (Internet Network Working Group), l’Internet Society en 1991, ou des systèmes de coordination comme l’International Cooperation Board, ou l’ICCB (Internet Configuration Control Board remplacé ensuite par un Task Force). Le développement technique d’internet se fait dans des communautés de chercheurs beaucoup plus larges que celles de la France, où deux communautés seulement travaillent vraiment au développement des réseaux et où les industriels sont peu investis dans les recherches.

Les logiques qui ont permis le succès d’Internet au niveau mondial sont donc certes la logique technique, qui a fait privilégier un système simple, aux multiples possibilités, la logique industrielle (l’entrée de TCP/IP dans Unix enrichit l’un et l’autre), mais également la logique économique d’un système gratuit et simple d’accès pour tous. Enfin la logique d’une normalisation de fait et évolutive, qui permet de ne pas figer l’innovation dans des structures strictes, a eu un rôle important.

---
  1. [67] http://www.isoc.org/internet/history/.
  2. [68] F. Fluckiger, « Le réseau des chercheurs européens », La Recherche, n° 328, février 2000, p. 25.
  3. [69] Idem, p. 27.
  4. [70] Site de l’Internet Society, http://www.isoc.org/internet/history/, article de V. Cerf, « A brief history of the internet and related Networks ».
  5. [71] F. Fluckiger, « Le réseau des chercheurs européens », La Recherche, n° 328, février 2000, p. 28.
  6. [72] Usenet est développé à partir de 1979 à l’université de Duke, notamment grâce efforts de Tom Truscott ou Jim Ellis.
  7. [73] Texte cité par F. Fluckiger, « Le réseau des chercheurs européens », La Recherche, n° 328, février 2000, p. 29.
  8. [74] Entretien avec M. Levilion du 25 Fécrier 2003. M. Levilion ajoutait : « Par ailleurs, sous la pression des instances européennes de normalisation, il a été mis en œuvre une stratégie appelée “normalisation fonctionnelle”, consistant à découper dans l’OSI des tranches correspondant approximativement aux besoins de telle ou telle application informatique dans tel ou tel environnement de transmission de données, en faisant fi des mécanismes de négociation d’options de l’OSI. Des comités, comme l’EWOS (European Workshop on Open Systems) subventionné par la Commission Européenne, ont été chargés de ce travail. Son résultat le plus clair a été de retarder le processus de finalisation de l’OSI, déjà long, de créer des domaines d’incommunicabilité et de donner de l’OSI une image de confusion et de complexité, qui a fait peur aux entreprises ».
  9. [75] F. Fluckiger, « Le réseau des chercheurs européens », La Recherche, n° 328, février 2000, p. 26.
  10. [76] Site de l’Internet Society, http://www.isoc.org/internet/history/, article de V. Cerf, « A brief history of the internet and related Networks ».
  11. [77] R. Després, « Normes et standards en transmission de données », Entreprises et Histoire, juin 2002, p. 52.


Pour conclure…

À l’issue de ce parcours sur l’histoire du développement de la commutation de paquets au niveau français, européen et international plusieurs remarques se dégagent :

  • au niveau français les logiques à l’œuvre dans le développement de la commutation de paquets diffèrent selon les centres de recherches et leur origine liée à l’informatique ou aux télécommunications. Le problème est aussi bien culturel, que technique, ou même politique. Par ailleurs il faut souligner que même au sein des télécommunicants des réticences à l’adoption de la commutation par paquets ont divisé les chercheurs, certains étant profondément attachés à la commutation de circuits. R. Després se souvient de résistances internes aux Télécoms face au développement des circuits virtuels quand il lance RCP, puis que se développe Transpac :
Là il y avait des résistances vraiment culturelles. De nombreux ingénieurs considéraient que la commutation de circuits telle qu’elle se perfectionnait au cours du temps, et notamment avec la commutation temporelle, suffirait. L’argument essentiel était : les données ne sont qu’une goutte d’eau dans l’océan téléphonique et donc utiliser la technologie téléphonique pour les données ne coûtera que des sommes marginales. Mais techniquement c’était assez mal adapté. Ainsi culturellement il y avait cette objection technique, peu valable me semblait-il. Et s’ajoutaient également des considérations plus politiques, du fait que le mode paquets faisait appel à des technologies informatiques et que d’autres entités étaient plus avancées dans ces technologies et risquaient de prendre le dessus  [1] Entretien avec R. Després du 4 mars 2003.
  • Au niveau européen la CEPT, l’ECMA et la Commission Européenne sont des cadres dans lesquels se rencontrent les grands projets de réseaux européens et le même constat ressort : à l’exception de la Communauté Européenne, les organismes de concertation sont cloisonnés entre informaticiens et télécommunicants, (et même à la Commission Européenne, les projets EIN et Euronet ont leur « couleur » plus informatique ou télécommunicante), rendant difficile le consensus, ou tout simplement l’échange d’idées. Aussi les logiques culturelles, techniques et politiques relevées au niveau national ne diffèrent-elles pas au niveau européen, mais sont simplement rendues plus complexes par la nécessité de convaincre un nombre de partenaires plus large.
  • Au niveau international, le cloisonnement est repris entre le CCITT et l’ISO, même si des observateurs peuvent circuler d’un monde à l’autre. Là encore la négociation est certes technique mais relève aussi très largement de démarches politiques. Ainsi M. Atten a-t-il pu noter :
Les comités de normalisation sont des arènes de négociations internationales. Ils partagent avec ce type d’instances (économiques, politiques, diplomatiques, commerciales…) bien des traits. Citons notamment : la solution adoptée est le fruit d’un compromis et la notion de « meilleure solution » (technique) n’a pas de sens. La désignation des représentants « nationaux », à la fois délégués de leur pays, de leur administration ou entreprise de réseaux, de leur centre de recherche, de leur domaine de recherche est déjà le produit de débats contradictoires au sein de chaque pays  [2]

Un second constat s’impose au niveau international : la circulation des idées, mais aussi des hommes (Louis Pouzin est allé au MIT en 1963, Gérard Lelann à Stanford auprès de Vinton Cerf, Rémi Després a passé un an à Berkeley en 1967, même si ces trois parcours restent exceptionnels), entraîne une convergence des recherches sur les réseaux de données, et les Européens n’ont pas été en reste au début de l’histoire de la commutation de paquets, nuançant l’idée trop souvent convenue du « retard technique » face aux États-Unis.

Enfin, le développement d’internet, dont il n’est pas possible ici de développer toutes les étapes ni les raisons du succès (il faudrait aussi parler de l’Interop Trade Show, du world wide web, et de bien d’autres réalisations), montre un profond changement dans les logiques jusque-là adoptées par le monde des télécommunications et de l’informatique pour développer une innovation. Il a ouvert la voie à une normalisation de fait de plus en plus commune dans la recherche informatique, tant pour les matériels que les applications ou les protocoles. Ainsi HTML (Hypertext MarkUpLangage) et HTTP (Hypertext Transport Protocol), tout comme TCP/IP, se sont développés, après leur invention au CERN par Tim Berners-Lee en 1989 [3], de manière pragmatique, sur le terrain, en faisant leurs preuves :

Il ne faudrait pas oublier la méthode. Plutôt que de se contenter de spécifier la technologie, ce qui est la méthode traditionnelle des organes de normalisation, Tim l’a réalisée, et offerte à tous. Plutôt que dire « Voilà comment doit fonctionner HTTP (Hypertext Transport Protocol), à vous de le développer, de conduire les tests », il a dit : « Voilà du logiciel ; chargez-le, il marche ». Et il marchait [4].


---
  1. [78] Entretien avec R. Després du 4 mars 2003.
  2. [79] M. Atten, « La négociation au cœur de la technique. Normalisation et innovation dans les télécoms », Réseaux, Communication, Technologie et Société, n° 102, vol. 18, 2000, p. 142-163, p. 160.
  3. [80] Voir l’interview de Tim Berners-Lee, « Risques et limites du web », p. 62 et suiv., La Recherche, n° 328, février 2000, p. 29.
  4. [81] F. Fluckiger, « Le réseau des chercheurs européens », La Recherche, n° 328, février 2000, p. 31.