18 Mai 2018

Nicolas Curien

Membre du collège de l'Autorité de régulation des communications électroniques et des postes et membre de l'Académie des technologies

Mes premiers mots s'adressent à Jean-Pierre Causse, d'abord pour le remercier de m'avoir convié à intervenir dans le cadre de cette séance, ensuite parce que je lui dois une petite explication. En effet, lorsqu'il m'a appelé au printemps dernier pour me faire cette proposition, j'ai hésité environ un quart de seconde et je suis certain qu'il l'a perçu ! En voici la raison. L'homme que nous honorons aujourd'hui, et avec lequel j'ai un lien très privilégié, m'avait un jour prodigué un conseil avisé : « Si tu dois participer à une réunion où l'on discute d'un sujet sur lequel tu n'as pas de compétence particulière, évite de trop t'exprimer, écoute avec attention, prends l'air intéressé, tu apprendras beaucoup et tu paraîtras plus intelligent que tu n’es ! ». On l'a compris, le dilemme était cruel. Ou bien j'observais le conseil, déclinais l'offre et manquais sans vergogne à mon filial devoir de mémoire ; ou bien, j'oubliais le conseil, acceptais l'offre et m'exposais à raconter de lourdes sottises devant un auditoire aussi qualifié que le vôtre... Vous comprendrez certainement pourquoi, entre deux maux, je n'ai guère tardé à choisir la seconde option et saurez donc m'accorder votre indulgence. Rassurez-vous cependant : avec Jean-Pierre Causse, nous avons circonscrit le risque en convenant que je ne parlerai que de satellites de télécommunications, les télécoms étant un secteur qui m'est un peu plus familier que celui du spatial, et que j'insisterai sur les aspects économiques, moins inconnus de moi que les aspects techniques.

Mais tout d'abord, un peu d'histoire.

C'est un auteur de science-fiction, Arthur Clarke, qui le premier énonce le principe du satellite de communication géostationnaire situé à environ 36000 km d'altitude, en position fixe par rapport à la Terre. Précis, Clarke va jusqu'à souligner que trois satellites suffiraient, du moins en théorie, à couvrir l'ensemble du globe. Pour passer de cette fiction visionnaire à la réalité technologique, à peine vingt ans seront nécessaires. La procédure géostationnaire est en effet testée dès 1964 avec les satellites Syncom, développés par l'industriel américain Hughes, qui permettent la retransmission télévisée des jeux olympiques de Tokyo. Puis le premier satellite du consortium Intelsat,  Early Bird, est placé sur l'orbite géostationnaire en 1965, année qui marque la véritable date de naissance des télécommunications spatiales.
Certes, des satellites de communication ont été lancés auparavant mais, gravitant sur des orbites basses, ils défilaient par rapport au sol, exigeant des stations terrestres équipées d'antennes de poursuite. Ouvrant cette ère pré-géostationnaire, le premier Spoutnik est mis en service en 1957, juste un an après la pose du premier câble sous-marin transocéanique. Puis, en 1962, le satellite Telstar 1 de AT & T, lancé de Cap Canaveral, permet la première mondiovision entre les trois stations d'Andover dans le Maine, de Goonhilly Downs en Cornouailles et de Pleumeur-Bodou en Bretagne, un site où l'on peut aujourd'hui encore visiter le radôme, comme un vestige muséologique... Si, à l'époque, les ingénieurs français pouvaient s'enorgueillir d'avoir capté le signal émis des États-Unis en avance d'une révolution du satellite Telstar sur la Grande-Bretagne, force en revanche est de constater que l'ensemble de la technologie alors utilisée était américaine, qu'il s'agisse du lanceur, du satellite ou de l'antenne de poursuite, une domination qui sera longue à rééquilibrer. En particulier, ce n'est qu'en 1984 et 1985 que sera lancée la première vague des satellites géostationnaires français de télécommunication et de télédiffusion, Télécom 1A, 1B et 1C, suivie d'une seconde vague, Télécom 2A, 2B et 2C, de 1991 à 1995. Entre 1965 et 1990, les satellites de communication électronique seront tous de classe géostationnaire. Dans les années 90, toutefois, les orbites basses ont suscité un regain d'intérêt, donnant le jour à des constellations de satellites dédiées aux télécommunications mobiles, à l'Internet et aux transferts de données à haut débit. Ainsi débuta une nouvelle aventure, celle-là pour le moins hasardeuse, sur laquelle nous reviendrons dans un moment.

L'avènement des télécommunications spatiales a nécessité la résolution de nombreux problèmes, au premier rang desquels l'épineuse question de l'allocation des ressources rares consommées par les systèmes de satellites : fréquences hertziennes et positions orbitales. Ce fut l'objet des Conférences mondiales des radiocommunications, en particulier celles tenues en 1959 et 1971, que d'affecter aux différents pays demandeurs des bandes spectrales, en s'affranchissant peu à peu de la règle inéquitable du « premier venu, premier servi », qui pénalisait fortement les Européens, ainsi surtout que les nouveaux pays en développement nés de la décolonisation. Par ailleurs, au plan technique, il convenait d'optimiser les caractéristiques des satellites en réalisant le meilleur arbitrage possible entre trois paramètres critiques : la puissance, la masse et la durée de vie. Plus la puissance embarquée est importante, plus la durée de vie est longue et plus on peut réduire la taille des antennes à efficacité constante. La puissance est cependant coûteuse en masse et elle peut être économisée grâce à des panneaux solaires, sans que l'on puisse toutefois se dispenser complètement de batteries, le satellite devant aussi être alimenté lorsqu'il est dans l'ombre.

La stabilisation du satellite et le maintien de l'orientation des antennes exigent par ailleurs la présence de moteurs dont la masse est loin d'être négligeable, typiquement de 300 à 400 kg pour un satellite de 2 tonnes. Ce point particulier m'offre à point nommé l'opportunité de saluer la mémoire d'un autre de nos très regrettés confrères, Pierre Faurre, avec lequel j'ai d'ailleurs également un attachement préférentiel, puisqu'il fut mon directeur de thèse il y a près de 30 ans, lorsque le charme probabiliste des suites gaussiennes à deux indices m'émoustillait davantage que les ressorts de l'économie des télécommunications. Pierre Faurre, comme grand scientifique et comme grand industriel à travers la Sagem, a joué un rôle tout à fait majeur et éminent dans le développement de l'automatique de contrôle des satellites, c'est-à-dire le pilotage des moteurs de stabilisation.

Dans les années 1980, le remplacement des tubes électroniques par des circuits intégrés capables de résister à de forts chocs thermiques permet de gagner considérablement en efficacité et en encombrement. Néanmoins, le souci de fiabilité impose un certain degré de redondance des composants, prolongeant la durée de vie au prix d'un accroissement de la masse... En bref, une matière fort riche pour de savants calculs d'ingénieur. Et, grâce aux progrès soutenus et conjoints de la technologie des satellites et de celle des lanceurs, les résultats sont éloquents: en 40 ans, de 1965 à 2005, la durée de vie des satellites de communication a été multipliée par un facteur 5, passant de 3 à 15 ans, la puissance par un facteur 25, passant de 1 kW à 25 kW, et la masse par 100, passant de quelques dizaines de kilogrammes à plusieurs tonnes: le plus gros et le plus récent des satellites de télécommunications, Thaïcom, lancé par Ariane 5 en août 2005, pèse 6,5 tonnes !

Parallèlement à l'histoire technique, s'est jouée une pièce institutionnelle.

L'acte un est celui du monopole. En 1962, les États-Unis votent le Communications Satellite Act, instituant un monopole pour la mise en place d'un système mondial de satellites. La Comsat est créée à cet effet en 1963, société dont le capital est détenu à 50 % par des compagnies américaines, la part de l'opérateur téléphonique AT & T atteignant près de 30 %. La réaction européenne ne se fait pas attendre : suite à la Conférence européenne des télécommunications spatiales de 1963, des négociations sont engagées avec la Comsat, donnant lieu en 1964 à la création du consortium Intelsat, coopérative internationale dans laquelle les parts des différents États sont fixées au prorata des volumes de trafic. Toutefois, la suprématie américaine demeure écrasante et, sur la période 1960-1980, les industriels européens du secteur spatial ne bénéficieront que d'un taux de retour très modeste, compris entre 1 % et 10 %.

L'acte deux - celui de la concurrence - débute en 1971, date à laquelle, avec l'Open Sky Policy, les télécommunications spatiales entrent dans l'ère de la déréglementation ; une quinzaine d'années avant la libéralisation du marché des télécommunications longue distance terrestres, qui ne s'amorcera qu'en 1984, avec le démantèlement de l'entreprise AT & T. C'est ainsi que dans les années 1970 apparaissent de nouveaux consortiums d'exploitation de satellites, tels que Arabsat, Eutelsat, et Telesat, respectivement dédiés aux besoins des États arabes, des pays européens et du Canada ; ou encore Inmarsat, spécialisé dans les liaisons avec les navires et les aéronefs. C'est au cours de cette même période, en 1975, qu'est créée l'Agence spatiale européenne. Dans les années 1980, les consortiums ratifient leurs statuts et montent en puissance, contrôlés par les grandes compagnies nationales de télécommunications. Puis, à partir des années 1990, en raison de l'échec cuisant des constellations de satellites en orbite basse, que nous analyserons dans un instant, puis de l'éclatement de la bulle Internet au tournant des années 2000, les acteurs du monde des télécoms se désengagent massivement du capital des opérateurs de satellites.

Ainsi débute l'acte trois, celui de la reprise en main par la sphère financière et de la re-concentration du secteur. Les uns après les autres, les consortiums de satellites sont repris par des fonds d'investissement - par exemple Apollo, Apax, Parmira et Madison Dearborn pour Intelsat en 2004 - qui introduisent rapidement le capital en bourse afin de valoriser leurs participations. Aujourd'hui, l'américain PanAmSat, le néerlandais New Skies et Inmarsat sont déjà en bourse. Eutelsat devrait suivre avant la fin de 2005, puis très vraisemblablement Intelsat. Ces opérations facilitent la réalisation de fusions et acquisitions qui conduisent à une concentration du marché: ainsi, après s'être successivement intéressé à Eutelsat puis à New Skies, Intelsat - si toutefois il obtient l'agrément des autorités anti-trust - va finalement acquérir PanAmSat pour 3,2 milliards de dollars, devenant ainsi le leader du marché des satellites avec une part supérieure à 25 %, devant l'actuel numéro un, le luxembourgeois SES Global qui détient lui-même 20 % du marché. Ce retour, sinon au monopole de départ, du moins à un oligopole très restreint, ne constitue certes pas une bonne nouvelle pour les industriels, dont les carnets de commande risquent de se tarir sous l'effet des politiques de rationalisation des systèmes de satellites que ne manqueront pas de mettre en œuvre les nouveaux propriétaires, soucieux de leur rentabilité financière.

Concomitante à la recomposition des opérateurs de satellites, la mésaventure des constellations mérite examen. Au début des années 1990, dans le double but de réduire le délai de latence propre au satellite géostationnaire - pouvant aller jusqu'à une demie seconde pour une transmission comportant un rebond terrestre - et d'offrir à l'échelle mondiale des services de radiocommunication grand public ne nécessitant pas de terminaux trop encombrants, émerge l'idée de recourir à nouveau aux orbites basses, abandonnées depuis les années 1960. C'est ainsi que jaillit une multitude de projets tels qu’Iridium, Global-star, Skybridge, Teledesic, ICO et bien d'autres. Tous, sans exception, déboucheront sur des échecs commerciaux et des fiascos financiers. On estime que, de 1992 à 2000, 15 à 20 milliards de dollars auront été perdus dans les constellations et, en 2000, au moment de sa faillite, l'ardoise d'Iridium s'élevait à 4 milliards de dollars, celle de ICO à 3 milliards et celle de Globalstar à 1,3 milliard. Pourtant, au démarrage, ces projets paraissaient fort prometteurs...

En 1990, Motorola, espérant conquérir une position de force en matière de brevets et de normes, annonce le projet Iridium, constellation de 77 satellites - ensuite ramenée à 66 - pour un coût estimé de 3,4 milliards de dollars. En 1991, Lockheed est choisi pour le développement des satellites et Raytheon pour celui des antennes. Du côté européen, Matra Marconi Space et British Aerospace entrent au capital d'Iridium. Au salon Télécom 1991 de Genève, Qualcom et Loral Space présentent un projet concurrent d'Iridium, Globalstar, auquel s'associe une « alliance » européenne regroupant l'Aérospatiale, Alcatel Espace, Alenia et la DASA. En septembre de la même année, le consortium Inmarsat, dont le marché de radiocommunication avec les navires est directement visé par les futures constellations, réagit en lançant le « Projet 21 » qui sera établi en société indépendante sous le nom d'ICO en 1995.

En 1992, les premières difficultés se présentent pour Iridium, face à la réaction hostile des monopoles nationaux de télécommunications qui anticipent un contournement de leurs réseaux terrestres. Le projet initial de système « fermé » est alors converti en un système « ouvert », permettant un fonctionnement coopératif avec les réseaux cellulaires terrestres. La même année, la Conférence mondiale des radiocommunications, tenue en Espagne, attribue des fréquences à Iridium. De 1993 à 1998, 4 milliards de dollars sont levés pour le projet et, entre 1997 et 1999, 88 satellites sont mis en orbite, dont 16 se montreront défaillants, offrant une capacité effective de 66 satellites actifs et 6 de secours. Le lancement commercial a lieu le 1er novembre 1998, avec plusieurs mois de retard, dus à des problèmes techniques. Le 13 août 1999,    après moins d'un an d'exploitation et au vu de résultats financiers accablants, Iridium se place sous la protection du chapitre 11 de la loi américaine sur les faillites. La destruction des satellites, un moment envisagée, est finalement abandonnée et, en 2001, la société Iridium est reprise par des investisseurs privés.

Quelles sont les raisons de l'échec d’Iridium ? Tout d'abord, le projet a connu des difficultés opérationnelles : le système, tel que conçu au départ, était extrêmement complexe, reposant en particulier sur des liaisons entre les satellites et exigeant à cet effet une commutation embarquée sur des unités de masse réduite, selon une procédure inspirée de la « guerre des étoiles ». Le recours à des technologies auparavant expérimentées sur des projets militaires visait évidemment à procurer un avantage compétitif aux industriels américains, qui pouvaient en effet bénéficier d'un retour dans le domaine civil de leurs efforts de recherche et développement précédemment consentis dans le secteur militaire. Or, cet avantage stratégique présumé s'est en définitive retourné en handicap de faisabilité. Ensuite, Iridium a souffert d'une surestimation considérable du marché potentiel : la prévision initiale de 6 millions d'abonnés a dû être revue à 0,5 million en 1999, alors que le nombre effectif des clients avoisinait seulement 10 000 ! Les concepteurs du système n'avaient pas prévu l'explosion du marché des communications mobiles terrestres, en termes de nombre d'abonnés comme en termes de taux de couverture, une progression spectaculaire qui laissait par contrecoup peu de place résiduelle au marché des radiocommunications par satellite. Enfin, le positionnement marketing était inadapté : le prix des terminaux, d'abord fixé à 4 000 dollars, puis abaissé à 1 500 dollars, était pour le moins excessif, ainsi surtout que le tarif des communications - initialement de 6 à 9 dollars par minute selon les destinations, puis abaissé à 3 dollars - des montants élevés qui ne pouvaient rivaliser avec la forte baisse du prix des communications fixes longue distance et de celui des communications mobiles GSM. Par ailleurs, la qualité du service de transmission de données offert en complément de la voix était notoirement insuffisante, avec un débit de seulement 2,4 kbit/s.

Les déboires d'Iridium ont évidemment pesé lourd sur les projets concurrents, notamment ICO et Globalstar, qui ont cherché, mais en vain, à atteindre le seuil de viabilité en adoptant des architectures moins ambitieuses et donc moins coûteuses - aussi bien au plan des spécifications spatiales qu'à celui des caractéristiques télécoms - et en visant des modèles d'affaires plus raisonnables. Malgré ces précautions, ICO et Globalstar connaîtront un sort en tout point comparable à celui d'Iridium. Le projet ICO d'Inmarsat, utilisant 12 satellites en moyenne orbite, se place sous la protection du chapitre 11 en août 1999, avant même le lancement du premier satellite ; il est alors repris par l'investisseur Craig McCaw en novembre de la même année, contre un apport de 1,2 milliard de dollars. En mars 2000, le premier lancement est un échec et, en juillet, ICO fusionne avec un autre projet, Teledesic, se déplaçant ainsi du segment des communications mobiles vers celui du multimédia. Quant à Globalstar, constellation de 52 satellites en orbite basse, elle se positionne assez modestement comme une « boucle locale radio » de complément, destinée à la desserte des zones d'ombre des réseaux mobiles terrestres et au raccordement de cabines publiques dans les pays en développement. L'ouverture a lieu en février 2000 et les mauvais résultats ne se font pas attendre. La faillite intervient en février 2002 et ICO, c'est-à-dire en réalité le milliardaire Craig McCaw, devient l'actionnaire principal de Globalstar en avril 2003.

Ainsi, quel que soit le projet, l'issue est invariante : un fonds privé, moyennant un apport certes significatif, mais sans commune mesure avec les montants précédemment investis, acquiert à bon compte un système opérationnel, dont les coûts d'exploitation sont faibles et qui engendre des flux de liquidité. C'est cette logique de « casino » qui explique pourquoi des constellations comme Iridium, ICO et Globalstar sont encore actives aujourd'hui... et l'on peut en définitive s'en féliciter, car il leur arrive de rendre de précieux services en cas de catastrophe naturelle, comme ce fut récemment le cas à la Nouvelle-Orléans ravagée par le cyclone Katrina.

Environ 90 % des satellites de communication électronique aujourd'hui en service sont des satellites géostationnaires. Il convient donc de ne pas exagérer la portée de l'échec commercial des constellations en orbites basse et moyenne. Mais la leçon est instructive. On identifie désormais avec davantage de discernement quelle peut raisonnablement être la part du satellite au sein du marché global des communications électroniques. La valeur la plus sûre du satellite, le domaine où cette technologie présente un avantage comparatif incontestable, c'est la diffusion point à multipoint de contenus audiovisuels. Alors que, dans les années 1970 et 1980, les télécommunications point à point représentaient à peu près 80 % du marché des communications par satellite et la télévision 20 %, cette structure s'est aujourd'hui complétement inversée, le point à point ne comptant plus que pour 2 % à 3 %. L'explication est simple : pour la transmission des communications téléphoniques, le satellite n'est plus compétitif, en termes de coût et de débit, par rapport au câble sous-marin ; et il ne l'est pas non plus, on l'a vu, face aux réseaux radio-cellulaires terrestres. La télévision par satellite, en revanche, concurrence avec succès la télévision terrestre : ainsi, en France et en 2003, un quart des foyers recevait la télévision directement par satellite et 15 % indirectement, via le câble, dont les têtes de réseau sont alimentées par satellite.

À côté de leur marché de base, celui de la télédiffusion, les satellites de communication électronique peuvent occuper, au moins transitoirement, des marchés de niche. Notamment, le satellite permet d'établir un réseau téléphonique domestique de couverture globale dans des contrées où les réseaux au sol sont quasi inexistants, comme au Zaïre et au Niger ; ou encore dans des pays où la géographie rend malaisé et coûteux le déploiement capillaire des technologies terrestres, en raison de la présence, soit de grandes superficies faiblement peuplées, comme au Canada, en Russie ou en Algérie, soit d'archipels éclatés, comme en Indonésie. Toutefois, sur ce créneau, la part du satellite décline inexorablement au fur et à mesure que progressent les technologies optiques. Et il en va exactement de même d'un autre des marchés de niche du satellite, celui de la fourniture d'accès à l'Internet haut débit et de la réplication à longue distance des serveurs Internet.

En résumé, quel bilan peut-on dresser aujourd'hui de l'aventure des communications spatiales ?

Tout d'abord celui d'une très belle aventure technologique : la réalité a amplement dépassé la fiction imaginée par Arthur Clarke. Ensuite, celui d'un indéniable succès de l'industrie européenne, qui a su conquérir de haute lutte la place qui lui revenait et rééquilibrer une situation initiale tout empreinte de l'hégémonie américaine ; une position qu'il conviendra toutefois de conforter dans la nouvelle donne qui s'ouvre aujourd'hui, avec l'accession de nations telles que l'Inde et la Chine au rang de grandes puissances spatiales, ainsi que l'a souligné Jean-Jacques Dordain. Enfin, le constat économique et commercial conduit à identifier un segment de marché mature et stable, celui de la télédiffusion, entouré de marchés de niche transitoires et évolutifs, logés dans les interstices que ménagent temporairement les nouvelles technologies de télécommunications terrestres, avant que le progrès technique ne les rende inexorablement plus compétitives que le satellite. À cet égard, l'histoire des satellites de télécommunications n'est pas sans rappeler le mythe de Sisyphe : le rocher des technologies spatiales, roulé sans relâche sur la pente des technologies terrestres...

Quid du futur ?

Et si la nouvelle « équation magique », pour les communications électroniques spatiales, résidait dans la convergence entre le marché de la télévision, domaine d'excellence du satellite, et celui des communications mobiles, un terrain qui s'est en revanche jusqu'ici révélé plutôt hasardeux ? Assez logiquement, le marché prospectif de la réception TV sur terminal mobile fait naître de nouveaux espoirs. En France, le rapport Boudet de Montplaisir, remis au Premier ministre en août 2005 ouvre une phase d'expérimentation qui devrait déboucher sur un lancement commercial en 2007 ou 2008. Les solutions techniques « tout terrestre », utilisant les normes DVB-H ou T-DMB et s'appuyant sur un réseau d'émetteurs et de répéteurs, s'avèrent assez coûteuses à déployer dans les zones peu denses mais offrent une bonne qualité de réception in door, c'est-à-dire à l'intérieur des bâtiments dans les zones urbaines. Inversement, une solution « tout satellite », avantageuse pour couvrir les zones peu denses se montrerait très insatisfaisante pour la réception in door. La conclusion assez naturelle qu'en tirent certains industriels, tels que Alcatel Alenia Space dans le cadre du projet européen Maestro, est que l'optimum consisterait à marier les avantages respectifs du terrestre et du satellite dans une solution hybride, reposant sur la norme S-DMB et utilisant un satellite géostationnaire relayé par des répéteurs au sol ; une solution qui permettrait d'offrir 54 canaux de télévision dans les zones urbaines, mais seulement 18 en dehors de ces zones, et qui supposerait la résolution d'un problème réglementaire doublement délicat: celui d'affecter une bande de fréquences à un service qui, à la fois, recouvre deux segments de marché, les télécommunications et l'audiovisuel, et mixe deux types de technologies, le spatial et le terrestre. Naturellement, avant de s'engager en France dans telle voie plutôt que telle autre, il conviendra de se coordonner avec d'autres pays européens, sans omettre d'estimer la valeur potentielle du marché grand public des programmes de télévision regardés en situation de mobilité sur un écran de téléphone portable... Si raison doit impérativement être gardée, il est vrai que les expériences japonaise et surtout coréenne en la matière portent à un certain optimisme. Reste enfin la question hautement sensible de la répartition de la valeur entre les apporteurs de contenus et les opérateurs distributeurs.

D'autres projets européens à l'état naissant se rapportent aux communications spatiales. Par exemple, le projet Mémo, spécifiquement dédié aux services de sécurité et d'assistance en cas de catastrophe naturelle, avec deux objectifs essentiels : d'une part, rétablir un réseau de communication palliant la destruction partielle ou totale des réseaux terrestres ; d'autre part, établir des liaisons spécifiques permettant la coordination des équipes de secours et d'aide aux populations. Sous le phare de l'actualité, le projet Galileo, système de positionnement et de radionavigation par satellites concurrent du GPS américain (global positionning System), devrait entrer en exploitation en 2008. Il s'agit d'une constellation de 30 satellites gravitant en moyenne orbite, qui bénéficiera d'un accord d'interopérabilité avec le GPS. L'investissement envisagé se monte à 13,4 milliards d'euros et sera financé dans le cadre de partenariats public-privé, un mécanisme incitatif qui favorisera les retombées dans les secteurs utilisateurs, principalement les transports et les télécommunications. Comme on s'en doute, les prévisions sont ambitieuses : à l'échelle de l'Europe, 3 milliards de terminaux récepteurs, 250 milliards d'euros de recettes et 150000 emplois ! La clé du succès réside ici clairement dans le respect du calendrier, le système devant avoir fait ses preuves et dégagé une marge de rentabilité suffisante dans la fenêtre temporelle relativement étroite qui précédera le renouvellement du système GPS.

L'inventaire détaillé des projets de communications spatiales et le récit parfois mouvementé de leurs aventures respectives, riches en heures, malheurs ou promesses, ne doit pas priver d'une vue d'ensemble. En effet, sinon un « détail » du paysage, le satellite n'est qu'une technique parmi d'autres de communication électronique. Et la communication électronique, grâce à la numérisation des signaux et à révolution vers le « tout IP » des protocoles de transmission de l'information dans les réseaux de nouvelle génération, est devenue un domaine technologique homogène permettant l'unification des services autrefois séparés que sont la téléphonie fixe, la téléphonie mobile, l'informatique ou la télévision. Les offres intégrées réunissant tout ou partie de ces services, qui sont aujourd'hui offertes en abondance aux consommateurs à travers des forfaits illimités, en sont la démonstration la plus claire. Mais quel est l'impact économique et social du foisonnement des services d'information et de communication ? Quel est le vrai visage de ce que certains dénomment la société de l'information ou l'économie numérique ?

Parce qu'elle peut désormais être codée, transmise et distribuée sur les réseaux pour un coût marginal négligeable, une fois payés les investissements d'infrastructure, l'information devient une « commodité », qui devrait en théorie devenir gratuite, à la manière de l'air ambiant ou de l'eau des océans. C'est d'ailleurs sans doute là l'erreur principale des gourous de la nouvelle économie et l'une des causes de la bulle financière d'Internet, que d'avoir cru - un peu naïvement - que, dans une économie de l'information, la valeur serait directement retirée de l'information elle-même. C'était négliger le fait que la véritable source de valeur, ce n'est pas l'information brute, mais la connaissance, c'est-à-dire l'information organisée et mise en forme afin d'être utile aux acteurs économiques et sociaux. La future société de la connaissance, et non de l'information, repose singulièrement sur la qualité et la pertinence du corpus de données numériques auquel chacun peut accéder, notamment au travers d'Internet: ce corpus, sorte de bien commun et « d'équipement social », n'est pas un ensemble amorphe et statique, mais un construit en permanence renouvelé et enrichi par des échanges interactifs et coopératifs entre internautes, comme dans l'exemple à cet égard très révélateur des communautés en ligne de logiciel libre.

Dans un monde où l'information est de moins en moins un produit rare et marchand, et de plus en plus une matière première abondante et gratuite, se pose évidemment le problème de la mutation des industries d'édition de contenus, c'est-à-dire du livre, du disque, du cinéma ou de la photographie. Plutôt que s'arc-bouter sur leur modèle d'affaire traditionnel, devenu obsolète car reposant sur un lien aujourd'hui brisé entre l'information et ses supports physiques, plutôt que s'acharner à faire interdire ou à taxer les téléchargements de fichiers sur Internet et à poursuivre en justice de valeureux bâtisseurs de la société de la connaissance un peu trop rapidement qualifiés de pirates, ces industries doivent rapidement s'adapter, se recomposer et inventer de nouveaux circuits de collecte et de partage de la valeur. Aujourd'hui, le moyen efficace de distribuer des contenus est numérique et non plus physique : le train a remplacé les diligences, c'est une rupture technologique avec laquelle il faut composer et dont il convient de tirer le meilleur parti.

Si Hubert Curien était parmi nous, il manifesterait à ce stade quelque discret signe d'agacement, comme un simple froncement de sourcil, qui suffirait à m'interrompre tout net. Puis le jugement tomberait, posé mais ferme : « Vois-tu, Nicolas, ton exposé sur les satellites était plutôt sérieux et bien documenté. Mais, sur la fin, ton envolée à consonance libertaire sur la société de la connaissance est un peu lyrique et moins bien maîtrisée ». Et je puis même vous assurer que c'est très exactement ce qu'il me dirait, pour avoir déjà vécu cette même situation il y a quelques années ; une petite mésaventure, tellement révélatrice de sa manière d'être que je ne résiste pas au plaisir de vous la conter en forme d'épilogue.

Nous passions en famille des vacances à la montagne et il devait rédiger une préface, un exercice pour lequel il était souvent sollicité et dans lequel il excellait. L'ouvrage à préfacer portait sur les technologies de l'information et de la communication et, connaissant mon intérêt pour ces questions, mon père me fait lire son projet. À dire vrai, je trouvai sa prose plus brillante dans la forme que percutante sur le fond et le lui déclarai sans ménagement, ce qui me valut une assez sèche répartie : « Ah oui, Nicolas ? Et toi, qu'aurais-tu donc écrit ? ».

Comme il était l'heure du départ pour la randonnée quotidienne, c'est le long d'un sentier balcon de la Vanoise, dont le modeste dénivelé ménageait un souffle suffisant pour tenir conversation, que je l'instruisis en grand détail de mes vues hardies sur information et connaissance. Appliquant à merveille le précepte que je rappelais au début de mon exposé, il prenait l'air intéressé et me renvoyait de temps à autre un encourageant « Ah oui, tu crois ? », ou un très stimulant « Ah oui, tu penses vraiment ? », ou même un extraordinairement gratifiant « Ah oui, c'est une manière de voir originale ». Au retour de promenade, je le surpris même qui consignait quelques notes sur un papier. Bref, j'étais plutôt satisfait de mon intervention et en tout cas très confiant dans le devenir de cette préface.

Quelques semaines plus tard, rentré à Paris et invité à dîner chez mes parents, j'aperçois en bonne place sur le bureau du Maître un livre tout fraîchement paru et dûment dédicacé par son auteur. Je me précipite sur la préface, pour constater avec terreur qu'elle n'a pas varié d'un iota par rapport à son état initial. Consterné et voulant croire à l'erreur, je m’écrie : « Tu as vu ? L'éditeur n'a tenu aucun compte de tes corrections ! ». Mais bientôt, telle un couperet, froidement la réponse s’abat : « Non, non, Nicolas, l'éditeur n'y est pour rien. Vois-tu, j'ai repris un à un les arguments que tu m'as présentés et, chaque fois, je me suis dit que l'on pourrait en définitive aussi bien avancer le contraire. C'est pourquoi j'ai décidé de ne rien changer. » II asséna ce coup terrible avec un sourire si désarmant que toute agressivité fut désamorcée et que la soirée se poursuivit dans l'harmonie familiale la plus parfaite, ainsi que peut en témoigner certaine personne chère, assise au premier rang.

Mais l'affaire pour moi ne s'arrêtait pas là. Ce que je considérais comme un échec patent du transfert de la pensée entre un père et son fils me tarauda assez longtemps, jusqu'à ce que je trouve un peu d'apaisement dans le constat suivant, que je vous livre comme final. Lui qui aimait tant à manier le principe de précaution en matière de maîtrise du progrès technologique, il s'appliquait à lui-même, avec une intransigeante rigueur, une sorte de « principe de précaution intellectuelle ». Aux conjectures hasardeuses, il préférait les démonstrations rigoureuses et, aux propos incertains, les faits établis. En toutes circonstances, il se gardait d'apparaître comme un prophète, ou pire encore, comme un idéologue. En un mot, Hubert Curien était un sage, un sage qui nous manque à tous cruellement aujourd'hui.
Je vous remercie de votre attention.