Hyperloop utopie ou solution pour une mobilité plus durable

C’est Elon Musk le patron de Tesla et de Space X qui a publié en 2013 « Hyperloop Alpha » un document proposant la réalisation d’un nouveau type de transport supersonique. Des capsules circulant dans un tube sous vide capable de dépasser les 1235 km/h en vitesse de pointe permettraient de relier en 30 mn Los Angeles à San Francisco, villes distantes de 600 km. Hyperloop est une technologie en rupture que son promoteur considère comme le cinquième mode de transports après le bateau, le train, l’automobile et l’avion. Elle permettrait d’atteindre deux fois la vitesse commerciale de l’avion à un coût du dixième de celui du TGV (en Californie) et produisant plus d’énergie solaire qu’il n’en consomme.

En proposant une approche ouverte sans brevets, Elon Musk a donné le coup d’envoi d’un processus de mobilisation d’expertise sans précédent de spécialistes et d’experts notamment de la NASA, d’écoles d’ingénieurs et de consortiums industriels. Depuis 2013 un système d’innovation se met en place à la vitesse à laquelle sont habitués les acteurs du Net (Elon Musk a fait fortune avec Paypal). Ce projet entre dans le large mouvement de réinvestissement des acteurs de l’économie numérique dans le monde matériel et surtout il en adopte les méthodes ouvertes et rapides.

Il ne s’agit pas d’une idée nouvelle, l’américain Robert Goddard, pionnier des fusées avait formulé dès les années 1910, la proposition de trains qui circuleraient dans des tubes sous-vide. Une étude de la Rand Corporation américaine proposait en 1972 un système de transit à très grande vitesse (VHST) fonctionnant dans une atmosphère raréfiée dans des tubes tunnels souterrains. Plus près de nous au début des années 2000 en Suisse, Swissmetro proposait de développer un train magnétique dans un environnement à basse pression. Des concessions ont même été accordées à Swissmetro pour relier les villes suisses de Saint-Gall, Zurich, Bâle et Genève. Mais aucune suite n’a été donnée.

En parallèle dans les années 1970, le Japon et l’Allemagne ont commencé à investir dans la technologie Maglev, des trains à sustentation magnétique, mais dans l’atmosphère. La vitesse enregistrée la plus élevée a été de 581km/h réalisée au Japon en 2003.

Suite à l’annonce d’Elon Musk, trois entreprises ont été créées pour faire aboutir ce projet : Hyperloop One (US) entreprise dans laquelle la SNCF a pris des participations il y a un an, Hyperloop Transportation Technology HTT (US) qui ouvre actuellement un laboratoire de recherche à Toulouse et recrute dès à présent des ingénieurs, et enfin Transpod (Canada) qui est dirigée par deux français qui ciblent le Canada et l’Europe. La Chine et la Corée ont mobilisé de leur côté chercheurs et industriels sur des projets similaires.

Comme il ne s’agit pas d’une idée totalement nouvelle, ni d’une technologie de rupture issue de découvertes scientifiques nouvelles, il s’agit de l’assemblage de technologies connues mais qui doivent fonctionner ensemble dans des conditions nouvelles. C’est pourquoi la stratégie actuelle des trois entreprises est d’assembler des compétences scientifiques (laboratoires des universités et des écoles les plus prestigieuses) et des entreprises disposant de savoir-faire, pour passer rapidement du développement de prototypes, à des démonstrateurs et aux lignes commerciales. Au lieu du processus de développement traditionnel dans lesquels ces étapes successives s’enchainent sur plusieurs années voire des dizaines, ces processus sont menés en parallèle sur des délais courts. Se développeront ainsi des systèmes d’innovation amenant différents acteurs à coopérer. Hyperloop TT a même publié un calendrier de recherche et d’innovation détaillé sur 10 ans, donnant une visibilité à son calendrier d’association de compétence.

Hyperloop c’est quoi sur le plan technique ? Un nouveau système de transport de voyageurs avec des navettes d’une trentaine personnes qui circulent dans des tubes à très basse pression (le millième de la pression atmosphérique) avec une propulsion électrique (moteur linéaire) et une suspension sur coussin d’air et/ou magnétique selon les derniers développements. Dans la version de surface les tubes sont soutenus par des piliers, mais le passage en sous-terrain est possible. Elon Musk vient de créer à cet effet une entreprise la Boring Company (jeu de mot à double sens creuser et ennuyer) pour baisser d’un facteur 10 le coût des tunnels (voir article). En limitant les frottements la consommation d’énergie est faible au point que l’alimentation par photopiles solaires suffit. L’énergie consommée à l’accélération est récupérée en partie au freinage. La vitesse maximale de 1200km/h en ligne droite met Hyperloop directement en concurrence de l’avion, dans des parcours plus sinueux des régimes vers 400km/h sont envisagés. Mais sa capacité à entrer dans les centre villes, et de fonctionner en continu (des capsules toutes les 40 secondes) et non en horaires fixes, permet une intégration nouvelle avec les systèmes de transport collectif organisés par des applications numériques (smartphone).

Même si les hypothèses de départ sont identiques les options techniques prises par les entreprises sont variées. Le diamètre des tubes n’est pas le même, 4 m pour HTT et Transpod et moins pour Hyperloop One. Les technologies sont différentes HTT utilisant un système passif d’aimants permanents consommant peu d‘énergie et Transpod utilisant des dispositifs actifs consommant plus d’énergie mais étant plus stables. Les entreprises ne sont pas dans une perspective ouverte telle que le proposait Elon Musk mais se protègent par des brevets.

Quelle crédibilité technique ? Les moyens et l’expertise mobilisés au niveau international donnent une crédibilité technique aux hypothèses. Les essais et les prototypes envisagés vont valider ces hypothèses et mettre au point les ajustements techniques. A horizon de 2 ans les cahiers des charges techniques seront précisés. Des premières lignes sont envisagées dès 2022.

Quelle crédibilité économique ? Les estimations économiques visant dans un premier temps la liaison Los Angeles San-Francisco semblent nécessiter un investissement largement inférieur à celui du TGV. L’extrapolation des estimations californiennes sur la distance de 60km Saint-Etienne Lyon conduirait à un investissement de 700 Millions d’€.

Le fonctionnement avec faible usure et faible consommation d’énergie font envisager des coûts de fonctionnement limités par rapport ceux du TGV. Le modèle économique du TGV est aujourd’hui en difficulté. La marge opérationnelle a chuté de 20 à 8,5% en 2016[1]. Les recettes sont inférieures aux dépenses d’entretien du réseau ce qui contribue à augmenter l’endettement. L’usure des infrastructures et les dépenses énergétiques deviennent prohibitives au-delà de 300km/h, les coûts d’exploitation du TGV devenant trop importants.

Quel impact environnemental ? Du fait de la faible consommation d’énergie (environ 10 fois inférieure à l’avion) et son usage de l’électricité photovoltaïque Hyperloop est un mode de transport à impact carbone quasi nul. Cette infrastructure sur pylônes n’interrompt ni les des trames humaines des échanges locaux sur le territoire, ni les trames vertes et bleues contrairement au rail et aux autoroutes. En souterrain à l’approche des villes, l’impact est lui aussi limité.

L’absence de bruit permet de combiner fret et voyageurs pour un usage 24h/24h sans nuisance pour les riverains.

Bien entendu des analyses environnementales complètes prenant en compte le cycle de vie des produits utilisés, les impacts sur la mobilité et les effets rebond doivent encore être menées pour optimiser cette technologie.

Quels risques économiques ? Il y a toujours des problèmes techniques qui émergent lors de la mise en œuvre et qui se traduisent le plus souvent par des surcoûts. Mais inversement on peut trouver des financements publics et privés et des engagements de laboratoires de recherche et d’entreprises pour la recherche développement que l’on ne trouve pas avec les infrastructures classiques (voie ferrée, route ou autoroute). Pour cela il faut envisager les premières liaisons comme des démonstrateurs, avec des prises de risques mais aussi une espérance de gain important dans la suite.

Il y a une opportunité pour la France de s’intéresser à ce projet, d’envisager la réalisation d’une ligne expérimentale. Le parcours Saint-Etienne Lyon pourrait s’avérer un choix opportun. Outre le clin d’œil historique, ce parcours ayant développé la première ligne ferrée ouverte aux voyageurs en Europe continentale en 1830, qui reste aujourd’hui la ligne la plus empruntées hors région

[1] Source : article « Pourquoi le TGV fonce vers l’impasse économique », Les Echos, 30 mars 2017

Éthique et responsabilité

La morale s’est invitée au cœur du débat présidentiel. Une part de l’opinion publique ne se satisfait plus de ce qui légalement autorisé pour s’intéresser aussi à ce qui est moralement acceptable. Cette question de la morale a été le plus souvent en France cantonnée au champ religieux ou à des traditions et donc de facto exclu du champ laïc et de la modernité. Le champ de l’action publique est alors uniquement régit par la loi et un modèle rationnel légal. L’intégration de ces questions morales dans la société relève de l’éthique, c’est-à-dire la façon dont des problèmes de morale, personnels ou communautaires, sont publiquement discutés, promus et déclinés dans des déontologies qui les rendent opérationnels dans des contextes professionnels notamment.

La progression de l’éthique permet une progression de la confiance tant au niveau public en améliorant la gestion des biens publics et des communs, que privé en renforçant l’efficacité du marché.

Sur un plan interpersonnel et privé tout d’abord, toute relation de coopération et d’échange laisse des espaces de vulnérabilité qui peuvent être exploités par la tromperie d’un des acteurs et donc empêcher l’établissement d’une véritable relation de confiance. Dans une relation contractuelle, les contrats sont nécessairement incomplets. Si l’un des contractant cherche à en exploiter les failles, il rompt la confiance. Sur le plan institutionnel, il en est de même, les règles de fonctionnement de la société sont formalisées dans le droit, mais celui-ci laisse toujours des failles qui peuvent être exploitées par des opportunistes, détournant l’objectif de la loi.

L’une des solutions est de renforcer l’arsenal juridique, de prévoir des clauses formelles anticipant chacun des détournements possibles. Il faut alors rédiger des contrats fleuves, avec des clauses nombreuses et précises. Il faut une loi précise dans les détails. Mais, plus il se complexifie, plus le droit formel laisse la place à des incohérences nid à contentieux. La judiciarisation des rapports est source de défiance, alors que la progression de l’éthique est source de confiance.

L’ISO26000 au 7 principes

Le monde complexe auquel la politique doit répondre, les mutations à conduire, les innovations à promouvoir, ne peuvent se limiter à la compétition encadrée par le droit, elle doit aussi permettre des coopérations s’appuyant sur la confiance, c’est-à-dire basée sur des principes éthiques partagés, tant aux niveaux individuels, qu’organisationnels et institutionnels.

Au niveau des entreprises et des organisations ces principes relèvent de la responsabilité sociétale. Elle a été formalisée au niveau international dans un processus impliquant près de 100 pays représentés par 6 parties prenantes (gouvernements, entreprises, syndicats, consommateurs, associations, et consultants et académiques). Cette norme d’orientation ISO 26000 propose 7 principes : redevabilité, transparence, comportement éthique, reconnaissance des intérêts des parties prenantes, respect du principe de légalité, prise en compte des normes internationales de comportement et du droit international, respect des droits de l’homme. Cette norme ne vise pas à se substituer aux institutions, mais à les renforcer, elle prône d’aller plus loin que l’application du droit.

Ce monde complexe est aussi caractérisé par la dimension scalaire des problèmes auxquels nous devons faire face notamment en matière de développement durable. Il s’agit de l’échelle géographique, car il faut embrasser tous les niveaux de la planète au territoire local. Il s’agit aussi de l’échelle temporelle, car il faut répondre aussi bien à l’immédiateté du court terme qu’à la conduite de mutations à des horizons lointains 2050 voire 2100. Le droit n’est qu’un élément du projet collectif que doivent porter les responsables politiques.

Si le responsable politique exploite sa position d’autorité pour ses intérêts personnels et non pour l’intérêt collectif dont il doit être porteur, il rompt la relation de confiance nécessaire avec le peuple. Le pantouflage de Barroso chez Goldman Sachs, la banque qui a aidé la Grèce à maquiller ses comptes, est légal mais ruine la confiance dans les institutions européennes en entachant de suspicion a posteriori l’ensemble de son mandat. La confiance dans les dirigeants est l’un des éléments clé du bon fonctionnement des institutions.

Renforcer les institutions

Mais cette question ne concerne pas que les responsables politiques à titre individuel, elle concerne les institutions elles-mêmes. Les institutions doivent faire face à une demande sociale de nature morale d’une part, mais plus grave elles sont l’objet d’un rejet par les populismes. Ces derniers prônant l’immédiateté, le contact direct et la proximité, rejettent « le système » ce terme valise qui rassemble à la fois les institutions et les médiations sociales, supposées se liguer contre le peuple. Mais celles-ci ont elles mérité la confiance ? Face au populisme et au rejet des autorités, comment restaurer la confiance dans les institutions et vis-à-vis de ceux qui ont l’autorité pour les animer ?

La confiance dans les institutions et les règles qu’elles édictent tient à quatre éléments : la légitimité, la crédibilité, la pertinence et l’efficacité.

La légitimité exprime l’adhésion de la population à la manière dont elle est gouvernée, où le comportement éthique des dirigeants tient une part tant en amont de l’élection qu’en aval dans l’exercice du pouvoir. Elle est en effet tout d’abord issue du processus électoral lui-même au moment de la délégation de pouvoir du peuple vers ses responsables politiques. Elle tient à la nature du débat politique et à la capacité des candidats à proposer des options politiques crédibles et pertinentes. Le comportement électoraliste entache cette légitimité, il consiste à formuler des propositions non faisables mais populaires, ou à éliminer des faits et des connaissances établis qui seraient contraires aux souhaits. La pire étant le complotisme, qui transforme les faits négatifs en des intentions cachées. Mais cette légitimité doit s’entretenir tout au long du mandat par la crédibilité, la pertinence et l’efficacité des politiques menées.

La crédibilité tient à la façon dont le pouvoir est exercé et donc les processus mis en œuvre pour prendre la décision et des bases sur lesquelles sont prise les décisions. C’est notamment la prise en compte des connaissances scientifiques et l’indépendance vis-à-vis d’intérêts particuliers et de lobbies, particulièrement nécessaire dans le domaine de la santé et de l’environnement. La posture climato-négationniste de Donald Trump a été dénoncée par le candidat à la primaire démocrate de 2016, Bernie Sanders, sur ce registre « C’est impensable que le leader de la première puissance mondiale ne croit pas à la science ». L’autorité politique doit s’incliner devant l’autorité scientifique, à condition que celle-ci soit établie elle-même de façon crédible.

La pertinence des politiques et des mesures qui sont décidées tient à la cohérence entre les objectifs affichés et les moyens mis en œuvre. Le développement durable impliquant un élargissement des objectifs et de considérer l’ensemble des impacts. Rappelons l’article 6 de la Charte de l’environnement qui a valeur constitutionnelle : « Les politiques publiques doivent promouvoir un développement durable. A cet effet, elles concilient la protection et la mise en valeur de l’environnement, le développement économique et le progrès social ».

Enfin l’efficacité tient aux effets réels des politiques menées en comparaison des objectifs affichés. Mesurer cette efficacité implique l’évaluation de l’impact des politiques.

La mise en œuvre de ces principes et objectifs, leur amélioration continue, et donc la restauration de la confiance envers les institutions, relève de l’évaluation des politiques publiques. Mais cette évaluation doit être plurielle : expertes par les scientifiques, administrative par les corps d’inspection, partenariales avec les partenaires sociaux et les corps intermédiaires et citoyenne dans des processus participatifs. C’est la combinaison et la cohérence entre ces processus de rétroaction qui permettra de restaurer la confiance.

Le sens de l’intérêt collectif et des principes éthique doivent progresser dans l’espace public. La confiance dans ceux qui portent cet intérêt collectif doit être restaurée. Confiance dans la classe politique, confiance dans l’administration, confiance dans les scientifiques, confiance dans les experts… Tous ceux qui sont en situation d’autorité et de pouvoir doivent assumer leur part de la responsabilité sociétale. Les mêmes principes éthiques doivent être promus pour chacun d’entre eux. Ce n’est pas un rêve utopique mais une obligation plus efficace que le simple anathème contre le populisme.

La chronique de Christian Brodhag, Valeurs Vertes, mars/avril 2017 n°145 http://www.valeursvertes.com/ethique-et-responsabilite/

Des énergies fossiles trop abondantes

Nous habitons une planète au périmètre fini, toutes les ressources de combustibles fossiles sont limitées. Nous n’aurions que 50 ans de réserves de pétrole et de gaz, et un peu plus d’une centaine d’années de charbon. Du fait de l’épuisement des ressources pétrolières, Huber a considéré que la consommation de pétrole devrait passer un pic puis décroitre. Selon une loi économique élémentaire le prix devrait augmenter du fait de la rareté et de la nécessité d’exploiter des ressources de plus en plus coûteuses. Ce qui faciliterait les économies d’énergie et le développement de l’énergie solaire. L’efficacité économique régulerait le tout. Tout au plus la puissance publique devrait anticiper cette situation du fait des inerties et des temps d’investissements sur les infrastructures (transports, bâtiments). Ce discours qui a toute l’apparence de la rationalité est faux, et iI est nécessaire de le démonter point par point.

Un article récent d’expert des États-Unis (Covert, Greenstone, & Knittel, 2016) peu suspects de complaisance militante apporte une contribution essentielle au débat.

En premier lieu les années de réserve est une image trompeuse

Le nombre d’années de réserve, est le résultat d’un calcul, c’est le rapport R/P réserves sur production annuelle. Or les réserves de combustibles fossiles ne sont pas un tas de pièces d’or dans lequel nous prélevons progressivement, jusqu’à épuisement, mais une notion plus dynamique.

Il faut distinguer d’un côté les ressources qui sont des concentrations géologiques dont une grande part n’est pas exploitable pour l’instant du fait d’un prix trop cher, de difficultés techniques, ou d’obstacles politiques comme les zones naturelles protégées. D’autre part les réserves sont des ressources économiquement exploitables.

Les compagnies pétrolières et les pays producteurs visent à transformer les ressources en réserve par l’exploration, le développement technologique et l’influence politique… L’exploration, facilitée par des prix élevés, permet de trouver de nouvelles ressources et de les transformer en réserves. Le développement technologique permet d’exploiter dans des conditions difficiles (forages en mer par exemple). L’arrivée de sources non conventionnelles modifie la donne. Les sables bitumineux et le pétrole et le gaz de schiste n’étaient pas jusqu’à récemment considérés comme des réserves alors qu’ils couvrent aujourd’hui 10% des réserves mondiales.

C’est ainsi que depuis les années 80 le ratio réserves/production reste très constant 50 années pour le pétrole et le gaz et il a fléchi pour le charbon tout en restant supérieur au siècle. Ce dernier serait à même de boucler le bilan énergétique, et plafonner à terme le prix équivalent pétrole, sachant que la carbochimie issue du charbon, peut se substituer à la pétrochimie, issue du pétrole. Rappelons-nous que la chimie en Europe reposait sur le charbon dans les années 50 60, la conversion au pétrole est venue ensuite. Plus récemment l’Afrique du sud de l’apartheid soumise à l’embargo pétrolier utilisait son charbon pour produire ses carburants. Les ressources charbonnières sont immenses et plus réparties.

Les variations de prix ne reflètent pas que les coûts techniques

Mais le raisonnement qui ne considèrerait que les coûts de production au niveau mondial n’est pas le bon car il y a des disparités géographiques et les ressources les moins chères sont concentrées dans un petit nombre de pays. Les intérêts sont divergents entre les pays producteurs à faible population, plus court termistes qui peuvent laisser baisser les prix en acceptant une durée plus faible d’épuisement de leurs réserves pour maintenir leurs parts de marchés et les pays producteurs fortement peuplés qui souhaiteraient les valoriser au mieux.

On ne peut considérer les évolutions sur une seule analyse économique des coûts de production mais sur une géopolitique entre les pays producteurs, les compagnies pétrolières et les pays consommateurs au premier (et seul ?) rang les États-Unis. Cette partie d’échec à trois types de joueurs utilisent les règles de base (existence de ressources, coût, ..) mais au sein de stratégies, de combinaisons et d’alliances complexes. A l’origine un jeu à deux les 7 sœurs (les sept grandes compagnies productrice) qui s’entendaient tout en préservant les intérêts américains , est devenu un jeu à trois après 1974 avec l’irruption politique des pays producteurs qui se sont entendu pour réguler la production et les prix. Les tensions géopolitiques du Moyen Orient on fait éclater la gestion du prix par la régulation des quantités mises sur le marché.

Les sources non conventionnelles

Le gaz de schiste américain, dévalorise le charbon, qui fait irruption à bas prix en Europe, comme en Allemagne. Une crise touche à court terme l’industrie du charbon. Une cinquantaine de compagnies charbonnières américaines ont fait faillite, sous la double concurrence des autres combustibles et de la faiblesse de la demande, par exemple sidérurgie. Il y a 5 ans, les actions de Peabody une des entreprises charbonnières s’échangeait à plus de 1000$, début 2013 elles valaient encore 300$, 100$ en 2015… et autour de 2.5$ aujourd’hui. L’entreprise croule sous les dettes : près de 6 milliards de dollars, plus de 100 fois sa valeur en bourse… Et elle a encore perdu 2 milliards l’année dernière.

C’est dans ce contexte que les pays producteurs mettent beaucoup de pétrole sur le marché et donc à plus bas prix. La bourse et l’actionnariat court-termiste amplifient les évolutions du marché.

Les solutions

Le rapport World Energy Outlook 2012 de la très officielle Agence Internationale de l’Energie est sans appel : « si nous voulons atteindre l’objectif mondial de 2°C, notre consommation, d’ici à 2050, ne devra pas représenter plus d’un tiers des réserves prouvées de combustibles fossiles ».

La ressource limitée n’est donc pas celle de combustibles fossiles mais celle de l’atmosphère, cela change totalement la donne. La régulation climat est entièrement politique et elle doit gérer l’abandon des combustibles fossiles.

Le prix du pétrole dans ce contexte devrait rester bas, et donc la pseudo rareté du pétrole ne peut réguler le substitution par les énergies renouvelables. Au lieu de se réjouir à court terme du bas prix du pétrole, il fallait le taxer pour maintenir un prix au niveau de la consommation en tendance croissante, et au moins stable à court terme.

Cette dévalorisation des actifs liés aux combustibles fossiles, pétrole en tête, vas impacter de façon massive les entreprises productrices mais aussi les régions et les pays producteurs. La reconversion de ces entreprises et de ces territoires et son financement doit être au cœur des solutions politiques internationales.

Cette analyse nouvelle doit conduire à modifier les approches et abandonner définitivement les permis d’émission. Les mécanismes économiques et la fiscalité carbone devraient être mobilisée principalement sur l’abandon des fossiles en amont plutôt que vers un marché du carbone en aval.

Mais cette prise de conscience implique aussi des mesures réglementaires. Il n’est plus nécessaire de prospecter de nouvelles ressources fossiles qu’elles soient conventionnelles ou non conventionnelles, mais il faut gérer de façon optimale celles qui sont connues. Les pays ne devraient par exemple plus donner de permis d’exploration.

Il est important de limiter l’exploitation dans les zones naturelles protégées et là où les risques sont élevés pour l’environnement (voir marée noire golfe du Mexique) soit dans des zones naturelles protégées. La sanctuarisation de l’Arctique et de l’Antarctique doit être décidée au niveau international.

Mais pour obtenir une adhésion internationale à un tel programme, il faut trouver un jeu gagnant gagnant pour toutes les parties prenantes. Ce sera l’objet de ma prochaine tribune, qui paraitra à l’occasion  la COP22.

Réf. Covert, T., Greenstone, M., & Knittel, C. R. (2016, Winter). Covert, Thomas ; GreeWill We Ever Stop Using Fossil Fuels. Journal of Economic Perspectives. Journal of Economic Perspectives, 30(1), 117-138.

In Valeurs Vertes, n° 142, 28 octobre 2016

Des énergies fossiles trop abondantes