Retrouver les terroirs pour une agriculture durable

Le système alimentaire des pays développés traverse des crises à répétition. Les impacts des organismes génétiquement modifiés ou des dopages hormonaux sur l’environnement, sur les écosystèmes, voire sur la santé, opposent les Etats-Unis et l’Europe. La logique du hors sol poussée jusqu’à l’alimentation du bétail par l’industrie du recyclage, depuis les farines animales jusqu’aux déchets toxiques en passant par les boues d’épuration, met en péril le système alimentaire européen.

Dans un cas comme dans l’autre, certaines industries et leurs laboratoires prétendent se substituer aux liens que la production agricole entretient avec les sols, les ressources génétiques et biologiques. La mal-bouffe n’est pas seulement américaine. Dénoncer le symbole McDonald’s a un sens, mais exonère un peu facilement l’Europe.

Sous les pressions de l’Organisation mondiale du commerce, certes, mais aussi en raison de la volonté des autres pays européens de maîtriser les dépenses publiques, s’accumulent des inquiétudes sur la pérennité des financements publics de l’agriculture française.

Dans le cycle de négociations de l’OMC sur l’agriculture, dont la première phase doit avoir lieu à Seattle du 28 novembre au 3 décembre, une stratégie cohérente et efficace doit être opposée au modèle agro-industriel américain. Et ce n’est pas le modèle européen actuellement dominant qu’il faut sauver en priorité.

Seul le développement durable offre aujourd’hui le cadre conceptuel et les institutions permettant de sortir de cette impasse. Sur le plan des concepts, le développement durable propose de réconcilier l’environnement et le développement économique et social, les patrimoines culturels, pour préserver les ressources des générations futures. Il s’appuie sur le principe de précaution qui vise la prudence quand des risques graves et irréversibles sont encourus, ce qui est d’évidence aujourd’hui le cas.

Sur le plan institutionnel, la huitième session de la Commission du développement durable des Nations unies d’avril 2000 devrait porter sur l’aménagement intégré du territoire et l’agriculture. Pour préparer cette échéance avait lieu à Maastricht du 13 au 17 septembre, une conférence de la FAO sur le  » caractère multifonctionnel de l’agriculture et des terroirs « . Le titre de la conférence en anglais,  » Conference on the Multifunctional Character of Agriculture and Land « , ou en espagnol,  » Conferencia FAO/paises bajos sobre el carácter multifuncional de la agricultura y la terra « , gomme la référence au terroir, concept purement français, qui est absent des documents de travail.

Cette rencontre devrait être suivie d’une réunion des ministres de l’agriculture en novembre. Or, malgré ces thématiques favorables, il ne semble pas que la France a envisagé d’y défendre réellement l’agriculture de terroir liée à l’aménagement du territoire. Les combats perdus sont ceux que l’on ne livre pas.

Une autre logique peut être défendue dans ces institutions, pour ouvrir la voie à une agriculture qui retrouverait le sol et ses terroirs. Des dispositions réglementaires, sur la biosécurité notamment, doivent être imposées au nom du principe de précaution.

D’autre part, des labels de qualité et d’origine reconnus au niveau mondial apporteraient des garanties aux consommateurs et valoriseraient les productions de qualité. Les plus ultralibéraux ne peuvent faire valoir aucun argument contre l’information du consommateur.

Les relations entre les territoires de production et le marché mondial sont difficiles. Dans le contexte de l’ouverture des marchés mondiaux, les protections des spécificités locales sont souvent vues comme des pratiques discriminatoires, voire des freins au développement, y compris par les pays du Sud.

Cessons de diaboliser l’OMC dans les préaux électoraux sans proposer dans la négociation les nécessaires mécanismes de maîtrise du marché. Certes, la mondialisation touche de plein fouet les territoires, en mettant en concurrence des espaces aux potentialités différentes, mais il est possible de valoriser les différences et de prendre en compte les contraintes locales pour en faire des atouts.

Les accords multilatéraux de 1994, qui ont débouché sur la création de l’OMC, et, notamment, l’accord sur la propriété intellectuelle, créent le cadre en faisant expressément référence aux indications géographiques. Dans la prochaine négociation, on progressa dans ce sens ou on régressera. Ou bien la France pèse en proposant un modèle agricole durable fondé sur ses atouts, ou bien elle subira, isolée dans son exception.

C’est avant tout un modèle de gestion intégrée du territoire qu’il faut proposer. Le paysage est façonné par des pratiques sociales en interaction avec des composantes biogéographiques. L’artisanat traditionnel utilise les ressources locales en les valorisant. Les produits agricoles dépendent d’espèces végétales et animales adaptées au milieu. La valorisation par le tourisme de ces spécificités est un moyen d’apporter des ressources économiques au territoire, mais l’exploitation touristique mal maîtrisée peut détruire ces caractéristiques. Il s’agit donc de préserver ce patrimoine tout en le valorisant de façon durable par la création de valeur ajoutée et la diversification des produits intégrées dans un véritable projet de territoire.

La labélisation de ces produits (alimentaires, artisanaux et touristiques) peut aider les consommateurs à les identifier et encourager la préservation de leurs caractéristiques. Un label ou une marque peut être compatible avec les règles du marché mondial et, dans cette perspective, l’expérience française reprise dans le droit européen se révèle instructive.

Initialement mise au point pour l’organisation de la production viticole, aujourd’hui élargie à d’autres produits alimentaires, l’appellation d’origine contrôlée, valorise les qualités spécifiques liées au terroir. Les AOC qui régissent la production viticole encadrent le mode de production, les cépages, la délimitation des terroirs et les qualités de vinification.

Le deuxième label est l’IGP (indication géographique), signe de valorisation de l’origine géographique protégée, adoptée au niveau communautaire au mois de mai 1992. D’autres labels produits/territoires ont été mis en place, comme ceux des parcs naturels régionaux, espaces particulièrement pertinents en matière de développement durable.

Ces signes de qualité fournissent au consommateur une information sur la qualité des produits et l’impact des modes de production. Au sein même de la crise actuelle, le contexte reste favorable aux produits labélisés. Les consommateurs demandent la traçabilité. Ils veulent, à juste titre, pouvoir identifier l’origine et les modes de fabrication des produits et juger eux-mêmes de leur propre application du principe de précaution. Ce label de développement durable pourrait faire explicitement référence au concept de terroir décliné avec des variantes pour les zones de montagne ou les zones insulaires.

Un terroir pourrait être défini comme une entité territoriale dont les valeurs patrimoniales sont les fruits de relations complexes et de longue durée entre des caractéristiques culturelles, sociales, écologiques et économiques. A l’opposé des espaces naturels, où l’influence humaine est faible, les terroirs dépendent d’une relation particulière entre les sociétés humaines et leur habitat naturel qui a façonné le paysage. Considérés d’un point de vue mondial, ils répondent aux objectifs de développement durable :

préservation de la biodiversité et des diversités sociales et culturelles.

Voilà un modèle agricole exportable. D’ailleurs, il s’exporte fort bien. Encore faut-il le défendre, faute de quoi nous risquons de le voir disparaître. Voilà un modèle touristique durable, axé sur les patrimoines culturels, culinaires environnementaux. Du reste, c’est lui qui contribue à assurer la première place à la France.

Notre pays a des atouts à faire valoir et pourrait trouver des alliés dans les pays du Sud. L’entretien de la biodiversité des espèces domestiques animales et végétales, véritable réservoir génétique pour les firmes agroalimentaires du Nord, pourrait être valorisé économiquement localement par ce type de label.

Encore faut-il que notre pays croie au développement durable et à la possibilité de mettre en place, au niveau international, des institutions et des régulations environnementales et sociales qui s’imposeraient face à l’OMC. Force est de constater que ce n’est pas le cas pour l’instant.

From rationality to governance: the decision process of sustainable development

Abstract : Many of the challenges for sustainable development involve issues and triggering mechanisms that are global, long term and complex. Yet solutions need to be, for a large part, concrete, simple, short term and local. The purpose of Local Agenda 21 is to build local capacity and private-public-citizen partnerships for action on sustainability. This can be seen, on the one hand, through the development of sustainability indicators appropriate at different scales and, on the other hand, as the development of new forms of governance that bring stakeholders together at local levels and across levels, to define options for collective action. Multi-sector engagements through local stakeholders’ networks are complementary with formal democratic institutions for implementing sustainable development policy.

Keywords : decision process, governance, indicators, information exchange, local action, procedural rationality, stakeholders, sustainable development

URL Link

Kyoto et le retard français

LE débat sur l’effet de serre est enfin lancé. L’appel des économistes et l’article d’Olivier Godard (Le Monde du 23 et du 25 octobre) viennent apporter des contributions plus proches des enjeux que les revers de main méprisants dont nous avions été gratifiés jusqu’à présent. La France semble sortir enfin du cercle vicieux dans lequel la sous-information et le manque d’intérêt se renforcent mutuellement.

Notre pays, absent de certaines enceintes, coupé de certains réseaux, n’avait pas conscience des réels enjeux du développement durable, qui est au coeur de véritables stratégies géopolitiques dont l’actuelle négociation sur le climat n’est que l’élément le plus visible. Ces stratégies visent à maîtriser simultanément les flux financiers, les technologies propres, les informations (Internet) et les réseaux d’influence (les ONG).

Dans ces quatre domaines, la France accuse un retard préoccupant. Elle n’aide même pas les pays francophones africains dans le secteur d’Internet. La recherche-développement dans le domaine de l’énergie consacre près de 80 % de son budget au nucléaire, seulement 1,4 % aux énergies renouvelables et 3,3 % aux techniques économes en énergie.

Malgré sa pugnacité et sa conviction, Corinne Lepage n’a pu mobiliser ses collègues sur ces thèmes. Aujourd’hui, Dominique Voynet semble seule à porter l’étendard du développement durable.

Alors que c’est le président Clinton qui s’implique sur la négociation « climat », c’est la ministre de l’aménagement du territoire et de l’environnement qui s’exprime, et pas Lionel Jospin ou Jacques Chirac. Probablement parce que le thème est perçu comme faisant strictement partie de la rhétorique « écologiste » définie comme une province isolée de la réflexion sociale et économique. C’est sans doute pour cela que la globalité de l’enjeu n’est pas encore perçue.

La problématique de Kyoto, la conférence des parties de la convention climat de décembre prochain, est de réduire les émissions des gaz à effet de serre. Trois niveaux de décision s’emboîtent : 1) Le choix de stabiliser, à terme, à deux fois la concentration du début de la révolution industrielle : c’est un choix largement arbitraire qui se situe dans la moyenne des scénarios étudiés. 2) La répartition de cette contrainte il a été décidé (mandat de Berlin) de porter d’abord l’effort sur les pays développés. Kyoto décidera explicitement ou implicitement de quotas par pays. 3) La méthode permettant d’atteindre ces objectifs.

Le problème critique est le point 2, la règle de répartition des quotas de rejets de gaz à effet de serre. La référence considérée comme équitable est purement politique et subjective, mais c’est la base psychologique de la négociation. Il y a trois références principales et des variantes qui peuvent tenir compte de leur « applicabilité ».

La référence actuelle est la diminution proportionnelle au point de départ en 1990. Elle a l’avantage de la simplicité : chaque pays développé doit diminuer en 2010 ses rejets de 15 % selon la proposition européenne, ou seulement de 0 %, selon la dernière proposition américaine.

La deuxième référence, jugée comme économiquement rationnelle, est celle de l’égalité des coûts marginaux d’élimination du carbone émis qui permet de concentrer les efforts là où ils sont les moins chers.

La troisième référence, celle d’un quota par tête, lui apparaît la plus équitable. C’était la proposition à Rio de l’Indien Anil Agarwall. Pour appliquer concrètement l’un de ces principes, trois méthodes peuvent être mises en place :

Des quotas par pays, à charge pour chacun d’entre eux de définir politiques et mesures pour atteindre ces objectifs. Il faut aussi définir au niveau international des moyens de contrôle et de police ainsi que des sanctions éventuelles.

Un outil fiscal, avec différentes variantes. Le produit de la taxe peut être entièrement réaffecté dans les pays euxmêmes, par exemple à la politique de l’emploi, au nom du principe du double dividende qui propose simultanément de diminuer la consommation des ressources rares et de favoriser l’emploi. Il peut être totalement ou partiellement reversé dans l’aide au développement (seconde partie de la proposition d’Anil Agarwall).

Le marché. Les acteurs ou les pays se voient attribuer un quota de pollution, à charge pour eux d’échanger sur le marché, en vendant ou en achetant ces droits à polluer. Le marché devrait permettre l’égalisation des coûts marginaux et donc conduire à l’investissement optimal. Mais cette méthode crée une rente qui dépend des quotas alloués initialement.

Une réduction de 15 % conduirait par exemple à un coût de réduction de la tonne de carbone émise à 125 dollars aux Etats-Unis, 200 dollars dans l’Union européenne et 350 dollars au Japon. La mise en place d’échanges de droits à polluer entre ces pays pour rapprocher les coûts marginaux à près de 170 dollars, donc optimiser les coûts globaux, permettrait aux Etats-Unis d’être exportateurs de droits à polluer vis-à-vis de l’Union européenne ou du Japon.

Les plus pollueurs disposeraient ainsi d’une sorte de rente qu’on pourrait appeler les « carbo-dollars ».

Les permis négociés pourraient être acceptables à condition que les quotas soient équitables, que les prix soient suffisamment incitatifs, et que les moyens de contrôle et de police existent. Pourquoi refuser un mécanisme du marché si celui-ci conduit à des niveaux de prix correspondant à l’optimum économique, à ceux que l’on aurait fixés de façon plus politique par une taxe ? Les résultats pourraient être proches, même si les fondements idéologiques et politiques sont différents.

Mais la dynamique qui en résulterait pourrait réserver des surprises : en créant une rareté, on crée une rente. Malgré leurs bases idéologiques, les citoyens américains ne pourront accepter à long terme que cette rente soit empochée par le secteur privé. Les conditions pourraient être réunies de la transformer en une taxe.

En Europe, la mise à sa place d’un outil économique, comme une écotaxe, permettrait le redéploiement fiscal vers une baisse des charges sociales : faire payer plus cher l’énergie, et moins le travail, c’est le double dividende d’une politique de développement durable.

Ce qui deviendrait impossible à faire coexister avec n’importe quelle organisation de marchés de permis, en particulier avec des permis gratuits, car cela créerait des distorsions de concurrence vite inacceptables.

Ce n’est pas les droits à polluer qui sont contestables, mais le calcul des dotations initiales. Une méthode progressive fondée à terme sur des quotas par tête serait la plus équitable.

Elle pourrait être acceptable par les pays du Sud qui pourraient rentrer dans la négociation, et elle ne désavantage pas trop la France. Les Etats-Unis demandent que les pays du Sud s’impliquent. Ils ont raison : c’est nécessaire, même à court terme.

La Chine, par exemple, construit aujourd’hui son infrastructure lourde qui fixera son profil de consommation et donc de pollution pour cinquante ans. Se lamenter sur la responsabilité ancienne des pays développés est pure rhétorique. Par contre, un objectif de convergence à long terme des impacts par habitant est beaucoup plus porteur d’espoirs, car il peut déboucher sur des mécanismes opérationnels, comme des… permis négociables. Il doit aussi conduire tout de suite à des transferts de technologies.

Un dispositif pour l’application du principe de précaution

La maladie de la vache folle, l’amiante, le sang contaminé, les pollutions de Tchernobyl, sont autant de problèmes qui illustrent à la fois le bien fondé et la difficulté de la prévention de certains risques majeurs. D’autres questions, comme la lutte contre les changements climatiques, la protection de la couche d’ozone, ou les manipulations génétiques suscitent des interrogations sans que des effets graves aient été constatés. Ces derniers problèmes relèvent du principe de précaution dans un premier temps, puis de prévention éventuellement, si le diagnostic scientifique se précise quant aux causes majeures et aux effets exacts.

La crise de la vache folle est un cas exemplaire de défaut de précaution, chacun cherchant a posteriori à évaluer les risques et surtout à identifier les responsabilités. Le débat sur les causes devient un prétexte à polémique, à démonstration politique. Pourtant cette controverse, aussi passionnée qu’elle soit, ne permet pas d’éclairer la question car elle est toujours simplifiée, chacun avançant une cause unique selon la démonstration recherchée : tel ou tel gouvernement, l’absence de contrôles vétérinaires, des pratiques anti-naturelles, un ultra-libéralisme irresponsable, une volonté de recyclage poussée à l’extrême… ou des causes matérielles : température de chauffe des farines, usages de certains pesticides…, toutes allégations sans doute justes mais incomplètes. Enjeux et processus ne sont pas vus dans leur globalité, ce qui ne permet pas d’éviter des accidents identiques à venir.

La recherche à tout prix de responsables identifiables se transforme vite en lynchage médiatique, en un jeu de mistigri tragique [[Martine Rèmond-Gouilloud, Transversales Sciences et Culture n°40, juillet août 1996]] qui masque la multitude des causes entremêlées, c’est à dire le fait qu’il s’agit d’une défaillance du système collectif de décision. Cette question lourde de conséquences pose aussi bien des problèmes scientifiques que politiques, que nous allons tenter de préciser.

Un principe politique inscrit dans les textes juridiques

Le principe de précaution n’est plus seulement un objet de débat, c’est un principe inscrit dans des textes à portée juridique : il figure en effet dans la déclaration de Rio et le traité de Maastricht, ratifiés par la France, et plus récemment dans la loi du 2 février 1995 sur le renforcement de la protection de l’environnement. Le principe 15 de la déclaration de Rio sur l’environnement et le développement précise à cet égard : « en cas de risque de dommages graves ou irréversibles, l’absence de certitude scientifique absolue ne doit pas servir de prétexte pour remettre à plus tard l’adoption de mesures effectives visant à prévenir la dégradation de l’environnement [[La traduction française du texte a transformé la référence anglaise à l’efficacité économique du texte original : « postponing cost-effective measures to prevent environmental degradation ». Le texte de la loi de 1995 corrige cet écart et réintroduit le mot « mesures effectives et proportionnées« ]] ». Ce principe de précaution est aussi affirmé par la loi française 95-101 du 2 février relative au Renforcement de la Protection de l’Environnement qui, dans son article 1er s’inspire « dans le cadre des lois qui en définissent la portée », de différents principes dont « le principe de précaution, selon lequel l’absence de certitudes, compte tenu des connaissances scientifiques et techniques du moment, ne doit pas retarder l’adoption de mesures effectives et proportionnées visant à prévenir un risque de dommages graves et irréversibles à l’environnement à un coût économiquement acceptable ; ».

Le principe de précaution n’est donc plus une simple affirmation théorique, mais un principe inscrit dans les textes internationaux et maintenant nationaux qui engage des responsabilités politiques et morales voire, si les conditions d’application en étaient précisées, juridiques. Mais il nous faut surtout trouver une méthode qui évite les drames. C’est pourquoi nous ne poserons pas ici la question de savoir quelles responsabilités civiles ou pénales pourraient être engagées par l’absence de précaution, mais plutôt comment mettre en place un principe d’action préventive. Il s’agit d’abord d’action plus que de sanction.

Comme il se place à l’articulation entre le champ des connaissances scientifiques et celui des décisions politiques, l’application du principe de précaution relève d’une construction politique et sociale pour laquelle nous formulerons quelques pistes.

Connaissance scientifique et risques potentiels

Au sens strict, la prévention ne peut intervenir qu’au moment où l’observation des faits et la connaissance des mécanismes en jeu permettent d’estimer les dommages (financièrement ou non) et de proposer une action qui balance des coûts estimés et des mesures d’évitement.

En revanche, la précaution se situe dans un domaine où l’existence et l’ampleur du risque n’est pas établie avec certitude, ce qui rend difficile, voire impossible l’estimation des enjeux.
image002.gif
Tableau : problématique du principe de précaution

Le tableau ci-contre situe la problématique du principe de précaution selon deux échelles : la première concerne le degré de certitude scientifique, la seconde est liée aux coûts relatifs des mesures d’évitement rapportés aux impacts dus au laisser faire. La notion de coût est ici à prendre au sens large, englobant une évaluation des impacts non monétarisables, avec l’identification des catégories de populations et de milieux victimes de ces dommages. Cerner le domaine de l’application de ce principe, c’est définir en fait ses trois frontières (numérotées sur le tableau).

La première est celle qui sépare une conjecture scientifique trop incertaine, celle d’une hypothèse considérée comme crédible sur le plan scientifique. La seconde se situe dans le domaine où l’hypothèse est jugée crédible au niveau scientifique, mais peut concerner des impacts négligeables ou réversibles, pour lesquels il est légitime d’attendre l’observation des problèmes avant d’agir. La troisième frontière est celle qui conduit de la précaution à la prévention quand un problème devient établi scientifiquement.

La difficulté provient du fait que ces frontières sont floues et dépendent de processus socio-politiques complexes. Nos structures politiques et scientifiques ne savent pas maîtriser ce type de situation. Selon l’expression de Jérôme Ravetz, nous devons savoir mettre en place des « régulations politiques dures même quand la science est molle et incertaine ». En effet, si nous savons analyser les problèmes une fois qu’ils se sont produits pour mettre en place des mesures correctives, en revanche nous ne savons pas prévenir des risques différés dont les effets graves apparaissent quand il n’est plus temps d’agir. La société française manque de dispositifs ouverts et de moyens d’écoute reconnus pour anticiper les crises de ce type.

Les approches traditionnelles de la décision publique française dans le domaine de l’environnement partent de l’observation des faits et de leur analyse, et recherchent les attributions ou responsabilités opérationnelles pour décider des solutions à mettre en oeuvre. Sur les problèmes dont il est question ici, il faut passer de ce processus séquentiel à un processus parallèle, et prendre des décisions fermes alors que la connaissance scientifique n’est pas totalement assurée. C’est un véritable défi à la décision politique et à ses relations à la communauté scientifique, donc à la démocratie.

Le développement de la connaissance scientifique

L’acquisition de certitudes scientifiques, qui est au coeur de la problématique, est un processus continu et lent. Sur la plupart des questions, on peut identifier a posteriori que « certains scientifiques l’avaient écrit et prétendaient savoir ». Mais que ces informations ont mis du temps à être partagées dans la communauté scientifique ou à monter dans la hiérarchie des institutions scientifiques. Certains freins à la diffusion de l’information doivent être identifiés et combattus : un certain esprit conventionnel, à l’opposé de l’exercice aigu de l’esprit critique et du doute que doit avoir un scientifique, des arguments de carrières, des difficultés à la remise en cause d’institutions établies, ou l’intérêt économique personnel ou collectif. Maintes expériences ont montré qu’il était très difficile à toute communauté scientifique de s’auto-évaluer, lorsque science, financement de recherches et notoriété mêlent leurs enjeux.

Le principal problème est néanmoins posé par le scientifique qui se trouve en position de conseil du politique, c’est à dire en position d’expert[[voir à ce sujet le livre de Philippe Roqueplo, Climats sous surveillance. Limites et conditions de l’expertise scientifique, Economica, Paris 1993, ou l’ensemble des communications faites au colloque : Environnement, science et politique. Les experts sont formels. GERMES, cahier n°13, Paris 1991]]. Il arrive aussi qu’on lui demande à tort d’établir une balance entre des arguments économico-politiques et scientifiques. Le fait que ces décisions se prennent en situation de polémique scientifique rend ce rôle encore plus difficile. On remarque que la frontière 1 (établissant qu’une hypothèse n’est pas fondée) ou 3 (le fait est fondé et indiscutable) ne se situent que sur l’échelle de la connaissance. En revanche la frontière 2 met en jeu l’évaluation du risque ; c’est donc une décision d’opportunité.

On pourrait dire qu’en (1) c’est le scientifique qui juge seul, et en (3) c’est le politique qui pèse les intérêts sur des phénomènes connus par la science (le scientifique a fini son travail puisque la connaissance est établie). Le centre est le champ des relations entre l’expert et le politique.

L’évaluation des risques et des impacts

La seconde frontière de la décision est l’évaluation des risques. Il est toujours difficile d’identifier et de chiffrer les risques, surtout s’ils sont d’ordre statistique comme c’est souvent le cas dans les problèmes qui nous occupent ici. De plus, la demande sociale ne réagit pas de façon mathématique, comme la probabilité multipliée par le coût. Cependant, un impact faible à forte probabilité (risque banalisé) est mieux accepté qu’un risque grave et improbable.

Cette évaluation est encore plus difficile dans l’incertitude scientifique et sans observation statistique. Or l’incertitude est en général une source (non exclusive !) de surcoût pour l’action : ou bien l’effort correctif est trop important au vu de la réalité du problème, ou bien il est trop faible et les conséquences de l’inaction sont coûteuses.

Il faut donc le plus possible réduire l’incertitude, en multipliant les observations et les retours d’expérience, qui contrairement au sentiment apparemment répandu chez nombre de décideurs, constituent une véritable priorité pour l’action. Ils permettent de mieux prévenir les crises, en passant lorsque c’est possible du domaine de la précaution à celui de la prévention.

S’il s’agit d’organiser une analyse méthodique et raisonnée; il faut éviter que cela n’aboutisse à bloquer l’innovation et à empêcher le développement de technologies ou de pratiques éventuellement très utiles aux plans économiques, sociaux, et environnementaux. Comme le demande l’industrie chimique[[Position paper, CEFIC 23 mars 1995]], qui souscrit au principe de précaution, celui ci ne doit pas conduire à la paralysie. Il serait a posteriori dommage de prendre des mesures coûteuses qui ne soient pas justifiées au regard des incertitudes et des risques potentiels. Les peurs irraisonnées méritent donc toute notre vigilance, ainsi que les enthousiasmes scientifiques intéressés.

L’une des exigences de la précaution est que les solutions mises en oeuvre sous la pression de l’urgence ne posent pas plus de problèmes que les problèmes auxquels elles s’attaquent. Ces problèmes peuvent se révéler dans un autre domaine : bombes aérosols à gaz propulseur explosif, retrait précipité de flocage en amiante causant plus de pollutions que le maintien en l’état…

L’esprit de la précaution

Avant de proposer un mécanisme nécessairement lourd de mise en oeuvre du principe de précaution, il faut évoquer quelques préalables : sa dimension éthique, le bon sens et une certaine humilité devant la science et la technique, ce que nous appellerons l’esprit de précaution. Cet esprit de précaution doit présider au plus haut niveau et en amont des politiques. Il doit faire partie d’une éducation qui doit préparer à agir dans l’incertitude et la complexité.

L’homme doit comprendre et composer avec la nature : l’éradication d’une maladie, comme la variole, qui semble une victoire absolue sur la nature, peut à terme laisser le champ libre à une autre maladie qui occupe sa niche écologique, maladie que l’on ne sait pas contrôler.

L’esprit de précaution doit avoir une vision globale de l’utilité réelle d’une pratique qui peut s’avérer dangereuse. Un risque collectif ne peut être pris que dans l’intérêt avéré du public par une décision collective. « Il faut faire dépendre les choix technologiques de deux exigences : est-ce bien nécessaire ? est-ce bien raisonnable ? »[[ Est-ce bien nécessaire ? Est-ce bien raisonnable ? Jacques Testard, Transversales Sciences et Culture n°40, juillet août 1996]].

On peut par exemple s’interroger sur les contradictions d’un système agricole qui subventionne d’une part la mise en friche des pâturages potentiels (avec des problèmes de débroussaillement) et d’autre part un système intensif qui est conduit à nourrir des herbivores avec des carcasses d’animaux malades. A ce stade, tenter de corriger de telles contradictions sans remettre en cause les organisations et les politiques sous-jacentes risque de ne pas être efficace tout en conduisant à des systèmes encore plus compliqués de normes, règlements et autres structures de contrôle.

Autre exemple : dans le domaine de la génétique, on prend des risques pour des manipulations d’utilité collective contestable, même si elle ont des utilités commerciales importantes pour une entreprise déterminée. Dans le même temps on laisse disparaître des caractéristiques génétiques essentielles dans une perspective de ressources et de précaution, celles des espèces sauvages ou rustiques.

A l’opposé il ne faut pas tomber dans l’illusion de la sécurité absolue, et pouvoir assumer certains risques. Ainsi, les limites de détectabilité ne peuvent plus être les déclencheurs systématiques de l’action contre certains micropolluants : les appareils de mesure devenant de plus en plus précis, ils apportent des informations utiles à l’évaluation des mécanismes en jeu et des risques.

Sur le terrain la mise en œuvre d’analyses de risque dès la conception de nouveaux produits ou de nouvelles productions devrait permettre d’éviter dès l’amont des erreurs. Or ces études ne sont pas courantes dans certains milieux : PME, agro-alimentaire…

Organiser les retours d’expériences

Pour assurer une bonne prévention, il faut améliorer le retour d’expérience. Or bien souvent, il est impossible de mener des enquêtes. Par exemple après un accident, une étude épidémiologique peut révéler des responsabilités. Et ceux qui seraient impliqués dans l’expertise sont souvent à la fois juges et parties. Pourtant des accidents ou pollutions pourraient apporter des éclairages sur l’influence de certains produits sur la santé. Là aussi, l’industrie l’a bien compris concernant les accidents d’usines. Mais il semble bien que pour les raisons précédentes, elles soient fort rares dans le domaine de la santé.

Il faut donc analyser les crises récentes, non pour chercher des responsables en regard du droit pénal, mais pour imaginer des principes ou des procédures qui auraient pu les éviter. Il n’est pas certain que les suites politiques et judiciaires de l’affaire du sang contaminé nous aient réellement fait progresser vers la précaution. Dans le domaine de l’analyse des accidents, il faut en effet déculpabiliser les acteurs pour avoir un réel retour d’expérience, comme l’a montré par exemple Air France. L’institution judiciaire ne peut être la seule tierce partie dans cette problématique, qui doit être largement portée par les différentes composantes de la société dans un véritable dialogue. L’information sur les risques doit être diffusée vers les acteurs les plus concernés : les chefs d’entreprise, les professionnels…

Agir en le plus en amont possible

Sur chaque question, la certitude scientifique se renforce, plus ou moins, avec le temps, mais les coûts d’évitement aussi. On peut être conduit à agir alors que la certitude scientifique est très faible, mais les mesures d’évitement encore peu coûteuses. La décision est donc toujours un choix difficile entre coût élevé incertain et coût d’évitement certain. Il met en cause tout autant un système de valeurs que l’acquisition des connaissances.

Ainsi, le bénéfice des éleveurs qui ont nourri des bovins avec des farines d’origine animale est incommensurablement plus faible que les pertes économiques actuellement observées dans la filière bovine. Mais les joueurs sont-ils vraiment les payeurs ? Dans ce cas précis on a un transfert de risque d’un acteur (l’éleveur industriel, risque économique) vers un autre (le consommateur, risque sanitaire ; et l’éleveur sur pâturage, non indemnisé bien que la chute des cours le frappe aussi). Il y a eu transfert dans l’avenir de coûts collectifs, permettant à court terme des bénéfices privés.

Dans un autre domaine, celui de la protection de l’ozone stratosphérique, le fait de ne pas avoir pris des mesures énergiques sur les produits les plus facilement substituables (aérosols), ou contrôlables par le confinement (solvants de nettoyage…), contraint aujourd’hui à l’élimination totale, y compris pour la filière du froid qui ne possède pas encore de substituts à grande échelle, ce qui augmente le coût de la mesure, la gravité des dommages (trou d’ozone et cancers) et les autres risques induits (ruptures possibles des chaînes du froid, salmonelloses, voire l’utilisation de substituts dangereux comme l’ammoniac).

Il faut prendre conscience que l’absence de précaution peut coûter cher. Dans le cas du sang contaminé, les assureurs ont été sollicités à hauteur de 1,7 milliards de F. Pour l’amiante certains chiffres évoquent pour la France 10 milliards de F d’indemnisation et 35 à 70 milliards de F pour le déflocage des bâtiments. L’ampleur nouvelle des sinistres météorologiques et climatiques a conduit 60 compagnies internationales d’assurance à demander l’application du principe de précaution et la diminution des rejets de gaz à effet de serre lors de la conférence sur les changements climatiques de juillet 1996 à Genève[[Insurers call for cuts in greenhouse gas emissions, UNEP New Release, Geneva/Nairobi, 9 juillet 1996]].

Anticiper permet d’éviter de s’engager dans des irréversibilités. Le développement technologique et les stratégies industrielles ne sont pas linéaires, mais connaissent des bifurcations, la consolidation de certaines techniques plutôt que d’autres sur des bases d’anticipation de l’avenir, sans qu’il y ait toujours une autre rationalité que la différenciation de produits par rapport à la concurrence. Mettre en place une stratégie sans regret en fonction des avenirs possibles, est sans doute le premier pas à faire vers une stratégie plus rationnelle.

La précipitation par manque d’anticipation a un coût. Pouvoir se donner le délai d’adaptation des structures industrielles, énergétiques ou de transport permet d’introduire des changements à un rythme acceptable pour les organisations. En revanche être obligé d’agir sous la contrainte de l’urgence entraîne un gaspillage économique, voire d’autres risques. A vouloir résoudre trop rapidement un problème on s’expose à en poser d’autres de nature différente. Ceci exige que le débat sur les directions à prendre se fasse tôt et de manière ouverte, sous peine d’occulter des enjeux majeurs pour l’avenir.

Comment appliquer le principe de précaution ?

Deux approches sont possibles. La première serait celle d’affirmer des principes à portée générale : ne pas tenter de transformer des herbivores en carnivores ; ne pas manipuler les gènes, car on transgresse les lois de la nature… Mais quels sont les principes justifiés, et ceux qui ne le sont pas ; et en fonction de quel référentiel social ? Le débat est difficile. Néanmoins la dimension éthique doit toujours y rester présente, conformément à ce que nous avons appelé l’esprit de précaution. Un principe de sécurité absolue n’est pas possible, même si pour certains risques de grande ampleur, il faut s’en approcher.

Plus politiquement correct, et bien que peu opérationnel pour le principe de précaution, serait le principe de la responsabilité économique : supporter le coût des dommages que l’on génère serait dissuasif et permettrait aux acteurs économiques rationnels de chercher spontanément à éviter ces risques. La crise de la vache folle démontre que le marché et le principe actuel de responsabilité n’ont pas été dissuasifs. En règle générale, les risques collectifs majeurs ne peuvent être réellement assurés dans le cadre privé : les sommes concernées sont considérables, atteignant des niveaux où les entreprises, voire les Etats ne sont pas solvables, où les assureurs refusent d’intervenir. C’est par exemple le cas du nucléaire.

Le principe de précaution, qui enseigne d’agir même en incertitude scientifique dans les cas de risque grave, doit donc trouver une concrétisation. Pour ne pas en rester à la simple affirmation des intentions et de principes généraux, ou s’en remettre à la seule régulation du marché, il faut lui donner un contenu opérationnel. Il est donc nécessaire d’articuler ce principe avec une procédure qui conduirait des premiers indices et des premières interrogations jusqu’à l’action préventive.

On peut au stade actuel proposer un schéma progressif en trois étapes qui viendrait renforcer progressivement « l’esprit de précaution » et la pratique des analyses de risques.

La première étape serait celle de la veille. Si une suspicion quelconque se fait jour, un premier état des lieux rapide peut être fait : identification de la validité de l’information et de sa source, recherche des motivations garantissant l’indépendance scientifique (liens éventuels avec des intérêts économiques), recherche d’informations au niveau international. Il convient à cette étape d’identifier si la question relève du principe de précaution : importance des impacts éventuels sur la santé et la vie, l’environnement ou l’économie, délais d’apparition de symptômes pouvant rendre irréversible la situation

Vigilance et préalerte consisteraient la deuxième étape. Un problème qui franchit la première étape pourrait faire l’objet d’une veille scientifique ou technologique : vigilance sur les symptômes (sur le modèle de la pharmacovigilance), garantie de l’indépendance et du pluralisme des équipes chargées de la veille (en rendant public leurs liens d’intérêt avec le sujet et en s’appuyant sur des experts internationaux), étude du coût des mesures préventives, suivi et présentation claire de l’évolution de la controverse scientifique. Cette seconde étape peut conduire éventuellement à une troisième, celle de l’action correctrice.

Cette troisième étape, celle de l’action, verrait la mise en œuvre des actions correctrices soit parce que l’ampleur du risque se confirme (principe de précaution), soit parce que des observations le démontrent (principe de prévention).

Il est sans doute possible d’ajouter des niveaux intermédiaires, mais il est important d’établir une progressivité lisible par tous les acteurs concernés, tant médias et citoyens que responsables politiques ou économiques. En effet, quand un problème passe du stade 1 au stade 2, un entrepreneur rationnel va adopter une stratégie de dégagement ou d’innovation puisque ses risques économiques augmentent. En favorisant très tôt la diffusion de cette information, notamment en direction des PME, on peut éventuellement aboutir à des substitutions sans avoir besoin d’une réglementation contraignante. Au stade 3, on considérerait que l’ampleur du risque potentiel ou la connaissance scientifique est suffisante, et que l’action s’impose à tous en application du principe de précaution ou de prévention.

Cette procédure améliorerait la communication, car sur ces problèmes complexes, les solutions impliquent un grand nombre de décideurs. Pour l’effet de serre par exemple, le dispositif international d’évaluation scientifique mis en place par les gouvernements (GIEC) conclut aujourd’hui qu’il faut agir, la conférence des parties demandant pour sa part la mise en place de mesures contraignantes en 1997. Malgré les décisions et les accords internationaux signés, les controverses continuent dans des milieux moins informés qui souvent utilisent des raisonnements tenus il y a 5 ou 10 ans. Cette approche peut donc aussi favoriser une plus grande efficacité de la mise en oeuvre des solutions.

Certains a priori scientifiques comme l’innocuité des faibles doses radioactives, ou les barrières génétiques entre espèces, ont été des arguments-clefs pour conclure en interne à l’absence de risques pour certaines technologies. Pour la génétique, des éléments de doute, voire d’infirmation, sont pourtant apparues : colza transgénique, baculovirus conçus pour un ravageur et en fait transmissible aux abeilles, …). Il faut être capable de rouvrir des chantiers de réflexion quand une des conditions, qui avait fait accepter un risque, est remise en cause par la connaissance.

Cette approche procédurale devrait permettre de mieux situer les responsabilités opérationnelles. La communauté scientifique et ses institutions peuvent y apporter leur contribution, si « elles parviennent à mettre sur pied ou renforcer des instances collectives d’expertise placées à une distance suffisante tant des administrations que des milieux industriels et financiers ou des organisations militantes[[Des vertus décisionnelles du Principe de Précaution en univers controversé, Olivier Godard, Colloque Maîtrise du long terme et démocratie : quel environnement pour le XXIème siècle ? Fontevraud 8-11 septembre 1996.]] ». Les scientifiques qui parfois confondent intime conviction, tradition culturelle et certitude scientifique, devraient voir leur responsabilité engagée dans ce processus. Même sollicités par un décideur politique, ils devraient pouvoir plus facilement transmettre leurs incertitudes et conduire ce dernier à demander des recherches et expertises complémentaires. La responsabilité et le rôle de chacun de ceux qui participent au choix politique doivent être parfaitement cernés, sans pour autant méconnaître la nature du processus de simplification abusive qui se joue du laboratoire à la déclaration de presse…

Cette procédure améliorerait la relation aux médias. Une gradation établie dans la transparence pourrait mieux éviter les dérapages médiatiques. L’accès à l’information est essentiel : les citoyens ont le droit de connaître les risques qu’ils courent et les conditions dans lesquelles le choix de ces risques se fait, les motifs des décisions qui les concernent. Ainsi, la nature de l’alimentation des animaux doit être connue à l’achat de la viande, le mode de culture et l’usage de pesticides, les concentrations des impuretés dans les matériaux recyclés… Le consommateur a le droit de savoir où, quand, comment ce qu’il consomme a été produit. Il faut pouvoir diffuser des signaux simples vers les acteurs concernés : PME, consommateurs…

Pour diffuser des informations encore faut-il en disposer. L’absence de collecte de certaines informations, qui empêche la traçabilité de certains événements, devrait être assimilée à de la destruction de preuve. De même il serait souhaitable de permettre au personnel d’entreprise de pouvoir faire valoir leurs inquiétudes sans subir des pressions. On pourrait à cet égard s’inspirer de loi américaine qui place ce qu’elle appelle les « whistle blower » sous la protection du juge.

Une organisation pour appliquer cette méthode

Cette méthode doit pouvoir s’incarner dans une organisation. La Commission Française du Développement Durable qui a initié cette réflexion, la poursuivra pendant l’année 1997, à la suite du débat qui aura été créé à l’occasion desAssisesnationalesdu développement durable et de la réflexion sur l’éthique, pour déboucher sur des propositions précises. Il est prématuré à ce stade préliminaire de proposer un organisme, mais des pistes de réflexion sur son rôle peuvent être proposées.

Il ne pourrait être chargé de la forme de ces procédures, dans l’esprit de la Commission nationale du Débat public (loi du 02/02/95 et décret de 1996), des structures ad hoc étant mises en place au niveau national, mais aussi international, pour évaluer chacun des problèmes relevant du principe de précaution. C’est par exemple ce que vient de faire le Ministère de l’Environnement en mettant en place une commission précaution/prévention dans le domaine de la santé et de l’environnement.

Il devrait assurer une mission de veille au niveau international, ainsi que le recours à une expertise multiple, car aucune communauté scientifique ne peut s’évaluer elle-même. Sa structure pourrait se rapprocher de celle de l’Agence du Médicament. Les membres de ses commissions devraient déclarer leurs intérêts : contrats de travail les liant éventuellement avec les entreprises concernées, participation financière au capital, travaux effectués contre rémunération, etc…

Une structure unique, même bien conçue, ne résoudra pas tous les problèmes. La recherche du consensus n’est pas toujours l’objectif : pour l’accident nucléaire de Three Miles Island, pas moins de trois commissions ont débattu et atteint des conclusions légèrement différentes.

Des confrontations, des débats sociaux, sont les compléments nécessaires à tout travail d’instance. Les médias ont un rôle à jouer, mais avec un sens des responsabilités qui n’est pas toujours observé, qui tient aussi à la difficulté de communication de la communauté scientifique sur des questions controversées.

Nos sociétés ont à faire face collectivement à ces nouveaux problèmes ; elles ne pourront s’en remettre à un organe scientifique. « Que vaut la savante et laborieuse quantification d’une probabilité de risque si elle n’est pas éclairée de la perception qu’en ont ceux des citoyens qui sont, personnellement et directement, assujettis au risque en question ?[[ Ethique et dialogue démocratique, Alain Pompidou, Le Monde 27 juin 1996]]  » C’est effectivement un problème de démocratie.

 

Quelques réflexions (sur la croissance)

Christian BRODHAG, alors élève de l’École des Mines de Saint-Étienne en 3ème année. Sans que les termes soient à l’époque définis l’article parle notamment d’obsolescence programmée, d’économie circulaire et d’énergie solaire. Article paru dans la plaquette de l’Association des élèves de l’école des Mines de Saint-Étienne en février 1974 sous le titre « Croissance » et dont Christian BRODHAG était chargé de publication.

Christian Brodhag, 1974, in Croissance, Plaquette de l’Association des Elèves de l’Ecole des Mines de Saint-Etienne