Christophe Bonneuil, La biologie dans l’ère du soupçon, 2000

La question du « risque génétique » remonte au début des années 1970, alors que la biologie moléculaire donnait naissance aux biotechnologies modernes. Qu’est-elle devenue depuis, et comment le public a-t-il été amené à donner son avis ?

 

Après la Seconde Guerre mondiale, de nombreux physiciens, parmi lesquels Francis Crick ou Léo Szilard, se reconvertirent dans ce qui allait devenir la biologie moléculaire. Ils abandonnaient une discipline mise sur la sellette par l’opinion internationale suite à l’explosion de la bombe atomique et l’irruption du risque nucléaire global, pour rejoindre un domaine inoffensif et prometteur de découvertes susceptibles d’améliorer la santé de l’humanité [1]. Cependant, à peine trente ans plus tard, la biologie moléculaire entrait à son tour dans l’ère du risque et du soupçon.

C’est Paul Berg, biochimiste à l’université Stanford (Californie), qui le premier sonna l’alerte. Au début des années 1970, il était l’un des chercheurs les plus en pointe d’une discipline alors en gestation, le génie génétique. En 1971, après avoir consulté plusieurs amis et collègues, il renonça à une expérience de recombinaison génétique où l’ADN du virus simien SV40 – cancérogène notamment chez le hamster – devait être intégré dans la bactérie Escherichia coli, un hôte très commun de nos intestins. Les craintes se firent plus vives avec la découverte, en 1973, des enzymes de restriction, qui simplifiaient considérablement les recombinaisons. En juin de la même année, à l’occasion d’une conférence, les biologistes exprimèrent leur préoccupation dans une lettre adressée au président de l’Académie des sciences américaine. La réaction de cette institution fut la création, en avril 1974, d’un comité sur l’ADN recombinant, présidé par Berg. En juillet, ce comité publia une lettre dans les revues Science et Nature appelant la communauté scientifique à un moratoire sur les expériences de recombinaison génétique. Le danger que Berg et plusieurs de ses collègues redoutaient alors était que les bactéries génétiquement modifiées, disséminées accidentellement dans l’environnement à partir d’un laboratoire, subissent des mutations de l’ADN viral intégré qui fassent apparaître de nouveaux agents pathogènes (cancéreux notamment) pour l’homme. Les biologistes les plus alarmistes y voyaient une source potentielle de nouvelles catastrophes sanitaires, mais aussi – nous sommes en pleine guerre du Viêt-Nam, avec une forte contestation dans les milieux universitaires et scientifiques – des technologies ouvrant la voie à des armes biologiques de destruction massive.

Berg et ses collègues décidèrent de convier les biologistes moléculaires américains et européens à une conférence internationale, afin de décider de la suite à donner au moratoire. Cette conférence se tint du 24 au 27 février 1975, dans le centre d’Asilomar de la localité californienne de Pacific Grove. À l’issue de trois jours de discussions enflammées et confuses, on décida de lever le moratoire sur la plupart des manipulations génétiques in vitro. Toutefois, en contrepartie de la reprise des expériences, les conférenciers énoncèrent une série de recommandations de précaution. Ces règles de confinement physique et biologique (travail sous hotte, souches bactériennes atténuées, incapables de vivre hors du laboratoire, plasmides désactivés, …) donnaient corps implicitement à des risques encore hypothétiques, ceux-là même envisagés par Berg [2]. Comme la physique en 1945, la biologie moléculaire entrait donc dans l’âge de la suspicion : ses acteurs admettaient que la liberté et les usages de la recherche devaient être bridés par des réglementations.

Cassandre et Prométhée

Le parallèle entre les deux disciplines est d’ailleurs dans l’esprit de bien des protagonistes des débats sur l’ADN recombinant. Pour attirer l’attention sur l’ampleur potentielle et l’irréversibilité du risque génétique, on le comparait souvent au risque nucléaire. Une telle comparaison n’était pas simplement le fait de quelques journalistes à sensation, mais aussi de scientifiques reconnus, tel le biochimiste Erwin Chargaff, pionnier de l’étude de l’ADN, qui lançait cet avertissement :

« Vous pouvez arrêter de provoquer la fission de l’atome ; vous pouvez arrêter de visiter la Lune ; vous pouvez arrêter d’utiliser des aérosols ; vous pouvez même décider de ne pas tuer des populations entières avec quelques bombes. Mais vous ne pouvez pas rappeler au néant une nouvelle forme de vie… une atteinte irréversible à la biosphère… » [3]

Si la réalité des risques alors débattus est aujourd’hui minorée – 30 ans de manipulations génétiques dans des milliers de laboratoires n’ayant guère déclenché d’épidémie –, force est de reconnaître que la problématique du « risque génétique » (biohazard en anglais) a émergé dès le milieu des années 1970, au travers de multiples conférences et de vives controverses entre scientifiques, avec la naissance d’un débat public sur ces questions, et par la mise en place de politiques nationales de réglementation dans les pays développés (normes et instances d’évaluation et de gestion du risque). Ce climat est apparu au moment même où la biologie moléculaire donnait naissance aux biotechnologies, puis à une nouvelle bio-industrie. Après les découvertes fondamentales des années 1940-1970 (la nature désoxyribonucléique des gènes, la double hélice et les mécanismes de duplication de l’ADN, le code génétique, l’élucidation de la transcription, de la traduction et de mécanismes régulateurs de l’expression génique, etc.), la biologie moléculaire devenait aussi une science appliquée, promettant nombre d’innovations médicales et industrielles à court terme.

Cassandre serait donc née en même temps que Prométhée ! Depuis lors, les progrès galopants des biotechnologies (clonage, production de protéines humaines par des microorganismes, OGM agricoles, thérapie génique, etc.) n’ont cessé d’alimenter chez le public le sentiment que cette activité comporte des risques.

L’historien et sociologue des sciences Herbert Gottweis a comparé les situations américaine, britannique, allemande et française au cours des années 1970 : il a analysé la façon dont, après la conférence d’Asilomar, les débats sur les enjeux liés aux biotechnologies se trouvaient cadrés par une définition technique du risque et par le déploiement d’institutions et de normes de sécurité relatives à différentes catégories d’expérimentations. Cette configuration renforce le postulat dominant selon lequel une meilleure prévention des risques créés par les techniques du génie génétique ne peut être obtenue que par le développement de ces techniques elles-mêmes ; en outre, la focalisation sur la dimension technique du risque tend à marginaliser les réflexions sur les enjeux éthiques, environnementaux ou socio-économiques, ainsi que les demandes d’une participation du public à la définition des risques socialement acceptables. Que la figure de Cassandre soit née en même temps que celle de Prométhée dans les représentations publiques des biotechnologies n’est pas pour cet auteur une simple coïncidence temporelle : la « molécularisation » des promesses de salut médical et la « molécularisation du risque » peuvent être comprises comme les deux faces complémentaires de l’apparition des biotechnologies dans les représentations collectives. On retrouve ces deux faces dans l’émergence d’une intervention de l’État en matière d’innovation biotechnologique et de gestion du risque génétique : un nouveau régime de « politique moléculaire » se met ainsi en place [4]. Selon Gottweiss, ce régime « n’aurait pas nui, mais plutôt contribué à la mise en scène pour le public des biotechnologies modernes comme étant des « technologies de l’avenir » socialement acceptables». Aussi provocatrice qu’elle puisse apparaître, cette thèse, qui va à l’encontre de l’interprétation traditionnelle – considérant les préoccupations liées à des risques non avérés comme des entraves au développement des recherches – est intéressante en raison de sa perspective globalisante : elle insère judicieusement les débats et normes relatifs aux risques potentiels des recombinaisons génétiques dans la trame d’ensemble des politiques et des discours qui ont permis le développement des biotechnologies.

Les généticiens juges et partie

Quelle fut l’attitude des biologistes face à l’irruption de cette problématique du risque, puis dans les dispositifs d’évaluation et de gestion de ce risque ? Un bilan global ne peut que simplifier des prises de position diverses et de réels clivages apparus au sein de la communauté scientifique. Dans le débat américain sur les recombinaisons génétiques, par exemple, s’opposèrent «jeunes prométhéens» (tel le prix Nobel James Watson, qui refusait de brider le nouveau génie génétique au nom de craintes selon lui infondées) et « vieux alarmistes » (tel Erwin Chargaff, dont nous avons cité la mise en garde).

Quant au débat français, il opposa scientifiques « établis », notamment à la direction de l’Institut Pasteur ou à la Direction générale de la recherche scientifique et technique (DGRST), ancêtre du ministère de la Recherche, et scientifiques « critiques », tels ceux du Groupe d’information biologie, créé à Paris en 1975 et proches du courant de critique des visions scientistes du progrès, incarné notamment par la CFDT d’alors [5]. Enfin, une autre ligne de fracture passait entre des biologistes moléculaires, portés vers une approche mécaniste et causale des risques, et des spécialistes en génétique des populations privilégiant une vision « populationnelle » et statistique. Malgré ces clivages, on peut schématiquement distinguer trois phases dans l’évolution du rôle des chercheurs dans le débat public et dans celle des dispositifs d’évaluation et de gestion des risques génétiques.

La première phase, allant de 1975 au milieu des années 1980, fut celle de l’autorégulation par la communauté des biologistes moléculaires elle-même. Pour le « meilleur » d’abord, puisque des scientifiques tels que Paul Berg ont eu le mérite d’attirer l’attention du public sur l’existence de risques potentiels et de lancer l’idée d’un moratoire sur les recherches en attendant de meilleures connaissances sur les risques encourus [6]. Pour le « moins bon » ensuite, puisque l’évaluation et la gestion des risques fut rapidement restreinte à quelques thématiques dominantes et à d’étroits cénacles d’experts légitimes : aussi bien aux États-Unis qu’en Allemagne, en Grande-Bretagne et en France, de petits groupes de biologistes moléculaires étaient à la fois producteurs de travaux scientifiques dans le domaine du génie génétique, décideurs en matière de politique scientifique, et avaient le monopole de l’expertise légitime de l’évaluation des risques générés par les biotechnologies.

Cette configuration fermée était à son paroxysme en France, où l’instance de régulation créée en mars 1975, la Commission nationale de classement des recombinaisons génétiques in vitro, était rattachée à la DGRST et massivement dominée par les protagonistes de la recherche en biologie moléculaire. Exception culturelle oblige, la configuration de l’expertise sur le risque génétique en France, de ce point de vue, ressemblait davantage au schéma hexagonal d’expertise nucléaire qu’aux dispositifs d’expertise des risques génétiques des pays anglo-saxons, plus favorables au débat contradictoire et à la participation du public. Ainsi, en 1979, 20 % des membres des comités locaux américains de biosécurité étaient extérieurs au milieu de la recherche (élus locaux, médecins, responsables associatifs, etc.). De même, le Genetic Manipulation Advisory Group, équivalent britannique de la Commission nationale de classement créé en 1976, ne comprenait que 8 scientifiques sur 18 membres, dont 4 représentants du « public » et 4 représentants des syndicats [7].

La clef des champs

Une deuxième phase s’ouvre, au milieu des années 1980, lorsque le débat sur les risques génétiques, jusqu’alors centré sur la sécurité d’expériences confinées aux laboratoires, s’est étendu au largage dans l’environnement (installations industrielles, essais en champ de microorganismes et de plantes génétiquement modifiés). Le public se sent alors plus directement concerné et la couverture médiatique de ces enjeux s’accroît, d’autant que l’opinion occidentale, entre 1985 et 1992, devient plus sensible aux enjeux écologiques (pluies acides, effet de serre, couche d’ozone, Tchernobyl, sang contaminé, etc.). Les spécialistes de sciences politiques ont même cru déceler dans cette conjoncture un « cycle environnemental » [8]. Dans ce contexte émergent de nouvelles demandes du public : on exige des études d’impacts plus solides ; on souhaite, au nom du principe de précaution naissant, que la charge de la preuve soit inversée, c’est-à-dire qu’il revienne à l’innovateur d’apporter la preuve qu’un nouveau produit n’est pas perturbateur ou nocif.

À l’opposé du minimalisme et de la base volontaire des réglementations post-Asilomar, on demande désormais que tous les acteurs, y compris privés, soient tenus de respecter des réglementations inscrites dans la loi. Enfin, au-delà de la définition technique des risques, percent de vifs débats sur les droits de propriété, les dangers d’eugénisme et de fichage génétique des populations, la définition des responsabilités légales en cas de «pollution génétique», etc. Enfin, une forte demande de participation du public à l’évaluation des risques et des technologies se fait jour. Cette nouvelle situation place les anciens dispositifs d’expertise (qu’il s’agisse de la Commission nationale de classement en France, du Genetic Manipulation Advisory Group en Grande-Bretagne, ou de la Zentrale Kommission fur Biologische Sicherheit – ZKBS – outre-Rhin) devant une crise de légitimité [9]. Un ajustement s’opère alors dans ces commissions. Comme en Allemagne, où la ZKBS passe en 1990 de la tutelle du ministère de la Recherche à celui de la Santé et voit sa composition modifiée, on observe outre-Manche une même évolution vers un plus grand poids des spécialistes d’écologie par rapport aux biologistes moléculaires dans un collège scientifique plus restreint, et vers une plus grande représentation des profanes et des opposants. Ainsi, les représentants des syndicats, des agriculteurs et des environnementalistes britanniques comptent-ils 5 membres sur 22 dans l’Advisory Committee on Releases to the Environment (ACRE) créé en 1990, au lieu d’un seul sur 18 dans la commission équivalente établie en 1986 pour donner son avis sur les disséminations d’OGM [10].

Les conférences de citoyens

Dans ce mouvement général, la France paraît là encore sensiblement en retrait, notamment par son minimalisme en matière de réglementation, qui en fait le leader européen des expérimentations en champs des OGM, par l’absence de cadre législatif – à la différence du volet biotechnologies de l’Environmental Protection Act de 1990 en Grande- Bretagne et de la loi sur la réglementation du génie génétique adoptée la même année par les parlementaires allemands –, mais aussi par une ouverture plus tardive des commissions d’experts aux «profanes ». La Commission du génie biomoléculaire (CGB), créée en 1986 pour donner son avis sur les expériences de dissémination volontaire d’OGM dans l’environnement, est encore dominée par des biologistes moléculaires. La représentation des consommateurs, agriculteurs et défenseurs de l’environnement est un peu élargie en 1993 puis surtout en 1998, alors que le débat public sur les OGM fait rage. À cette époque apparaît aussi un plus grand pluralisme disciplinaire : sur les 19 membres de la nouvelle CGB renouvelée en 1998, parmi lesquels 12 scientifiques, le nombre des biologistes moléculaires est ramené à 6, tandis qu’entrent en scène des toxicologues, entomologistes, écologues ou biologistes des populations. Ces derniers sont également nombreux dans le Comité de biovigilance créé la même année pour assurer le suivi des essais autorisés par la CGB.

Bien que gagnant en pluralisme, les instances d’expertises de ces trois pays européens restaient encore, dans cette deuxième phase, inscrites dans un schéma classique : cadrage exclusif sur la seule dimension technique des risques, délibérations à huis clos avec avis univoque (l’absence de présentation des points de vue minoritaires ne permettait donc pas la constitution et la médiatisation d’un espace de débat) et décision conforme de l’administration. En France, les choses basculent sur ce dernier point en février 1997, lorsque le Premier ministre, Alain Juppé, rejette l’autorisation de culture d’un maïs transgénique ayant fait l’objet d’un avis favorable de la CGB. Cette décision marque une rupture importante, en affirmant l’autonomie du politique par rapport au cadrage expert des décisions : l’accent est mis sur l’importance des incertitudes scientifiques concernant l’impact des plantes transgéniques, incertitudes qui justifient une application plus stricte du principe de précaution. À partir de ce moment, et sur fond de forte mobilisation de l’opinion à l’encontre des OGM, il apparaît que la science n’est plus reconnue comme seule source d’autorité sur des questions qui engagent des choix de société.

Cette situation marque le début d’une troisième phase, que l’on retrouve à des degrés divers dans plusieurs pays européens au milieu des années 1990. On assiste à la mise en place de consensus conférences (traduit en français, du fait d’une culture moins portée sur le consensus, par « conférences de citoyens ») où des profanes, lors de réunions publiques, auditionnent spécialistes et parties prenantes avant de rendre un avis consultatif. Ce dispositif délibératif d’évaluation technologique a été inauguré au Danemark au milieu des années 1980 – plus de 15 conférences depuis cette date – et a été repris dans de nombreux pays (Pays-Bas, Grande-Bretagne, Australie, Canada, Japon) [11]. Sa méthodologie s’inspire largement de la philosophie politique de Jürgen Habermas. Pour ce philosophe allemand contemporain, le concept de rationalité renvoie non plus au savoir que détiendrait un sujet (ou un groupe, par exemple une communauté scientifique) relativement à un monde d’objets, ou à sa capacité à cerner et maîtriser ce monde par la manipulation, mais plutôt à un savoir dont la solidité et l’utilité sociale résultent d’une élaboration dans l’espace public par l’interaction et la confrontation d’arguments. Il existe pour Habermas une « rationalité délibérative », fondée sur des procédures plutôt que sur l’invocation d’une transcendance d’un réel, susceptible de refonder l’action publique [12].

Plus que l’adhésion à la philosophie habermassienne, c’est sans doute la nécessité d’offrir à l’opinion une contrepartie à l’autorisation de mise en culture du maïs Bt 176 de Novartis qui incita, en novembre 1997, le gouvernement Jospin à expérimenter en France ce dispositif délibératif venu du Danemark. Car il avait dans un premier temps annulé ce projet, lancé sous le gouvernement précédent. La conférence de citoyens (15 « candides » choisis par un institut de sondage) s’ouvre alors en juin 1998. Insistant sur l’étiquetage et sur l’interdiction des gènes marqueurs de résistance aux antibiotiques, mais excluant le moratoire demandé par certains (et de fait mis en œuvre un an plus tard à l’échelle européenne), les recommandations des citoyens sont relativement équilibrées. Plus que par les effets directs, limités, de ces recommandations sur les décisions du gouvernement, l’impact de cette conférence doit se mesurer à la façon dont elle stimula le débat public [13].

La méthodologie des conférences de citoyens, rompant avec la fermeture des commissions d’experts, présente des similarités avec la procédure dite du « débat public », instituée en 1995 par la loi Barnier pour les grands projets d’aménagements, et témoigne de la recherche de réponses à la crise de légitimité des formes classiques de l’action publique. Ces nouvelles méthodes sociales de délibération présentent en effet le risque de faire passer à bon compte les décisions publiques, au moment où la légitimation de ces dernières par la référence à la démocratie représentative, à l’intérêt général, au progrès technologique ou aux certitudes scientifiques ne fonctionne plus [14]. Il est encore trop tôt pour dire dans quelle mesure les conférences de citoyens remplissent effectivement cette fonction, ce qui confirmerait la thèse avancée par Gottweis à partir de son étude historique. Mais il est intéressant de noter que les dernières éditions de l’euro-baromètre sur les attitudes face aux biotechnologies semblent indiquer que l’opinion danoise – effet des conférences de consensus ? – entrerait, après un fort rejet ces quinze dernières années, dans une phase de meilleure acceptation [15].

Certains s’inquiètent de la naissance d’une nouvelle « ingénierie sociale », visant à produire l’acceptation par le public de choix technologiques déjà faits en amont par les innovateurs. D’autres redoutent au contraire, dans ces conférences de citoyens « lambda », le danger d’un gouvernement de l’opinion, qui aurait chassé la Raison scientifique et les experts de la République, et se mêlerait de brider la science. On peut en tout cas déceler, dans ces nouveaux dispositifs, une mutation dans les rapports entre science et démocratie.

Christophe Bonneuil,
Centre Koyré d’histoire des sciences et des techniques,
muséum national d’histoire naturelle.

 

Article publié dans la revue Biofutur n°200, mai 2000.

 


[1] M. Morange, Histoire de la biologie moléculaire, Paris, La Découverte, 1994, p. 92-93.

[2] S. Krimsky, Genetic alchemy: the social historyofthe recombinant DNA controversy, Cambridge, MA, MIT Press, 1982. M. Blanc, L ère de la génétique, Paris, La Découverte, 1986. S. Wright, Molecular politics, Univ. of Chicago Press, 1994.

[3] E. Chargaff, Science 192, 1976,pp. 938-939.

[4] H. Gottweis, Governing molecules: the discursive politics of genetic engineering in Europe and the United States, Cambridge, MIT Press, 1998. U. Beck, Risk Society, Londres, Sage, 1992.

[5] A. Mendel, Les manipulations génétiques, Paris, Le Seuil, 1980.

[6] P. Berg et. al., Proc. Nat. Acad. Sci. USA 71, 1974, pp. 2593-2594.

[7] Gottweis, op. cit.

[8] D. Boy, in : Instituer l’environnement-, 25 ans d’administration de l’environnement (P. Lascoumes, éd.), Paris, L’Harmattan, 1999, pp. 211-220.

[9] Gottweis, op. cit., p. 265.

[10] L. Levidow, J. Tait, Sci. Public Pol. 20,3, 1993,pp. 193-209.

[11] R. von Schomberg (éd), Democratising technology, theory and practice of deliberative technology policy, Int. Centre for Human and Public Affaire (ICHPA), The Netherlands, Hengelo, 1999. S. Joss, J. Durant (eds), Public participation in Science: the role of consensus conferences in Europe, Londres, Science Muséum, 1995.

[12] J. Habermas, Théoriede l’agir communicationnel, Paris, 2 vol., Fayard, 1987.

[13] P.B. Joly et al., Annales des Mines – Responsabilité et environnement, avril 1999, pp. 12-25.

[14] P. Lascoumes, Annales des Mines – Responsabilité et environnement, avril 1998, pp. 51-62

[15] S. de Cheveigné, Communication aux journées d’anthropologie des techniques, Collège de France, déc. 1999.

Publicité

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s