Science : un terrain à ne pas délaisser
Le rapport à la science des courants politiques et intellectuels partisans d’une remise en cause radicale du pouvoir du capital a évolué. Les « pères fondateurs » du marxisme suivaient les travaux scientifiques de leurs temps en s’efforçant de les intégrer à leur projet révolutionnaire. Certains de leurs épigones ont parfois dérivé vers un scientisme naïf à la mesure d’un optimisme historique qui débouchait sur la vision d’une humanité irrésistiblement en marche vers le progrès et le socialisme. A l’inverse, aujourd’hui, beaucoup de partisans affirmés d’une transformation sociale radicale font preuve d’une ignorance, voire d’une méfiance généralisée vis-à-vis de la science – du moins des sciences dures.
Le progrès dans les sciences existe : on sait infiniment plus de choses aujourd’hui qu’hier. Mais, hélas, les conditions nécessaires ne sont pas les conditions suffisantes : ce progrès ne coïncide pas dans cette société avec le progrès tout court. Voilà pourquoi nous voulons la changer. Changer cette société suppose qu’on la connaisse. Qu’on connaisse bien sûr ses rapports sociaux, mais aussi qu’on ait quelques idées concernant les bases matérielles sur lesquelles elle s’édifie. Ne sommes- nous pas matérialistes ?
Une forme nouvelle d’aliénation
Jusqu’à l’invention de la machine à vapeur, tous les individus comprenaient le fonctionnement des outils qu’ils utilisaient. L’électricité a changé la donne. Une forme nouvelle d’aliénation est née. La plupart des gens – y compris les intellectuels de haut niveau – qui utilisent la télévision, le GPS ou le four à micro-ondes sont totalement incapables d’en expliquer même grossièrement le principe. Si l’on est témoin de ces « miracles », pourquoi ne pas croire en d’autres, comme la transmission de pensée ou l’astrologie qui sont tout autant merveilleuses ? Paradoxalement, donc, cette crédulité nouvelle est à mettre au « crédit » des progrès scientifiques.
Il est facile de dire que « tout est politique » et, sans connaissance de la chose, d’opiner sur les OGM, le nucléaire, le réchauffement climatique ou les pollutions. Mais alors le danger est grand d’identifier la pieuvre Monsanto à tous les OGM et à tous leurs usages possibles. Les OGM, comme la radioactivité ou les études des nanoparticules sont des conquêtes de l’esprit humain. Ce sont des découvertes qui potentiellement pourraient permettre de mieux vivre aux milliards d’individus qui peuplent la Terre en ne les obligeant pas à passer par tous les stades de développement qu’ont connus les sociétés occidentales [1].
Une société qui pourra discuter de ses choix
La Ligue des Communistes, dans les années 1840, pouvait être politiquement solidaire des ouvriers qui mettaient des sabots dans les engrenages des machines pour protester contre le chômage ou les cadences, mais elle ne pouvait pas défendre le mot d’ordre « à bas le moteur à vapeur ». Dans une société dominée par la recherche du profit maximum (ou par une bureaucratie incontrôlée), ces conquêtes de l’esprit humain peuvent aussi causer d’énormes dommages.
Il est bien joli de parler du « principe de précaution », mais le capitalisme est congénitalement incapable de penser les choix à long terme. Voilà pourquoi nous devons aujourd’hui nous opposer dans cette société fondée sur le profit à certaines utilisations des OGM ou du nucléaire. Et pour l’avenir, lutter pour l’avènement d’une société qui pourra réellement discuter des bons choix.
Ce dossier s’ouvre par un article sur le bon usage du doute, puis vient une critique du relativisme scientifique, celui qui considère que la prétention des sciences à l’objectivité est une mystification.[2] Il se termine par un article sur les bons (et mauvais) usages des OGM. Il ne reflète pas les positions officielles du NPA, qui, Dieu soit loué, n’existent pas.
H. Sandor
Notes :
1 Voir par exemple le rôle du Net et des téléphones portables dans les pays pauvres.
2 Ces deux articles reprennent grosso modo une conférence donnée à l’Université d’été 2013 du NPA. Ils résument en partie le contenu d’un livre d’Hubert Krivine à paraître aux éditions Cassini, De l’atome imaginé à l’atome découvert, essai contre le relativisme scientifique.
Du bon usage du doute en sciences et peut-être un peu ailleurs
Une horloge arrêtée indique certainement l’heure exacte – et même deux fois par jour –, mais on ne sait pas quand. De la même façon, le doute systématique permet certes de se prémunir des erreurs ou des escroqueries, mais il ignore également le vrai au passage.
Quelles que soient les satisfactions intellectuelles (et souvent mondaines) qu’il peut procurer, le doute systématique est donc aussi opérant que notre horloge arrêtée. Historiquement, pourtant, le doute a fait œuvre salutaire : c’est le « doute scientifique » apparu comme mise en question des vérités révélées. Sous sa forme plus moderne, c’est la notion, popularisée par le philosophe des sciences Karl Popper, que toute vérité pour être scientifique doit être réfutable. La vérité révélée est indiscutable, mais une vérité scientifique « indiscutable » est un oxymore. La fragilité de la vérité scientifique est sa force.
Le désirable n’est pas nécessairement le vrai
Croire une affirmation seulement quand on a de bonnes raisons de la croire vraie (Bertrand Russell) peut sembler une banalité, un comportement que tout le monde tient. Mais il n’en est pas ainsi : le « seulement » rend ce comportement souvent difficile à maintenir.
Croire à un paradis au ciel, comme l’annoncent la Bible et le Coran, ou bien sur terre en URSS, comme le proclamait la propagande de Staline, sont des croyances fondées sur le bienfait qu’on en espère. La religion peut éventuellement calmer la peur de la mort et l’astrologie répondre à des angoisses, elles n’en sont pas davantage vraies. Les « bonnes raisons » fondées sur l’avantage (ou l’inconvénient) qu’il y aurait à croire (ou à ne pas croire) sont en fait de mauvaises raisons [1]. Les grands et petits exemples abondent, et pas seulement en matière scientifique. Quelques « petits » d’abord.
En premier lieu, l’affaire des « avions renifleurs » dans les années 1975. Pendant plus de cinq ans, un certain Aldo Bonassoli a pu faire croire à la direction d’Elf tout entière, à des grands cerveaux comme Barre (premier ministre), Pinay (ex-ministre des Finances), Giscard d’Estaing (président), Chalandon (ministre), Guillaumat (PDG d’ELF), qu’il disposait d’une machine capable de repérer des gisements de pétrole par avions (appelés ensuite renifleurs). Ce fut une escroquerie totale de l’ordre d’un milliard de francs. Les bonnes raisons ? La soif de ressources créée par le premier choc pétrolier. Il faut noter l’importance du secret national défense qui a permis à l’escroquerie de perdurer si longtemps.
Autre exemple : les dommages radioactifs immédiats qui auraient été causés par les obus à uranium appauvri utilisés lors des bombardements occidentaux durant la guerre en Yougoslavie en 1999. En fait, c’est l’empoisonnement chimique (aux métaux lourds comme le plomb) qui était le plus dangereux, mais certainement à plus long terme tout comme le danger radioactif éventuel. Aujourd’hui encore, on ne connaît aucune plainte venant des principaux intéressés, en l’occurrence les Serbes, alors qu’on connaît très bien celles des Vietnamiens à propos de l’agent orange.
Un autre cas : l’utilisation par les Etats-Unis d’armes bactériologiques durant la guerre de Corée (1950-1953). Cette guerre fit plus d’un million de morts. Malgré toutes les bonnes raisons anti-impérialistes, il semble bien maintenant que cette accusation ait été montée de toute pièce.
Encore un : la culpabilité des époux Rosenberg exécutés en 1953 aux Etats-Unis sous McCarthy, en dépit d’une campagne internationale gigantesque affirmant leur innocence. Ils étaient accusés d’avoir livré « le secret de la bombe atomique » aux Soviétiques. Il est certain que leur procès fut inique, mais il est maintenant très probable qu’ils ont été – au moins – des informateurs idéalistes de Moscou.
Plus directement proches de l’objet direct de ce dossier (mais les mécanismes sont analogues), les tumeurs de rats ayant mangé du maïs OGM mises en évidence en 2012 par le chercheur français Séralini et censées prouver la nocivité de ce maïs. Malheureusement, les données statistiques n’étaient pas significatives. Les bonnes raisons sont évidentes, mais le résultat net milite – hélas – en faveur de Monsanto, comme si la non preuve de nocivité valait preuve d’innocence.
Les trotskystes n’ont pas été épargnés par ce qui est finalement une confusion entre « raisons de croire » et « raisons d’agir ». On avait cru dans les années 1980 que s’était formée en Pologne, avec la montée de Solidarnosc, une section polonaise de la IVe Internationale forte de plusieurs centaines de membres et disposant même d’une organisation de jeunesse et d’agriculteurs. Les bonnes raisons de croire étaient évidentes, on peut même dire aveuglantes : un outil pour cette révolution politique espérée depuis si longtemps. Le prix à payer ensuite : une certaine démoralisation, celle-là même qu’on avait voulu éviter.
Du domaine du vraisemblable (les services soviétiques n’ont pas sous Staline lésiné sur les assassinats) était la croyance en l’assassinat à Paris de Lev Trotsky, fils de Léon, par le KGB en 1938. En fait, il était mort de l’incompétence notoire de son chirurgien.
Un exemple majeur, maintenant, de croyances fondées sur le bienfait qu’on en espère – qui concerne les milliards de croyants de par le monde. Il est bien illustré par le fameux pari de Pascal : « Dieu est où il n’est pas ; mais de quel côté pencherons-nous ? La raison n’y peut rien déterminer (...) Pesons le gain et la perte en prenant croix [en tirant à pile ou face] que Dieu est. Estimons ces deux cas ; si vous gagnez vous gagnez tout, et si vous perdez vous ne perdez rien : gagez donc qu’il est sans hésiter. »
Le passage est un peu confus : Pascal semble dire que puisqu’on ne sait pas si Dieu existe, il y a une chance sur deux pour que ce soit vrai. Ce qui est faux (on ne sait pas si on aura un accident d’avion ou pas, ce qui ne signifie pas une chance sur deux !) mais, surtout, il développe l’idée que croire coûte un peu par la perte de quelques plaisirs éphémères, mais rapporte infiniment par la promesse d’un félicité éternelle. C’est la « bonne » raison.
Plus généralement, la religion serait vraie parce qu’elle est utile : la prière y joue un rôle fondamental [2]. Sans la supposée efficacité des prières (pour faire venir la pluie, pour guérir une maladie, etc.), pas de religion de masse possible, n’en déplaise aux intellectuels religieux sophistiqués. Intellectuels qui tirent par ailleurs leur importance de l’existence des milliards de gens qu’ils ne détrompent pas et qui, eux, pratiquent la foi du charbonnier.
La source ne caractérise pas l’information
On ne doit pas juger une information seulement à l’aune de sa source. Qu’elle vienne de la CIA la rend certes douteuse, mais ne la disqualifie pas à coup sûr : après tout ces messieurs, quand ça les arrange, peuvent aussi avoir intérêt à dire des choses qui se trouvent être vraies : hélas, le goulag a bien existé.
Lemaitre, prêtre et astronome de son état, président de l’Académie pontificale, avait élaboré dans les années 1930 une théorie de « l’œuf primitif » qui fut initialement saluée par le Pape comme prouvant le Fiat Lux (« Que la lumière soit ! ») de la Bible. Tout pour déplaire ; et pourtant, cette théorie actuellement appelée « Big Bang » est, à juste titre, universellement reconnue.
Une connaissance vraie n’est jamais isolée
Mais quid des « bonnes raisons » si on se refuse de les fonder sur leur vertu opératoire espérée ?
Une tonne de littérature a été écrite sur la caractérisation de ce qu’est une démarche scientifique : la réfutabilité, la reproductibilité (c’est-à-dire l’accord avec l’expérience), l’universalisme, la parcimonie (l’économie de moyen, voire l’élégance), la capacité à prévoir, la consistance interne, etc. en sont les attributs habituels. Toutes sont pertinentes, mais aucune n’est nécessaire ou suffisante : la capacité du darwinisme à prévoir n’est pas évidente, l’âge de la Terre ne peut pas directement résulter d’expériences reproductibles, etc. Notons qu’il est en général beaucoup plus facile de montrer dans un cas précis qu’une démarche n’est pas scientifique : comprendre que Mme Élizabeth Teissier, astrologue de son état, est un escroc ne nécessite pas de profondes études d’épistémologie.
Il faut ajouter un autre attribut, au moins aussi important et curieusement moins souvent évoqué : l’imbrication d’une théorie ou d’une hypothèse dans le reste des connaissances. Cette imbrication lui procure en quelque sorte un poids effectif supérieur à la force de ses seuls succès locaux. En d’autres termes, le poids d’une connaissance intégrée s’alourdit du poids de toutes les autres. Une image très parlante de cet enchevêtrement des connaissances : quelquefois on peut changer dans une grille de mots croisés un mot au prix de petites modifications locales, mais généralement tout est à refaire. Ainsi, des journalistes peuvent sans état d’âme titrer sur la mémoire de l’eau [3] ou la vitesse des neutrinos (particules élémentaires) supérieure à celle de la lumière, la communauté scientifique, effrayée par la chaîne des conséquences, est plus réservée.
Conservatisme de la science ? Peut-être, mais c’est aussi l’exigence qu’à affirmation exceptionnelle, il faut des preuves exceptionnelles. N’oublions pas que cette même communauté aura finalement accepté rapidement la mécanique quantique [4] avec son cortège de résultats stupéfiants (chat de Schrödinger mort et vivant, un électron passant par deux trous à la fois, etc.), qu’elle affirme qu’une mystérieuse matière noire encore indécelée constitue 80 % de la matière existante, que l’écrasante majorité de l’énergie de l’Univers, l’énergie brune, nous est inconnue, etc.
Bien sûr la science est conservatrice, le rôle des privilèges, des pouvoir personnels ou des intérêts d’école existe. Mais il n’est pas décisif à terme. Ce qui fait la force de ce conservatisme est la nécessité pour toute nouvelle théorie de faire ses preuves. L’épisode de la « mémoire de l’eau » et celui de la « fusion froide [5] » prouvent cependant la relativité de ce conservatisme. Ces deux « découvertes », bien que farfelues, ont été sérieusement étudiées.
Cette attitude des scientifiques fait écho au célèbre pari de Pascal sous sa meilleure variante : une proposition même avec une probabilité très faible d’être vraie, mais avec un possible gain colossal (intellectuel et – ne l’oublions pas – matériel) vaut la peine d’être testée. Aucune barrière psychologique et aucun conservatisme scientifique ne peuvent résister à cet attrait. Après tout, ce n’est pas parce qu’on ne sait pas expliquer un phénomène qu’il faut en nier l’existence : on a trouvé les propriétés
curatives de l’aspirine bien avant qu’on en ait compris le mécanisme...
Dans les sciences sociales, où l’administration de la preuve est plus difficile et les intérêts sociaux plus présents, il est, plus que dans les sciences dites « dures », tentant de défendre l’idée d’une « vérité de classe », ou de sexe ou de culture. C’est une impasse qui laisse la rationalité aux mains de nos adversaires. Nous reviendrons certainement sur ce sujet très controversé au NPA et dans ses franges.
Hubert Krivine
Notes :
1 Ces mauvaises raisons s’appuient toujours sur l’Autorité. Dans le passé, c’était celle d’Aristote et/ou de l’Église et du Livre saint. On en a connu des résurgences modernes avec la pensée de Staline et le petit livre rouge de Mao.
2 Ce qui est curieux : Dieu étant infiniment savant et juste, en quoi l’homme peut-il lui demander de modifier son attitude ? En fait, c’est l’homme qui a créé Dieu à son image et non l’inverse !
3 En juin 1988, la revue Nature publiait un article dans lequel le docteur Benveniste soutenait qu’une solution diluée au point de ne plus contenir de molécule de soluté conservait néanmoins une activité biologique (la dégranulation des basophiles). Tout se passait donc comme si l’eau se souvenait d’avoir jadis contenu un soluté maintenant disparu, évoquant pour ainsi dire une « mémoire de l’eau ». Enfin, l’homéopathie avait trouvé un fondement scientifique !
4 La mécanique quantique est la branche de la physique qui a pour objet d’étudier et de décrire les phénomènes fondamentaux à l’œuvre dans les systèmes physiques, plus particulièrement à l’échelle atomique et subatomique. Elle fut développée au début du XXe siècle afin de résoudre différents problèmes que la physique classique échouait à expliquer.
5 Deux scientifiques, Pons et Fleischman, ont cru voir, en mars 1989, un dégagement anormal de chaleur au cours d’une électrolyse, interprété par eux comme prouvant une fusion nucléaire à température ordinaire. Il y avait là une potentialité d’énergie propre pratiquement inépuisable.
La science n’est pas un « discours » comme un autre
On connaît l’influence du relativisme dans le champ politique, où la dite « fin des idéologies » lui a donné depuis plus de vingt ans une nouvelle vigueur. On sait moins les dégâts que le relativisme peut produire dans le domaine du débat scientifique…
La validité des connaissances scientifiques, fondée sur l’enchevêtrement de beaucoup de théories et d’expériences, est radicalement mise en question par les tenants (ou les héritiers) du « programme fort » [1], pour qui « le contenu de n’importe quelle science est social de part en part ». Avec – hélas ! – un grand pouvoir de séduction à l’extrême gauche. Et ce, malgré les déboires de « la science prolétarienne » qui affirmait la supériorité de la science stalinienne, parce que d’origine prolétarienne, sur la science bourgeoise.
À des variantes près, Bruno Latour, dans son livre La Science en action (La Découverte, 2005), s’était fait le chantre de ces conceptions. Nous ne sommes pas certains que Latour continue aujourd’hui encore à flirter avec ce courant relativiste, mais son livre a eu un grand écho national et international.
Du trivialement vrai au trivialement faux
Synthétiquement, ce courant de pensée considère naïf de faire intervenir la Nature – c’est-à-dire l’expérience – comme arbitre des controverses scientifiques ; ou, plus subtilement, ne la considère que comme un argument rhétorique supplémentaire. La notion de « vérité » scientifique serait une naïveté, voire une imposture. A la limite, ce sont les scientifiques qui fabriqueraient les objets qu’ils croient « découvrir » (les faitiches). Citons Bruno Latour (La Recherche, n° 307) qui s’interroge gravement sur la validité d’affirmer que Ramsès II était mort de tuberculose puisque le bacille de Koch (le BK) n’avait pas été inventé à l’époque :
« La réponse de bon sens (...) consiste à dire que les objets (bacilles ou ferments) étaient déjà là depuis des temps immémoriaux, et que nos savants les ont simplement tardivement découverts (...) Dans cette hypothèse, l’histoire des sciences n’a qu’un intérêt fort limité. »
Si on refuse « la réponse de bon sens », qu’est-ce qui décide alors de la validité d’une proposition ou de la clôture d’une controverse ? Ce serait le rapport de forces entre les différents réseaux hommes (et machines) protagonistes du débat. En effet, les chercheurs, nous affirme Bruno Latour (in La science en action), « n’utilisent pas la nature comme un juge extérieur et, comme il n’y a aucune raison d’imaginer que nous sommes plus intelligents qu’eux, nous n’avons pas, nous non plus, à l’utiliser. »
Mais, comme en politique, l’explication par « le rapport de forces » est une lapalissade. Elle n’est jamais fausse : par définition, c’est le plus fort qui gagne. Typique encore est l’affirmation d’Isabelle Stengers (Les concepts scientifiques, Gallimard, 1991) : « Un concept n’est pas doué de pouvoir en vertu de son caractère rationnel, il est reconnu comme articulant une démarche rationnelle parce que ceux qui le proposaient ont réussi à vaincre le scepticisme d’un nombre suffisant d’autres scientifiques, eux-mêmes reconnus comme ‘‘compétents’’ ».
Comme souvent chez ces relativistes, on passe d’une trivialité vraie : « si le concept est reconnu », c’est bien qu’il y a « un nombre suffisant d’autres scientifiques » pour le faire, à une trivialité fausse : cette reconnaissance ne devrait rien à « son caractère rationnel ».
Latour comme Stengers ne prennent apparemment aucun risque et couvrent tout le champ du possible en affirmant que c’est le meilleur réseau qui gagne (le réseau de Ptolémée, puis celui de Copernic, puis celui de Newton, etc.), mais ils n’ont rien dit. En revanche, lorsqu’ils qu’ils racontent que la nature, c’est-à-dire l’expérience et l’imbrication dont nous avons parlé ne jouent qu’un rôle rhétorique d’appoint, ils disent quelque chose et ce quelque chose est faux. Formellement, bien sûr, une vérité scientifique se fait à partir d’une négociation, mais appuyée sur du dur : sa vérification. Ce n’est pas une simple « opinion » : sans parler de la loi de la chute des corps, la relativité générale, par exemple, est testée des milliards de fois quotidiennement par les utilisateurs du GPS.
Oui, les savants découvrent des propriétés de la Nature, ils ne les créent pas
Galilée avait osé affirmer, contre Aristote et le Saint Siège, que les montagnes de la Lune et les satellites de Jupiter n’étaient pas des artefacts de sa lunette. Il a finalement gagné parce que montagnes et satellites étaient bien là, tout simplement.
Tout simplement ? Mais les satellites de Jupiter et les montagnes de la Lune étaient là depuis des milliards d’années et personne ne les avaient vus. Pour ce faire, il fallait de l’audace, une certaine curiosité et surtout disposer de la lunette inventée par les Hollandais. Audace, curiosité et lunettes ne tombent pas du ciel ; ce sont clairement les productions d’une société à un certain moment.
Mais ceci ne fait pas des montagnes de la Lune une construction sociale.
L’histoire de l’« hypothèse atomique » est analogue, même si la lunette qui a permis de « voir » les atomes est autre chose qu’un tube muni d’une lentille convergente à un bout et divergente à l’autre – pour ne pas mentionner la « lunette » (accélérateur de particules) qui a permis en 2012 de « voir » le boson de Higgs (particule élémentaire dont l’existence a d’abord été postulée). C’est à la construction de cette « longue vue » qu’on a assisté, pas à celle des atomes !
L’Amérique existait avant Christophe Colomb, comme les microbes avant Pasteur ou les atomes avant Perrin. Nous partageons donc platement « la réponse de bon sens » qu’on a pu les découvrir parce qu’ils existaient, à un moment et avec des moyens certes socialement déterminés.
Pour un relativisme bien placé
Les théories relativistes sont peu connues, et en tout cas sans influence, chez les professionnels de la science qui, de façon générale – et à tort –, se désintéressent de sa sociologie [2]. La popularité du relativisme scientifique ailleurs est due surtout au fait qu’il introduit une part de relativité dans l’examen de ce qui est un fourre-tout, appelé indifféremment science ou technoscience, qui va de la théorie de la relativité à la justification de la construction d’un métro Aramis en passant par les affirmations du Pentagone sur les missiles de croisière MX. Nous croyons effectivement qu’existe dans ce fourre-tout une distinction à opérer, distinction qui implique un relativisme certain.
Il y a d’une part la science conçue comme la somme des connaissances acquises et la recherche rationnelle de lois permettant de comprendre (et d’agir sur) les processus de la nature (voire de la société), laquelle aboutit à des résultats universels. Ces résultats sont indépendants de la personne de celui qui les énonce – même s’il est en général, aujourd’hui, mâle, blanc, écrivant l’anglais et d’origine sociale plutôt favorisée, même s’il travaille pour l’armée ou l’académie pontificale. Ces lois sont donc en principe testables par n’importe quelle fraction de la communauté humaine. Ce ne sont pas des vérités révélées ; elles peuvent être modifiées et le progrès scientifique consiste souvent, sur la base d’expériences ou d’une réflexion théorique plus poussée, à en élargir ou rétrécir les domaines d’application.
Il y a d’autre part les applications de cette science, qui vont de la bombe atomique au BCG en passant par l’utilisation des OGM. Relativiste, il faut l’être pour cette acception de la science : qui peut prétendre isoler les applications de la science des intérêts sociaux en jeu ?
Mais il ne faut pas se tromper de cible : Einstein qui a découvert la célèbre formule E=mc² n’est pas plus responsable par cette formule [3] du lancement de la bombe atomique sur Hiroshima que Galilée ne l’est de l’écrasement d’un Boeing sous prétexte qu’il a découvert la loi de la chute des corps, x=1/2 gt². Relativiste, il faut l’être également vis-à-vis des déclarations de scientifiques, dont rien ne prouve qu’elles satisfassent aux critères de rationalité, surtout quand les dits scientifiques s’expriment en dehors de leur domaine de compétence. La science est faite par les scientifiques, mais les scientifiques ne font pas toujours de la science.
Dans son livre, Bruno Latour mélange donc systématiquement des controverses scientifiques et d’autres qui ne le sont pas. De ce point de vue, on peut le lire avec profit pour apprécier comment l’administration Bush a utilisé toute sorte de subterfuges, d’alliances et de réseaux pour vendre l’existence d’armes de destruction massive en Irak. Cet immense jeu de rôles qui nous est présenté comme de la science en action – où revient d’ailleurs inlassablement l’expression « mise en scène » – a en effet l’avantage de décrire aussi bien la fabrication de « la fraude en action ». C’est la fameuse « symétrie » du « programme fort » qui propose d’analyser sur le même pied la fabrication des théories scientifiques et celle des mythes.
De fait, ces théories relativistes cristallisent une méfiance légitime envers l’impérialisme d’une vérité scientifique incontestable [4], souvent convoquée pour justifier n’importe quelle barbarie. Face à la morgue de certains experts, toute désacralisation de la science est bonne à prendre. C’est en particulier le cas des mal nommées « sciences économiques », où l’administration de la preuve est difficile et le poids des intérêts économiques colossal.
Une conséquence du relativisme
Nous leur avons donné de l’importance dans la mesure où elles en ont pour certains journalistes « savants » et décideurs politiques, voire pour certains enseignants. Sciences Po, par exemple, censé former nos futures « élites », avait choisi un sociologue comme directeur scientifique, Bruno Latour.
Ces théories ne sont pas directement responsables des politiques scientifiques actuelles, mais elles en constituent d’excellents compagnons de route. En effet, si le succès d’une théorie scientifique sur ses concurrentes est dû à la constitution d’un lobbying assurant la meilleure publicité, voire la meilleure propagande, mieux vaut alors développer dans les universités le budget « com », assurer le meilleur réseau, développer la visibilité, la concurrence et l’« excellence ».
Cette conception cynique d’une recherche mue par le désir de pouvoir se rapproche du coup d’un désir d’enrichissement personnel, d’où le rôle de la prime au mérite et la tendance à faire du facteur h [5] le critère de la valeur d’un chercheur et du classement de Shanghai, celui d’une université. Dans cette période d’austérité, c’est un choix plus économique que celui d’une formation de masse et d’expériences coûteuses dont les résultats ne sont jamais garantis. Il ne s’agit pas de stopper la recherche, mais de la ramener à ce qu’elle vaut : un argument de plus dans la rhétorique de la compétition.
Le malheur voudrait que cette philosophie déviante devienne auto-réalisatrice. Alors, on ne formera plus des chercheurs, mais des gagnants ou des « communicateurs », visant à se faire une place sur un marché des connaissances.
Hubert Krivine
Notes :
1 Attaché aux noms de David Bloor et Barry Barnes dans les années 1970.
2 Le physicien américain Steven Weinberg, qui ne s’en désintéressait pas, livre néanmoins – à propos de la philosophie en général – cette observation amère : « les intuitions de philosophes se sont révélées profitables aux physiciens, mais généralement de façon négative – en les protégeant des idées préconçues d’autres philosophes. »
3 Il est naïf de croire que cette formule ne sert qu’à rendre compte de l’énergie dégagée par la fission nucléaire ; l’équivalence entre la masse et l’énergie qu’elle stipule est un des fondements de toute la physique actuelle.
4 Répétons-le : presque par définition, toutes les vérités scientifiques sont contestables ; ce n’est pas leur faiblesse, mais leur force. Seules les vérités révélées ne le sont pas.
5 Ou h-index en anglais. Un scientifique avec un indice de h a publié h articles qui ont été cités au moins h fois. Un seul nombre, donc, caractérise un chercheur, et les machines peuvent se charger du classement !
Bibliographie abrégée
Bruno Latour, La science en action, Gallimard, 1989.
Alan Sokal et Jean Bricmont, Impostures intellectuelles, Odile Jacob, 1997.
Jacques Bouveresse, Prodiges et vertiges de l’analogie. De l’abus des belles-lettres dans la pensée, Raisons d’Agir 1999.
Hubert Krivine, La Terre, des mythes au savoir, Cassini, 2011.
OGM : la preuve du doute ?
L’affaire récente des « rats contaminés aux OGM » et ses suites ont posé centralement non seulement la question des OGM et des dogmes qui les entourent, mais aussi celle de la démarche et de la méthode scientifiques dans l’établissement de la preuve.
Tout le monde se rappelle la couverture choc du Nouvel Observateur daté du 20 septembre 2012 : « Oui, les OGM sont des poisons ! » Le dossier faisait référence à la publication, la veille par la revue Food and Chemical Toxicology [1], d’une partie des résultats de l’expérimentation menée secrètement sur 200 rats, pendant deux ans, par l’équipe du professeur de biologie moléculaire Gilles-Eric Séralini de l’université de Caen.
« Une bombe à fragmentation : scientifique, sanitaire, politique et industrielle. Elle pulvérise en effet une vérité officielle : l’innocuité du maïs génétiquement modifié » [2] titrait l’hebdomadaire en accompagnement des images terrifiantes des tumeurs et pathologies dont avaient été atteints les rats nourris au maïs transgénique [3]. L’événement était renforcé par la sortie simultanée de deux livres, « Tous cobayes ! » de Gilles-Eric Séralini [4] et « La vérité sur les OGM » de Corine Lepage [5], du film « Tous cobayes ? » de Jean-Paul Jaud [6] et du documentaire « OGM : vers une alerte mondiale ? » de Clément Fonquerine et François Le Bayon [7].
Il s’ensuivit une campagne médiatique intense, une controverse scientifique internationale, une campagne massive de soutien face à un déchaînement inquisitoire contre les auteurs, un mouvement de panique dans les milieux institutionnels. Soutien inconditionnel des militants anti-OGM, attaques tous azimuts des pro-OGM… Bref chacun était censé choisir son camp : « si tu n’es pas avec moi, tu es contre moi ! »
Mais cette vision binaire laissait beaucoup de citoyens, de militants associatifs, de scientifiques mal à l’aise face aux questions que la controverse soulevait. Devant les mystifications, mensonges, compromissions, conflits d’intérêts et la confidentialité des dossiers, la réponse des images chocs et d’une couverture médiatique spectaculaire fait souvent plus appel à l’adhésion émotionnelle qu’à la réflexion critique qui doit s’appuyer sur le raisonnement et la connaissance.
Toute démarche scientifique et/ou citoyenne sur les OGM doit d’abord préciser de quoi on parle, d’où on parle et formuler les questions qui soulèvent débat et doivent être tranchées par la société en toute transparence et démocratie. La mobilisation citoyenne contre certaines utilisations des OGM ne peut tirer sa force que de l’explication et la compréhension, en faisant appel à l’intelligence plutôt qu’à l’affect et aux arguments d’autorité.
De quoi parle-t-on ?
Le titre du Nouvel Observateur entretient une première confusion car il ne s’agit pas de tous les OGM, mais d’une étude portant sur une plante transgénique destinée à l’alimentation animale et humaine. Mettre tous les OGM dans le même sac arrange bien les lobbys pro-OGM en leur permettant de tout mélanger pour en justifier certains (les OGM agricoles) en se servant des autres (fabrication de médicaments, de vaccins, recherche scientifique …).
Ne pas préciser de quoi on parle, ce qui est en débat, c’est risquer de voir se développer cette confusion, déclencher des peurs irrationnelles, laisser cours à des mystifications faisant passer pour de la science ce qui n’est que des technosciences.
Il faut séparer les différents domaines d’utilisation et d’application des OGM, qui sont de nature fondamentalement différente selon qu’ils sont utilisés ou développés en milieu confiné (laboratoires, fermenteurs …) ou en milieu ouvert comme les OGM agricoles, destinés à être disséminés dans l’environnement pour la consommation humaine et/ou animale. Ne mélangeons pas la recherche fondamentale, le domaine médical et pharmaceutique, les différents secteurs industriels et enfin l’agroalimentaire. Les OGM agricoles soulèvent des questions spécifiques qu’il faut avoir le courage de débattre sans se réfugier derrière la confusion.
Une autre différence réside dans leur finalité. Par exemple, quand on utilise une bactérie pour produire de l’insuline, ce n’est pas la bactérie qui nous intéresse mais l’insuline qui sera extraite et purifiée, ce qui suppose le sacrifice de la bactérie transgénique : l’OGM est dans ce cas un outil, un moyen et non une fin. Les OGM agroalimentaires, les PGM (plantes génétiquement modifiées), en revanche, ne sont plus des outils de génie génétique mais une fin en soi. Elles sont utilisées comme des organismes à part entière. Les PGM ont exactement le même devenir que leurs homologues non transgéniques ; elles seront plantées ou semées, cultivées, récoltées et consommées par les animaux ou les humains. Cette différence fondamentale soulève des questions sanitaires, environnementales, éthiques, sociales et économiques auxquelles on se doit de répondre avant de prendre la planète en otage et de la transformer en paillasse de laboratoire.
Les OGM agroalimentaires : les PGM
L’objet du débat est donc les plantes génétiquement modifiées, non pas celles qui sont du domaine du rêve ou de la promesse, mais celles qui existent réellement aujourd’hui.
Depuis plus de 15 ans que des PGM sont cultivées sur la planète, on nous promet des plantes miracles qui pourraient pousser sans eau ou dans des milieux salins, qui pourraient fixer l’azote de l’air, seraient plus riches en vitamines, aux qualités gustatives améliorées, etc. Mais dans les faits, les PGM cultivées sont toujours, dans leur quasi totalité, des plantes dites pesticides et cette situation sera encore vraie dans les années à venir. En effet, plus de 99 % des PGM cultivées sont des plantes qui soit produisent elles-mêmes leur propre insecticide pour lutter contre un insecte ravageur (par exemple les plantes Bt), soit tolèrent un herbicide sans mourir (plantes Roundup-Ready® ou Liberty-Link®), soit possèdent deux ou plus de ces propriétés.
Si on se réfère aux statistiques de l’ISAAA8, au cours de l’année 2011, ce sont 160 millions d’hectares qui ont été cultivés en PGM sur la planète, l’essentiel sur le continent américain (139 millions d’ha soit 87%), moins de 120 000 ha en Europe (principalement du maïs Bt en Espagne). Quatre plantes représentaient à elles seules 159,3 millions d’hectares (Mha) soit 99,6 % des PGM cultivées : le soja (75,4 Mha, 47,1 %), le maïs (51 Mha, 31,9 %), le coton (24,7 Mha, 15, 4 %) et le colza (8,2 Mha, 5,1 %). La presque totalité de ces plantes ont été génétiquement modifiées soit pour produire un insecticide (15 %), soit pour tolérer un herbicide (59 %), soit pour posséder plusieurs de ces propriétés (26 %). Au cours de l’année 2012, à part une augmentation de 6 % des surfaces cultivées en PGM, leur localisation et leur nature ont peu évolué.
Les PGM cultivées sont donc des plantes qui produisent ou tolèrent un ou plusieurs pesticides. Et, contrairement à ce qui est souvent dit par leurs promoteurs, elles ne sont pas écologiques. Les plantes Bt produisent un insecticide, les plantes Roundup-Ready® tolèrent un herbicide qui a vocation à être utilisé et à s’accumuler dans la plante. Selon un rapport de Charles Benbrook [9] pour Greenpeace, la culture de PGM tolérant les herbicides conduirait à une hausse de l’utilisation de ces derniers. En 2010, des études scientifiques et témoignages sur la résistance des adventices (mauvaises herbes) aux herbicides conduisaient le Congrès étatsunien à mener des auditions sur le sujet. Monsanto proposait alors d’offrir un rabais pour les agriculteurs multipliant les herbicides contre les herbes résistantes au Roundup. Depuis, le gouvernement subit l’assaut des lobbys pour autoriser des PGM tolérant des herbicides à base de principes actifs autres que le glyphosate [10], comme le 2, 4-D11, pour tenter de se débarrasser des « mauvaises herbes » rendues tolérantes.
Les carences d’évaluation des PGM
La réalité actuelle des plantes génétiquement modifiées est de nature pesticide et soulève, à ce titre, des interrogations relatives aux risques éventuels qui doivent être identifiés et évalués. Ces questions concernent les scientifiques, les citoyens de toute la planète, les paysans qui sont en première ligne. De par la nature des problèmes, cette évaluation doit être transdisciplinaire et transversale dans la société. Les carences actuelles d’évaluation ne peuvent que contribuer à entretenir la méfiance, la confusion, laisser libre cours aux mystifications et/ou peurs collectives émotionnelles, aux procès inquisitoires.
Malheureusement, ces PGM pesticides sont peu, mal ou simplement pas évaluées.
Au niveau environnemental et sanitaire (humain et animal) :
Les plantes produisant un ou plusieurs insecticides (par exemple Bt) permettent certes de moins pulvériser d’insecticide mais elles synthétisent elles-mêmes, tout le temps et partout en quantités incontrôlables, un nouvel insecticide. Quelle est la nature de l’insecticide produit par la plante ? Quelles sont ses différences avec celui produit naturellement par la bactérie ? En quelle quantité ? Quel est le devenir de l’insecticide dans la chaîne alimentaire et dans l’environnement ? Quels sont les effets sur la faune ? Quels sont les risques de sélection d’insectes résistant à l’insecticide ?
Quant aux plantes tolérant un herbicide (par exemple Roundup-Ready®, Liberty-Link® ou les plantes mutées [12]), elles permettent de pulvériser l’ensemble des cultures concernées afin de supprimer les dites mauvaises herbes sans avoir à prendre de précaution (rampes tractées, hélicoptères, hydravions). Ces plantes ont provoqué une augmentation de la vente et de l’utilisation d’herbicides dans les pays où elles sont cultivées à grande échelle (États-Unis, Brésil, Argentine et Canada). Cette tolérance signifie que l’herbicide pénètre dans la plante sans entraver sa croissance avec un risque d’accumulation des principes actifs, des adjuvants et des produits de dégradation. Quel est l’avenir de ces herbicides dans l’environnement ? Quels en sont les effets ? Quel impact sur la santé de celles et ceux qui les cultivent et/ou les consomment (humains et animaux) ? Quels sont les risques de contamination des cultures traditionnelles et/ou biologiques par ces PGM ?
Au niveau social, économique et éthique :
Les PGM sont avant tout développées pour une agriculture productiviste et intensive dont on connaît les ravages aujourd’hui. Qui les a demandées ? Qui a décidé de nous les imposer ? Le brevetage de ces plantes permet aux multinationales qui les produisent de contrôler les ressources, les semences et leurs cultures : « Qui contrôle l’alimentation, contrôle la planète et ses populations ! » comme on entend souvent. Elles remettent en cause le droit des paysans de reproduire librement les plantes et les animaux et provoquent l’asservissement sinon la ruine de ces derniers.
De nombreuses alertes depuis plusieurs années ont mis en évidence les carences d’évaluation des différentes instances européennes ou françaises : conflits d’intérêts, absence de transparence concernant l’évaluation des risques, faiblesse et confidentialité des dossiers, tests d’évaluation faits par les entreprises elles-mêmes, absence d’indépendance, etc.
Cette situation de carence ou de refus des industriels et des experts de mener de véritables études de longue durée a justifié la décision du CRIIGEN [13] et de l’équipe de G-E. Séralini d’en mener une, inédite par sa durée (supérieure aux trois mois généralement admis pour autoriser un OGM en Europe), les différents régimes et l’ensemble des paramètres chimiques, hématologiques, biochimiques et hormonaux mesurés.
Sur ce point, bien que n’apportant pas la démonstration de la une du Nouvel Observateur, cette étude a posé les bonnes questions malgré ses limites, ses faiblesses qu’il faut avoir l’honnêteté de reconnaître : que connaît-on vraiment des conséquences à long terme des plantes génétiquement modifiées ?
Nom de code In Vivo !
Cette étude concernant une seule PGM, le maïs Roundup-Ready® NK603, ne peut en aucun cas être assimilée à une expérience scientifique académique de laboratoire ou à une expertise institutionnelle en vue d’une homologation. Les conditions n’étaient pas les mêmes : coût et financement (3 M€ à trouver), refus de la firme Monsanto de vendre à des fins de recherche des semences PGM à propriété brevetée, difficulté à disposer de ces dernières et de leur équivalent isogénique, les cultiver, récolter et rapatrier, faire fabriquer dans le secret les aliments, sélectionner les 200 rats de laboratoires « Sprague Dawley® », choisir un laboratoire certifié garantissant la sécurité de l’expérience et les analyses pendant les deux années de l’étude. Est-il normal de financer et de devoir travailler pendant deux ans dans la clandestinité pour une question de santé publique qui concerne toute la planète ?
Les auteurs se sont longuement expliqués sur la difficulté dans ces conditions à respecter les normes, les bonnes pratiques de laboratoire et la traçabilité, à assurer la sécurité de l’étude. Sans tomber dans le thriller ou le roman d’espionnage du nom de code In Vivo (ce qui malheureusement à trop souvent eu lieu), il est important de souligner cet aspect car il a conditionné en partie les limites et insuffisances du plan d’expérience.
Le bilan ? Glaçant : « Après moins d’un an de menus différenciés au maïs OGM, confie le professeur Séralini, c’était une hécatombe parmi nos rats, dont je n’avais pas imaginé l’ampleur » [14]. Il dénonçait un risque accru de tumeurs mammaires et d’atteintes hépato-rénales pour les rats nourris avec le maïs génétiquement modifié NK603, associé ou pas à l’herbicide Roundup.
Critiques et limites de l’étude
Dès la publication, le gouvernement français annonçait vouloir revoir les procédures d’homologation des OGM, les opposants aux OGM réclamaient un moratoire et les agences sanitaires étaient saisies. Mais la contre-offensive largement orchestrée s’est rapidement déclenchée. En Europe, l’EFSA (Agence européenne de sécurité des aliments), en France l’ANSES (Agence nationale de sécurité sanitaire) ainsi que le Haut-conseil des biotechnologies (HCB) ont réfuté les conclusions du professeur Séralini, en évoquant notamment le nombre et le type de rats retenus dans l’étude ainsi que les analyses statistiques présentées dans l’article. Une campagne haineuse était orchestrée, allant des pressions pour que la revue retire la publication jusqu’au dénigrement, aux menaces et insultes.
Mais si ces lanceurs d’alerte doivent être défendus et protégés, il faut aussi accepter de reconnaître et analyser les limites et faiblesses de cette étude. Il ne s’agit pas d’aller hurler avec les loups, ni d’utiliser les arguments et méthodes de ceux qui, compromis par leur comportement, feraient mieux de commencer par se les appliquer à eux-mêmes et aux dossiers qu’ils n’auraient jamais dû autoriser : deux poids, deux mesures – « faites ce que je dis mais pas ce que je fais ! »
En l’absence de l’ensemble des données, on ne peut se contenter de parler du contenu de l’article publié. Les limites et insuffisances du plan d’expérience viennent d’abord, comme abordé avant, des conditions mêmes dans lesquelles allait être faite l’étude et aux pratiques usuelles et recommandations des autorités : groupes de 10 rats, race de rats Sprague Dawley®15.
Compte tenu de ces remarques, le plan d’expérience aurait dû tenir compte des limites imposées par le financement afin de garantir une interprétation fiable des résultats. Donnons un exemple : on dispose d’une pièce non truquée que l’on jette 10 fois et on obtient 2 piles et 8 faces. La probabilité d’obtenir un écart aussi grand est d’environ 11 %. Cette dernière est trop élevée pour que, si cet événement arrive, on puisse affirmer que la pièce est truquée : ce résultat peut très bien être dû au hasard du jeu. Il était donc prévisible que le choix de groupes de 10 rats ne pourrait pas permettre de conclure que « les différences observées sont significatives ». Les résultats ne pouvaient alors pas apporter une preuve même s’ils mettaient en évidence des indices qui nécessitaient d’être analysés. Il aurait fallu pour cela limiter l’architecture de l’expérimentation pour garantir des effectifs plus importants dans chacun des groupes expérimentaux. Cette question conditionnait à son tour les analyses et méthodes statistiques. Ces dernières se définissent a priori en amont, en fonction de la question posée, conditionnent la planification de l’expérience et ne s’adaptent pas en fonction des observations expérimentales.
Il va alors de soi que l’analyse statistique proposée dans l’article souffre de ces limites. La description de la survie des rats et de l’apparition des pathologies reste partielle et ne peut être interprétée comme significative d’un point de vue statistique, même si elle doit être prise au sérieux. Seule une reproduction de l’expérience avec un plan d’expérience mieux adapté pourra apporter des éléments de réponse. Rappelons que les statistiques ne sont là que comme aide à la décision, en indiquant et contrôlant les risques d’erreur dans l’interprétation des résultats (et dans le cas présent ils sont importants). Ces remarques valent aussi pour l’analyse statistique des données concernant les paramètres biochimiques, sanguins, urinaires et hormonaux.
Certes, la publication ne prend appui que sur une partie limitée des données expérimentales, dont la totalité n’a pas encore été rendue publique. On peut espérer qu’elles le seront prochainement et qu’on pourra alors y voir plus clair.
Et maintenant ?
Toute conclusion serait à l’heure actuelle hâtive. La publication de ce premier article sur l’étude a eu un effet immédiat dans le débat de société sur les OGM : le dogme de la maîtrise d’expertise et de l’innocuité des PGM a été remis en question. Malgré ses limites et ses faiblesses, il a fait bouger les lignes : l’évaluation et la responsabilité des risques, les cadres d’expertise, les conflits d’intérêt, la confidentialité des dossiers et le libre accès aux données expérimentales de ces derniers, la durée et les modalités d’évaluation. Tous ces éléments sont de facto remis à plat, ainsi que le rôle des scientifiques et des experts, leurs rapports avec la société dans l’évaluation des risques et la preuve de ces derniers.
Les réponses et les solutions ne pourront être trouvées que dans une approche citoyenne, démocratique et transparente. Plus fondamentalement, est posée la question de la démarche et la méthode scientifique dans l’établissement de la preuve d’une idée dont on serait a priori convaincu qu’elle est juste : ne confondons pas conviction personnelle et preuve scientifique.
Dominique Cellier
Notes :
1 Séralini G.E. et al. (2012). Long term toxicity of a Roundup herbicide and a Roundup-tolerant genetically modified maize. Food and Chemical Toxicology. Vol. 50, Issue 11, nov. 2012, p. 4221–4231.
2 Le Nouvel Observateur n° 2498 du 20 septembre 2012.
3 Maïs OGM Roundup-Ready® dit « NK 603 » (NK=Natural Killer) produit par la firme Monsanto.
4 Séralini, G.E.(2012). Tous cobayes ! OGM, Pesticides, Produits chimiques. Flammarion, Paris.
5 Lepage, C. (2012). La vérité sur les OGM, c’est notre affaire ! Éditions Charles Léopold Mayer, Paris.
6 Jaud, J.P. (2012). Tous cobayes ? J+B Séquences.
7 Fonquernie, C. et Le Bayon, F. (2012). OGM : vers une alerte mondiale ? Lieurac Productions.
8 ISAAA : The International Service for the Acquisition of Agri-biotech Applications : http://www.isaaa.org/
10 http://www.huffingtonpost.com/%202012/04/26/enlist-dow-agent--orange-corn_n_1456129.html
11 Acide 2, 4-dichlorophénoxyacétique : désherbant sélectif contre les mauvaises herbes, c’était un constituant de l’agent orange, herbicide utilisé à large échelle durant la guerre du Vietnam.
12 Par exemple Le tournesol Expressun de Pioneer obtenu par mutagénèse chimique tolérant l’herbicide rétribution-méthyl, le colza Ice-field de BASF tolérant les herbicides dégazolines ou le tournesol Ice-field de BASF, tolérant les herbicides dégazolines (Pulsar® 40). Il aurait été obtenu par croisement avec des tournesols sauvages américains tolérant l’Amazonie.
13 CRIIGEN : Comité de recherche et d’information indépendante sur le génie génétique – http://www.criigen.org/
14 Le Nouvel Observateur n° 2498 du 20 septembre 2012, page 69.
15 Sprague Dawley® : souche de rats albinos utilisés lors d’expérimentations en laboratoire, sélectionnés pour leur physiologie proche de celle de l’homme : http://www.taconic.com/user-assets/documents/spraguedawley_booklet.pdf