Entretien réalisé par François-Xavier Albouy, Jean-Hervé Lorenzi et Daniel Zajdenweber

Risques : Vous êtes coauteur, avec Geneviève Viney, d’un rapport sur le principe de précaution1. Depuis, vous avez écrit que son application avait finalement des effets contre-productifs, notamment dans les pays émergents. Il y a actuellement un débat en France sur la vaccination, certaines personnes refusant de se faire vacciner. Pensez-vous que l’application du principe de précaution a été dévoyée ?

Philippe Kourilsky : J’ai coutume de dire que le problème du principe de précaution, ce n’est pas la précaution, c’est le principe. C’est le fait d’avoir voulu formaliser une notion très difficile un peu trop tôt, en en faisant un instrument qui sociologiquement est utilisé à des fins qui peuvent être adverses à toute forme de mouvement. Quand nous avons rédigé ce rapport, nous avons cherché à définir la précaution. Nous sommes parvenus à l’idée qu’à un instant t, en fonction des connaissances du moment, on peut opérer d’une manière précautionneuse. Mais il faut enregistrer le protocole d’action. À partir de ce moment, si plus tard il y a un problème et si l’on a suivi le protocole, on est exempté de la responsabilité de la faute. Il peut y avoir des accidents, personne n’y peut rien, c’est comme ça… Cela conduit en quelque sorte à échanger du contrôle de qualité contre de l’incertitude.

Vous parliez de vaccination. Il y a là plusieurs éléments intéressants. D’abord, lors de la mise au point d’un vaccin, les bénéfices de la vaccination sont éprouvés en regard de risques (effets indésirables) qui sont évalués lors des essais cliniques à un niveau qui dépend de la dimension de ces derniers, de l’ordre de 1/10 000. On ne peut guère aller au-delà, et dans certains cas on atteint les limites d’une incertitude qui est d’une autre nature. Par exemple, il a été démontré que quelques enfants par an (une dizaine je crois) font ce qu’on appelle une « BCG-ite » quand ils sont vaccinés contre le BCG, dont je rappelle que c’est un vaccin atténué, mais vivant. Ces enfants ont été étudiés par un certain nombre de chercheurs – dont un collègue français extrêmement brillant. La réponse est formidable : tous les enfants qui font des accidents sont des mutants. En réalité, la vaccination révèle une diversité génétique. À partir de là, ce n’est pas le vaccin qu’il faut améliorer. Le risque provient du fait que la population est hétérogène et qu’il y a un risque à se faire vacciner en raison d’inégalités génétiques qui sont là, et que l’on pourra sans doute, un jour, détecter à l’avance.

S’agissant du vaccin contre la grippe H1N1, je crois que le gouvernement de l’époque, largement fourvoyé grâce à l’Organisation mondiale de la santé, a été trop loin. Mais le problème est aussi que les procédures sont très lourdes. Vous commandez à un producteur X millions de doses de vaccin. Si, quelques mois plus tard, vous vous apercevez qu’il n’en faut que la moitié… que faites-vous ? Les processus administratifs et industriels n’ont pas la souplesse requise pour réagir à ces changements. Voilà ce qui me fait dire que dans le principe de précaution il y a des progrès à faire. Il faudrait réellement aller beaucoup plus loin dans la science du risque. À force de trop vouloir perfectionner le principe on tue tout : on tue la précaution, on tue l’avancement des choses puisque ça propulse l’idée qu’après tout il vaut peut-être mieux ne pas bouger que bouger.

Risques : Que préconisez-vous ? Pensez-vous que l’on puisse infléchir cette tendance ?

Philippe Kourilsky : Il y a des segments de l’activité humaine, et notamment dans le secteur des « sciences molles », qui mériteraient d’être rendus beaucoup plus scientifiques. Prenons la réglementation. Elle est au départ plus ou moins scientifique, puis elle devient arbitraire et quitte complètement le domaine de la rationalité, de l’expérience et de la science. La raison en est simple, c’est long à mettre en route et on ne revient jamais en arrière. On a donc des millefeuilles de réglementation. Il faudrait développer considérablement l’évaluation des impacts des réglementations. Il y a des lois qui théoriquement en font obligation mais elles ne sont pas suivies – elles le sont un peu aux États-Unis.

Il y a un deuxième problème. Dans le domaine de la santé, par exemple, on a construit des systèmes chargés d’évaluer certaines situations et d’émettre une part des réglementations. Par peur qu’ils ne soient manipulés, on les a construits de telle sorte qu’ils n’ont pas de contre-pouvoir, ce qui, en démocratie, a de quoi nous interpeller. Il en va ainsi des agences internationales qui sont essentiellement la FDA2, l’agence américaine, d’une part, et l’Ema3, l’agence européenne, de l’autre. Au cours des vingt dernières années, j’ai observé que c’était à celui qui serait le plus rigoureux. Je prends l’exemple très pratique d’un médicament. On analyse sa composition par spectrométrie. On trouve qu’il est raisonnablement pur, il obtient la bénédiction des autorités, etc. Dix ans plus tard, la technologie a évolué. Elle devient dix fois plus sensible, et on découvre des impuretés qu’on ne voyait pas auparavant. L’autorité de santé va exiger qu’elles disparaissent. Ce qui entraîne des surcoûts, pour des bénéfices dont on n’a pas la moindre idée, surtout s’agissant de médicaments (comme la plupart des vaccins qui nous ont vaccinés vous et moi) qui n’ont jamais posé beaucoup plus de problèmes connus que ceux qu’on a aujourd’hui. Cette espèce d’escalade des autorités de santé est finalement non scientifique. Et l’absence de contre-pouvoir est quelque chose d’intéressant à regarder. Aux États-Unis, un vrai contre-pouvoir s’est constitué avec les associations de malades. En 2004 ou 2005, une association de cancéreux aux États-Unis a fait un procès à la FDA en disant : il n’y a pas de raison qu’on meure à cause de vos atermoiements. Vous êtes trop lents, réformez vos procédures ! Et la FDA a été mise en demeure de réformer certaines procédures.

Je citerai un cas intéressant qui est de nature à infléchir le cours du système, c’est celui de la Chine. En matière de médicament, la Chine a toujours été orthogonale aux principes occidentaux pour une excellente raison, c’est que la médecine chinoise est une médecine de mélanges. Elle est assez ingérable dans le cadre réglementaire occidental, car dans les médicaments occidentaux, quand on fait un mélange, on est censé avoir démontré l’innocuité de chacun des composants. Il y a en outre un changement de philosophie réglementaire instillé par la Chine depuis un certain temps. Certains responsables chinois disent : vous avez vos règles, très bien. Nous, on va établir les nôtres parce que vos règles sont tellement précautionneuses qu’elles ralentissent le processus. Nous avons des millions de gens qui meurent faute de médicaments alors que nous pourrions les développer et en disposer deux ou trois ans plus tôt. Il n’y a donc aucune raison que nous suivions vos règles. Donc certaines règles internationales, qui résultent des accords entre la FDA et l’Ema, suivis par les organismes nationaux, sont aujourd’hui battues en brèche au sein de la Chine – paraît-il, avec des conséquences qui vont être intéressantes. Développer un médicament prend une dizaine d’années. C’est vrai que si on peut arriver au même résultat en sept ans au lieu de dix, c’est mieux. Mais fait-on la même chose pour moins sûr ? Peut-être, je ne sais pas. Il faut étudier les protocoles. Il est facile de faire des procès d’intention aux Chinois. Il est certain qu’il y a moins de contrôle en Chine qu’il n’y en a dans nos pays, mais ça ne veut pas dire qu’ils font n’importe quoi. Ce qui est intéressant en matière d’innovation c’est qu’ils peuvent développer des médicaments plus vite que nous et déposer des brevets plus rapidement. En raison des lois internationales, ces brevets pourront être valables dans le monde entier. Néanmoins un médicament développé en Chine selon ces normes accélérées ne sera pas exportable aux États-Unis ni en France. Mais dans un second temps, ces brevets leur permettront de redévelopper le même médicament en suivant les procédures occidentales, et au bout de peu de temps de l’exporter. Je pense qu’il y a un vrai sujet, non seulement au niveau réglementaire mais au niveau de l’économie du système. Et je pense que nos autorités feraient bien d’y réfléchir.

En tout cas, pour reprendre l’un de mes propos, j’estime qu’une science de la réglementation – c’est-à-dire une science qui se pose des questions : est-ce qu’on mesure ce qu’on fait, est-ce qu’on regarde les résultats, est-ce qu’on évalue, etc., après coup, ou plutôt avant et après –, cette science de la réglementation est absolument souhaitable et désirable.

J’ai encore deux observations sur ce sujet. La première, c’est qu’une science de la réglementation, c’est au fond quelque part une science de l’évaluation des politiques publiques. Ma deuxième remarque, c’est que le monde académique ferait bien de regarder d’un peu plus près certains de ces sujets, notamment dans les secteurs qui touchent l’économie et la sociologie. Certaines grandes institutions pourraient peut-être orienter nettement plus leurs activités de recherche vers des questions de ce genre-là. Aux États-Unis, le système est totalement différent au niveau des financements, de la psychologie, de la culture. Il y a des systèmes de financement privé qui viennent de tous côtés – certains sont d’ailleurs assez questionnables. Mais il n’y a pas de question taboue. Il y a un peu plus d’un an, je lisais une étude tout à fait scientifique qui mesurait la probabilité d’être pauvre quand on a été enfant de pauvre et d’une certaine origine ethnique. Et tout cela était parfaitement documenté. C’est que la question de race pose beaucoup moins de problèmes qu’ici.

La science du risque, dans le sens où je l’entends, n’est pas suffisamment développée. C’est pour une large part une science de l’évaluation. Et quand on sait évaluer, on anticipe mieux, on apprend comment anticiper. En ce sens-là, ce n’est pas une science du risque qui est autonome par rapport à ce qui se passe, c’est une science du risque qui s’appuie sur ce qui se passe.

Risques : Dans le débat politique ou grand public, l’impression qui domine c’est qu’il y a des failles dans le système. Cette science du risque serait-elle de nature à empêcher que le politique cède à la tentation démagogique d’écouter la dernière peur et permettrait-elle d’objectiver la décision politique, la décision réglementaire ?

Philippe Kourilsky : Oui, elle permettrait d’un côté d’objectiver la décision politique ou réglementaire, la décision publique au sens large puisqu’on est dans la sphère publique, mais d’un autre côté de réguler aussi les comportements individuels. Parce que sur certains sujets nous vivons les uns et les autres dans un flou absolument extraordinaire, les médias également. Ceci dit, les médias, quelque part, c’est nous. Il y a des cas d’aberrations absolument hallucinants. Mon cheval de bataille, ce sont les OGM. Ahurissant ! Et là, tout le monde est complice : les gouvernements, les écologistes, une partie de la population. Quand on voit que plus de 50 % de la population a des doutes encore profonds sur la sécurité des OGM, c’est stupéfiant. Je ne dis pas que c’est ridicule, je suis époustouflé. Je dis qu’il faut le prendre comme un phénomène social important à analyser, car il peut s’étendre à d’autres sujets. Comment des associations, dont Greenpeace et d’autres, ont-elles réussi à faire passer leurs idées dans une sphère locale (les Chinois s’en moquent, les Indiens et les Américains aussi), par quelles manœuvres, en raison de quelles résonances culturelles et par quelles techniques ? Il y a vraiment des leçons à tirer de cela. Or, même l’étudier est tabou.

Risques : En ce début du XXIe siècle, quels domaines particulièrement hasardeux ou risqués devraient faire l’objet d’une prudence a priori ?

Philippe Kourilsky : La réponse est que plus on en cherche, plus on en trouve. Le plus risqué, pour moi, c’est l’absence d’éducation. Le risque de nos sociétés à mon avis est là, et je pense qu’il est très grave. Ce n’est pas un risque technologique. Ceux-ci, il faut le reconnaître, sont tout de même extraordinairement maîtrisés. Même si ce que je vais dire est insoutenable – car Fukushima est une catastrophe –, c’est le tsunami qui a tué et il a fait beaucoup moins de morts que la grippe. L’image de la grippe c’est que ce n’est pas grave. Pourtant, elle est responsable chaque année de la mort de 1 000 à 3 000 personnes en France. À côté de ça, les accidents nucléaires n’ont fait aucun mort en France. Ceci étant, on entre dans des systèmes de comparaison insoutenables sur le plan psychologique. Mais je crois qu’on est en pleine dérive par rapport au risque technologique. Ils sont très largement maîtrisés. Ce qui est extraordinaire, c’est que le système d’information dans lequel nous vivons génère l’absence de vérité. Prenons l’exemple de Tchernobyl4. Allez sur le site GreenFacts5 qui publie un consensus scientifique de moins d’une cinquantaine de décès attribuée directement à cette catastrophe. Réponse à cela : « C’est faux, c’est au moins 80 000, j’ai entendu dire, etc. ». Une vérité, on ne sait plus où la trouver, et c’est extrêmement grave. Le risque aujourd’hui est beaucoup moins dans les risques technologiques que dans les risques sociologiques au niveau de la diffusion des contre-vérités. Et ça me ramène à la science, parce qu’elle est la source d’une forme de vérité sur un certain nombre de points. Ce n’est pas toute la vérité et sur tout, et de loin, mais enfin, quand on peut objectiver des résultats, on a quand même quelque chose sur quoi s’appuyer.

Il y a aussi des changements de perspective et de culture. La radioactivité était extrêmement populaire au début parce qu’elle était associée à la médecine et que c’était une grande découverte française, incidemment, avec les Curie. Je me rappelle, quand j’étais enfant, on allait en vacances en Bretagne et on buvait de l’eau de Plancoët. Et la réclame sur la bouteille disait : « la plus radioactive des eaux de table ». C’est extraordinaire !

Risques : Vous nous dites que le risque technologique est assez bien maîtrisé mais qu’en revanche le vrai risque serait l’absence de connaissances. Mais n’est-ce pas toujours le même risque ? Depuis des millénaires, les peurs collectives ont toujours été très largement irrationnelles. Y-a-t-il quelque chose de nouveau ?

Philippe Kourilsky : Ce qui est nouveau, c’est que la force de rappel que produisait la science s’est affaiblie. Comme le dit Etienne Klein, il y a une différence entre une vérité scientifique et une opinion. Un enfant aujourd’hui, à l’école, écoute la théorie de la relativité d’Einstein et dit : « ça ne me plaît pas, ce n’est pas vrai ». Ça ne peut pas coller, ce n’est pas le même type de vérité. Sa vérité à lui c’est que ça ne lui plaît pas.

Risques : Etienne Klein est l’un des premiers à avoir émis l’idée que la théorie du big bang n’est peut-être pas si sûre. C’est une hypothèse inouïe. Pour la première fois, quelqu’un de réputé inattaquable dit : il n’y a pas de certitude. Les progrès scientifiques ont été tellement rapides que nous avons eu l’impression qu’on allait découvrir tout ce qui était inconnu.

Philippe Kourilsky : D’abord, les physiciens sont de grands poètes, beaucoup plus que les autres – la physique, l’astrophysique, on est dans le rêve. Les physiciens inventent des noms merveilleux : les particules étranges, les trous noirs, la théorie des cordes… Ils vivent dans des mondes théoriques qui sont passionnants, dans lesquels il y a, justement s’agissant de théories, pas mal de remises en cause possibles. Le point c’est que ce genre d’erreur ne tue personne. En revanche, l’homo œconomicus a tué beaucoup de personnes. Et l’eugénisme, qui est une dérive scientifique, en a tué beaucoup également. Je pense que la rigueur scientifique par rapport au concept est extrêmement importante. Mais il faut surtout s’attacher aux théories qui ont des déclinaisons dans la vie réelle.

Risques : Prenons la question de la nature du progrès scientifique. Nous avons vécu avec l’idée que le progrès c’était le progrès scientifique, et aujourd’hui tout le discours de la théorie du risque c’est que le progrès scientifique est en réalité un danger. C’est vrai tout particulièrement en France. A-t-on modifié fondamentalement nos rapports à la science et, au fond, notre relation avec le progrès ?

Philippe Kourilsky : Cela a beaucoup évolué. Là encore, ce qui est important c’est, premièrement, de le constater et, deuxièmement, de le comparer. Je vais très souvent à Singapour, où j’ai monté un institut de recherche. Là-bas on ne se pose pas de question sur le progrès. Ce n’est pas le sujet, on y va, c’est tout. Un risque, ça se maîtrise. Cette espèce d’hypocondrie française n’est pas mondiale du tout.

J’ai un autre élément de réponse : nous manquons de philosophes. Ce type de réflexion, c’est un peu le « café du commerce ». Où sont les cercles de réflexion qui travaillent sur ces notions ? En France, les intellectuels ne font pas leur travail. J’essaie de le faire, j’écris des livres qui flirtent avec la philo. Certains s’en étonnent… Je trouve que la puissance de notre pays est une puissance intellectuelle avant tout. Je ne sais pas ce qui se passe chez nos intellectuels. On ne les entend guère, mais on ne leur donne pas non plus assez la parole.

Risques : Votre projet à Singapour, une coopération entre l’Europe et Singapour, est-il porteur ?

Philippe Kourilsky : Il ne s’agit pas d’une coopération. Ce dont je m’occupe, c’est un institut singapourien que j’aide à développer à distance. Ce qui caractérise Singapour, c’est à mon avis d’abord l’esprit de travail. Ce n’est pas qu’ils travaillent énormément, mais enfin on travaille et on ne compte pas forcément ses heures. L’autre chose, c’est qu’on évalue tout. La troisième c’est que, même quand on est bon, on peut toujours faire mieux. Le système est sans arrêt en train de se questionner pour progresser. Il y a des valeurs de travail et d’adhésion, non pas à l’excellence, mais au progrès en tant que tel. L’excellence est une notion un peu stupide, si on l’imagine comme le sommet d’une courbe ; tandis qu’avec le progrès, on crapahute sans arrêt pour aller vers un sommet qui n’existe peut-être pas. Ce n’est pas la même conception.

Risques : Parlez-nous de votre prochain livre sur l’altruisme.

Philippe Kourilsky : Je suis en train de l’écrire directement en anglais. Dans le monde anglo-saxon il se passe énormément de choses. Je constate incidemment que le fossé qui sépare les cultures française et anglo-saxonne est vraiment profond. Les philosophes français cités dans les ouvrages américains sont peu nombreux. On retrouve les figures, un peu médiatisées, de Michel Serres et de quelques autres. Mais la philosophie française contemporaine n’est pas très connue et j’ai l’impression que c’est réciproque. Je trouve intéressant d’écrire directement dans une autre langue parce que ça oblige à penser un peu différemment – on pense avec la langue d’une certaine manière. Cela me conduit à lire des auteurs américains que je n’aurais pas forcément lus. J’espère que mon travail sur l’altruité (le nom que j’ai créé pour désigner la forme d’altruisme rationnel sur laquelle je m’appuie) trouvera ainsi un écho plus large.

Note

  1. Le principe de précaution : rapport au Premier ministre, de Philippe Kourilsky et Geneviève Viney, Odile Jacob, La Documentation française, 2000.
  2. FDA : U.S. Food and Drug Administration.
  3. Ema : European Medicines Agency.
  4. Cf. site de l’Organisation mondiale de la santé http://www.who.int/mediacentre/news/releases/2005/pr38/ fr/index.html
  5. http://www.greenfacts.org/fr

Bibliographie

KOURILSKY P., Le Temps de l’altruisme, Odile Jacob, coll. « Sciences », octobre 2009.
KOURILSKY P., Le Manifeste de l’altruisme, Odile Jacob, coll. « Penser la société », avril 2011.

Tous droits réservés © 2019 Agence France-Presse