
LOBBYING - LA RÉGULATION
La régulation des pesticides, particulièrement celle qui encadre les autorisations de mise sur le marché (AMM), présente des failles systémiques majeures qui en rendent l’efficacité totalement illusoire sur le plan de la protection de la santé publique et de l’environnement.
Le système de régulation français et européen n’a jamais été conçu pour empêcher la commercialisation de substances dangereuses, mais pour encadrer légalement leur usage tout en minimisant les risques apparents. On autorise d’abord, on retire ensuite, une fois que le mal est fait. Il ne s’agit pas de dysfonctionnements ponctuels, mais d’une architecture volontairement permissive, et faisant le jeu de la substitution regrettable, rentable pour les fabricants.
EN EUROPE
Le premier angle mort fondamental réside dans le fait que seule la substance active (qui représente une partie tout à fait mineure) est réglementée, alors que les pesticides commercialisés contiennent des formulations complètes intégrant de nombreux coformulants. Ces substances, souvent qualifiées d’« inertes », sont en réalité plus toxiques que la substance active elle-même ou en potentialisent fortement les effets. C’est le cas des surfactants (comme les PFAS) ou des solvants qui accroissent la pénétration cellulaire des toxiques, ou des synergistes, qui multiplient la puissance d’action de la substance active mais échappent complètement à toute évaluation réglementaire.
Deuxième angle mort qui enterre définitivement toute utilité de la régulation : la logique de seuils d’exposition (doses journalières admissibles, limites maximales de résidus) constitue une deuxième impasse méthodologique. Elle repose sur l’hypothèse erronée d’une relation linéaire entre dose et effet. Or, de nombreuses études ont démontré que les pesticides ont des effets non monotoniques, c’est-à-dire que de très faibles doses peuvent avoir des effets biologiques significatifs, différents ou même inverses de ceux observés à plus fortes doses. Cette propriété, bien connue pour les perturbateurs endocriniens, rend caduque l’idée même d’un seuil « sans effet » et invalide la pertinence des normes actuelles d’exposition.
La dose journalière admissible (DJA), ne prend pas réellement en compte la bioaccumulation au fil des années. La DJA est calculée à partir d'études toxicologiques menées sur des durées très courtes et repose sur l’hypothèse qu’en dessous d’un certain seuil quotidien, une substance ne pose pas de risque, même si elle est consommée toute la vie. Cette logique suppose implicitement que l'organisme élimine totalement la substance chaque jour ou à un rythme compatible avec une exposition chronique faible, ce qui est faux pour de nombreuses molécules persistantes.
De plus, une majorité de substances actives ou leurs métabolites sont lipophiles (elles se stockent dans les graisses), très peu dégradables, ou mal excrétées par l’organisme, ce qui entraîne une accumulation progressive, potentiellement pendant des années. Les DJA ne modélisent pas ces effets cumulatifs. De plus, la DJA ne tient compte ni des effets cocktails, ni des expositions multiples à la même substance par différentes voies (air, eau, alimentation, peau), ni des variations interindividuelles (enfants, personnes âgées, malades, femmes enceintes).


L’évaluation fait également totalement l’impasse sur les effets « cocktails », c’est-à-dire les interactions entre plusieurs substances actives présentes simultanément dans l’environnement, mais aussi entre ces substances et les coformulants, les métabolites ou les résidus de transformation. Or, dans la réalité, aucun organisme vivant n’est exposé à une seule molécule isolée. Il est constamment exposé à une soupe chimique depuis des décennies : avec des mélanges complexes, dont les effets peuvent être additifs, synergiques ou antagonistes, et donc impossibles à prédire. Les tests ne prennent pas en compte non plus les métabolites issus de la dégradation des pesticides, ni ceux formés lors des traitements de potabilisation de l’eau, certains de ces sous-produits étant plus toxiques que la molécule d’origine.
Le processus d’AMM est par ailleurs entièrement construit sur une série de biais scientifiques et institutionnels. Les données toxicologiques sont produites par les industriels eux-mêmes, sans étude indépendante systématique, ni obligation de transparence totale sur les protocoles ou les résultats négatifs. Ces tests sont de courte durée, menés en laboratoire sur des modèles simplifiés, et ne prennent pas en compte les effets chroniques, les expositions cumulées, ni les conditions réelles d’utilisation, comme l’exposition dans des écosystèmes ouverts et dynamiques, et donc la dérive aérienne et de la contamination diffuse de l'intégralité de la biosphère.
On ne teste pas les effets sur des insectes non ciblés, comme les pollinisateurs désorientés ou rendus stériles, ni sur les populations animales entières, mais seulement sur des modèles standardisés très faibles et pauvres intellectuellement parlant. Les tests sont menés à l’échelle de l’individu et sur le court terme, alors que les impacts réels se jouent sur le long terme, à l’échelle des populations, des générations et des écosystèmes. Ce processus relève d'un conflit d'intérêt caractérisé ou les fabricants s'auto certifient sans véritable contrôle extérieur.
Aussi, l’évaluation du caractère « acceptable » du risque repose sur des arbitrages politiques et économiques opaques, avec des approbations renouvelées par défaut faute de données contraires. La prétendue précaution affichée par les régulateurs est contournée par des mécanismes d’exception, de dérogation ou de silence administratif.
Enfin, procéder à des interdictions substance par substance est une stratégie structurellement vouée à l’échec. Il faut en moyenne plus de 15 à 20 ans pour qu’une substance suspectée de toxicité soit finalement retirée du marché, au terme d’un long processus administratif, scientifique et juridique, souvent entravé par le lobbying industriel, les procédures d’appel, les demandes de réévaluation et les dérogations. Pendant ce temps, les firmes agrochimiques introduisent des dizaines de nouvelles molécules, modifiant légèrement la structure chimique de celles en passe d’être interdites pour contourner les restrictions, un processus connu sous le nom de « substitution regrettable ». Ce processus est non seulement inefficace, mais il sert parfaitement les intérêts de l’industrie : en maintenant la commercialisation continue de substances rentables, tout en mettant en avant les "nouvelles générations" de pesticides, protégées par des brevets récents, et beaucoup plus rentables.


EN FRANCE
En France, la régulation pratique de l’usage des pesticides repose sur des dispositifs absurdes, déconnectés des réalités physiques, écologiques et sanitaires. Un exemple emblématique est celui des zones de non-traitement (ZNT) autour des lieux sensibles comme les écoles, hôpitaux ou habitations. Ces distances de sécurité pour l'épandage des pesticides sont établies par le Ministère de l'Agriculture, en s'appuyant sur les recommandations scientifiques de l'ANSES, souvent fixées à 5, 10 ou 20 mètres.
Pourtant, de très nombreuses études ont démontré que les particules issues des traitements (qu’il s’agisse de gouttelettes liquides issues de la pulvérisation ou de poussières contaminées issues des semences enrobées) se déplacent sur plusieurs centaines à plusieurs milliers de mètres. Une étude menée en 2017 par l’ANSES sur la dispersion des pesticides dans l’air ambiant a révélé la présence de résidus jusque dans des zones urbaines très éloignées des usages agricoles. D’autres recherches, comme celles de l’Institut national de l’environnement industriel et des risques (INERIS) ou du programme Phyt’air, ont confirmé que des substances comme l’atrazine (pourtant interdite depuis 2003) ou le glyphosate sont détectables à des dizaines de kilomètres des zones d’épandage.
Autour des points de captage d’eau potable, les distances de protection sont elles aussi dérisoires, parfois de l’ordre de 50 mètres, alors que les eaux captées proviennent souvent de bassins versants de plusieurs kilomètres carrés. Les analyses montrent régulièrement des dépassements de seuils pour les pesticides ou leurs métabolites. Certaines substances interdites depuis longtemps, comme le métolachlore, continuent d’y être détectées, preuve de leur persistance et de l’inefficacité des mesures en place. De plus, la réglementation autour des captages est souvent mal appliquée. Les contrôles sont rares, les infractions peu sanctionnées, et il existe des centaines de captages classés comme prioritaires qui restent néanmoins vulnérables aux pollutions agricoles.
Enfin, les chartes départementales dites de "bon voisinage", censées encadrer les épandages en concertation avec les riverains, sont non contraignantes, souvent rédigées par les chambres d’agriculture elles-mêmes, et n’ont aucune valeur protectrice réelle. Elles participent à une logique de communication et de normalisation sociale de l’usage des pesticides, plutôt qu’à une régulation fondée sur des preuves scientifiques et des impératifs sanitaires.


L’idée de contenir la contamination en traçant des périmètres de protection autour des habitations ou des captages d’eau repose sur une conception simpliste de la pollution, comme si elle était confinable dans l’espace. Pire, ces dispositifs donnent une fausse impression de maîtrise du risque, et donc retardent ou empêchent les décisions réellement protectrices, à savoir l’interdiction pure et simple des pesticides de synthèse.
DES SCANDALES
Lorsque la délégation française à Bruxelles se félicite du retrait de plus d’un millier de substances actives du marché européen, elle présente ce chiffre comme une preuve de la rigueur du système de régulation. En réalité, ce chiffre traduit que la mise sur le marché est accordée sans évaluation sérieuse. Le principe de précaution, pourtant inscrit dans le droit européen depuis le traité de Maastricht et rappelé dans la législation sur les produits phytopharmaceutiques (Règlement (CE) n° 1107/2009), n’a jamais été appliqué au domaine des pesticides. Il est systématiquement contourné au nom de la compétitivité agricole, de l’innovation chimique ou de la "souveraineté alimentaire". La balance est toujours penchée du côté de l’intérêt économique, et les "incertitudes scientifiques" (selon l'EFSA qui ne sait toujours pas que le glyphosate est cancérogène a priori alors que des études le mentionnent dès les années 70) servent plus souvent repousser les décisions : à prolonger l’autorisation d’un produit plutôt qu’à suspendre son usage.
Les scandales liés aux pesticides sont nombreux, et leur récurrence illustre bien l’échec systémique de la gouvernance européenne en la matière. Le cas du glyphosate est emblématique : produit phare de Monsanto (aujourd’hui Bayer), il a été réautorisé en Europe malgré de nombreux rapports scientifiques faisant état de ses effets génotoxiques, cancérogènes probables selon le CIRC (Centre international de recherche sur le cancer), et écotoxiques. Le processus d’évaluation a été entaché de multiples conflits d’intérêts, d’une dépendance aux études fournies par l’industrie : les fameuses études "non publiées", appelées "études réglementaires" et de copiés-collés littéraux des documents de Monsanto dans les rapports d’agences d’évaluation (comme l’a révélé Stéphane Foucart en France lors de l'affaire des "Monsanto Papers").
Autre scandale majeur : les néonicotinoïdes. Bien qu’interdits en France à partir de 2018 pour leur rôle dans l’effondrement des colonies d’abeilles, ils ont fait l’objet de dérogations massives pour les cultures de betteraves dès 2020, avec le soutien du gouvernement français. Cela malgré des décennies de recherches montrant leur impact sur les insectes pollinisateurs, les invertébrés aquatiques, et la biodiversité en général. Cette volte-face a mis en lumière le fait que l’interdiction était plus politique que structurelle, et surtout révocable dès que les intérêts agricoles dominants l’exigeaient.

