Avec l'aimable autorisation de la revue du SNA - Abonnez-vous à l'Abeille de France
Par Paul Schweitzer
Une fois n’est pas coutume, ce mois-ci nous allons parler mathématiques appliquées à l’abeille et à l’environnement. Ce n’est pas un sujet facile car les mathématiques ont leur langage, leur code, leur méthodologie et ces notions sont souvent très difficiles à vulgariser. Je vais donc essayer d’expliquer mes propos au travers d’exemples qui, je le pense, devraient permettre, même aux non mathématiciens, de comprendre ces notions.
Imaginons tout d’abord que vous êtes en voyage à l’autre bout de la planète sur un site touristique très visité, les chutes du Niagara, par exemple. À peine arrivé sur ce lieu, vous y rencontrez une connaissance, venu tout comme vous de France, pour admirer le spectacle. Incrédule, comme presque tout le monde, vous direz : C’est incroyable… Comme le monde est petit… Se retrouver là à l’autre bout de la planète. C’est quand même incroyable ! ! !
Et bien, non vous vous trompez, un tel événement n’est pas incroyable et, sous certaines conditions, il devient même certain. Je m’explique… Votre réaction aurait été exactement la même quelle que soit la connaissance que vous auriez rencontrée. La probabilité n’est donc pas de rencontrer une personne X bien précise aux chutes du Niagara, mais de rencontrer une personne que vous connaissez déjà parmi les centaines voire les milliers de personnes que chacun d’entre nous peut connaître. Sur un site très fréquenté, y compris par des français, cet événement n’est plus aussi improbable que l’on croit. Il peut même devenir quasi certain si l’on passe un certain temps sur le lieu… Et absolument certain si on le généralise à tous les instants de la vie sur n’importe quel lieu. Tout le monde a déjà vécu des expériences semblables. Du point de vue mathématique, la probabilité de l’événement « rencontrer une personne donnée en un endroit précis » est extrêmement faible – on parle d’événement presque impossible mais la répétition des possibilités de l’événement étant elle très élevée la probabilité de sa réalisation devient certaine. La loi mathématique qui explique ce phénomène est la « loi de Poisson ». Elle permet de modéliser ainsi bien les mécanismes de la désintégration radioactive que les entrées de clients dans un magasin ou en apiculture les entrées ou les sorties des abeilles d’une ruche, l’exploitation des ressources nectarifères ou pollénifères, certains mécanismes des dépopulations d’abeilles, la probabilité d’apparitions de nouvelles espèces invasives dangereuses pour l’abeille, le risque OGM et sans doute encore beaucoup d’autres phénomènes de l’écosystème « ruche ». De manière plus générale, elle s’applique peut-être même à la probabilité d’apparition de la vie sur une planète…
Avant d’aborder les questions spécifiques à l’apiculture, voici l’exemple de la radio activité. Le becquerel est l’unité de désintégration radioactive du système international. C’est une unité très faible puisqu’elle correspond à une seule désintégration par seconde. L’ancienne unité, le Curie, était au contraire très élevée. Elle correspondait à l’activité de 1 gramme de radium 226 soit 3,7.1010 désintégrations par seconde. La période de cet élément est de 1622 ans. Un gramme de radium 226 contient 2,665.1021 atomes. Au bout de 1622 ans, la moitié se sera désintégré en se transformant en radon et en émettant des rayons γ. Durant l’espace d’une seconde, la probabilité pour qu’un atome précis de un gramme de radium se désintègre est de 1,4. 10-11 soit 1,4 « chance » sur 100 milliards. C’est très faible, mais beaucoup plus élevé que pour beaucoup d’autres radionuclides à période très longue. Malgré cette très faible probabilité individuelle, l’événement se produit 37 milliards de fois par seconde en raison du très grand nombre d’atomes présents dans un gramme de radium. Nous ne sommes pas ici dans le cadre d’une loi de Poisson car les événements par unité de temps sont trop nombreux. La distribution statistique autour de la moyenne apparaîtra comme continue (bien qu’elle soit discontinue en réalité) et la meilleure approximation se fera à l’aide d’une loi de Laplace-Gauss (courbe en cloche). En fait la loi de Poisson est une « loi binomiale » avec une probabilité très faible associée à un nombre d’événements grands. Ces deux lois tendent vers une loi de Laplace-Gauss quand le phénomène devient ou prend l’apparence d’un phénomène continu. Dans le cas de la radioactivité (et dans beaucoup d’autres cas où intervient un facteur temporelle), il est toujours possible de se ramener à une loi de Poisson en jouant sur le temps. Ainsi la mesure de l’activité de 0,1 µg de radium 226 en prenant pour unité de temps la milliseconde nous ramène à un chiffre moyen de désintégrations durant cette période de temps de 3,7. La distribution des évènements devient alors « poissonnienne ». La moyenne, notée µ, est égale à 3,7, c’est également la variance de cette distribution statistique. Des tables ou le tableur Excel® permettent de calculer les probabilités pour que se produisent 0, 1, 2, 3, 4, etc… événements durant la période prise en référence. Le tableau et la courbe donne ces probabilités dans le cas précédent (nombre de désintégration dans O,1 g de radium 226 durant une millise-conde : aucune – 2,5 % ; une - 9,1 % ; deux – 16,9 % ; etc… La probabilité pour que durant cette période, il ne se produise aucune désintégration est de 2,5 % ce qui veut dire que la probabilité pour qu’il y ait au moins une désintégration est de 97,5 %. Elle tend vers les 100 % si les intervalles de temps pris en compte sont augmentés.
Ce chiffre est à comparer avec la probabilité de désintégration individuelle d’un noyau de radium 226 : 1,4/100000000000. L’événement individuel « presque impossible » pour un atome particulier devient une certitude quand l’expérience est répétée un très grand nombre de fois (ce qui est le cas en considérant l’ensemble des atomes). Cette certitude devient absolue en prenant comme unité de temps la seconde puisque l’événement se produit alors 37 milliards de fois dans cette unité de temps et que la probabilité pour qu’il ne s’y produise pas est alors ici totalement nulle.
Les entrées et les sorties d’abeilles d’une ruche obéissent au même type de répartition. La différence avec la radioactivité vient du fait que la loi évolue au cours du temps. Selon la période de l’année, l’horaire de la journée, la météorologie, l’activité est évidemment différente. Mais durant un temps suffisamment court, on peut toujours la considérer comme homogène et ramener les événements entrée ou sortie de la ruche à une distribution de Poisson (en jouant sur la paramètre « temps »). Des compteurs électroniques à abeilles permettent d’ailleurs aujourd’hui d’enregistrer ces mouvements. La modélisation sous forme de loi de Poisson permet alors assez facilement d’évaluer les variations d’activités d’une colonie et de comparer les colonies. Des mécanismes du même type permettent de modéliser les entrées d’une grande surface (mais pas les sorties en raison des files d’attente aux caisses). Par contre on peut alors prévoir le nombre de caisses à ouvrir pour limiter les files d’attente… Mais revenons aux abeilles… Trouver de façon quasi certaines les sources de nectar ou de pollen est vitale pour la colonie. Trouver les grandes cultures humaines (vergers, oléagineux ou autres) ne pose pas de problème. Nous même, avec notre faible odorat, percevons les effluves des champs de colza. Trouver dans la nature des ressources disséminées est un problème très différent. Certes, l’abeille perçoit des signaux environnementaux qui nous échappent et les fleurs ne sont pas réparties dans l’espace qui entoure la ruche de façon aléatoire mais en formant des agrégats… La récolte de l’information est cependant très efficace. La probabilité pour une abeille « éclaireuse » de trouver une source de nectar limité dans l’espace est faible. Le nombre d’éclaireuses étant important, cette probabilité devient quasi certaine. Ensuite, c’est l’échange d’informations au niveau de la ruche qui fait le reste : informations sur la localisation grâce à la danse, informations sur la nature et la qualité de la ressource grâce à la trophallaxie et au contact antennaire… On n’est plus ici dans une distribution de Poisson mais dans un système qui pourrait se modéliser avec des modèles similaires à ceux utilisés pour l’économie humaine…
Enfin, les mécanismes poissonniens permettent d’évaluer le risque avoir dans les prochaines années un nouveau parasite invasif (ou une nouvelle maladie) qui s’attaque à nos abeilles et le risque environnemental lié aux OGM. En mai 2003, j’ai largement abordé la problématique des espèces invasives en apiculture. De manière plus générale, l’apiculture n’est pas la seule touchée par ce type de phénomène. La multiplication des déplacements facilités par l’ampleur prise par l’aviation associée à la mondialisation font que c’est chaque année plusieurs dizaines voir centaines d’espèces nouvelles qui sont introduites sur notre seul territoire métropolitain. Heureusement, la majorité d’entre elles ne s’acclimatent pas. La probabilité pour une espèce donnée d’être introduite et de devenir invasive est faible, mais là encore la répétition d’événements rend l’événement quasi certain. En apiculture c’est la répétition permanente d’échange d’abeilles, de reines qui rend le mécanisme d’apparition de nouvelles parasitoses ou autres pathologie quasi certain… Après l’alerte de 2005, le risque Æthina tumida est toujours là et il y a sans doute d’autres Æthina tumida, Varroa destructor ou Tropilælaps claræ qui se tiennent en embuscade quelques parts sur la planète… Le schéma d’apparition puis de mondialisation est toujours le même :
- Probabilité pour une espèce donnée de devenir invasive ou de provoquer une pathologie chez une nouvelle espèce très faible ;
- L’événement (introduction d’une espèce nouvelle ou contact de l’abeille avec tel ou tel agent susceptible de devenir pathogène) est répété régulièrement et fréquemment ;
- La mécanisme « poissonnien » fait que tôt ou tard, une espèce devient invasive ou dangereuse apparaît ;
- Le parasite ou l’espèce invasive est maintenant dans un milieu neuf, une nouvelle niche écologique son développement devient alors exponentiel (phénomène de pullulation). Il ne sera ralenti que par les limites du milieu nouveau dans lequel il est introduit. Dans le cas d’un parasite ou d’un agent pathogène pour l’abeille ce milieu c’est l’abeille elle-même. Le déplacement des abeilles favorise encore la mondialisation du phénomène. Quand tout l’espace est occupé, sans intervention extérieure (humaine par exemple) pour freiner le phénomène, il s’établira le plus souvent un phénomène cyclique (connu par les spécialistes sous le nom de modèle de LOKTA et VOLTERRA) entre la dynamique des populations hôtes et des populations parasites. Ces phénomènes s’établissent sous l’action des pressions de sélections de l’hôte sur le parasite et du parasite sur l’hôte. Sous certaines conditions, ce phénomène peut aller jusqu’à la disparition de l’hôte puis par voie de conséquence à celle du parasite. Mais ces modélisations théoriques peuvent être perturbées par beaucoup d’événements externes.
C’est pour la même raison que le risque écologique lié à l’utilisation des OGM est quasi certain. Le gène introduit artificiellement dans un organisme génétiquement modifié se comporte comme n’importe quel gène et est soumis aux mêmes lois de la génétique des populations. Cette discipline de la génétique nous enseigne comment évoluent les populations dans les écosystèmes. Toute être vivant est en compétition permanente avec les individus de sa propre espèce et ceux des autres espèces. Un individu avantagé aura une descendance plus nombreuse que les autres. La fréquence de ses gènes augmentera dans la population. Le risque écologique est lié au passage de gènes des OGM vers des espèces « sauvages » génétiquement proches qui pourraient devenir invasives. On sait très bien que, même si cela reste rarissime, la barrière des espèces est quelquefois franchie. La probabilité individuelle de l’événement est extrêmement faible. Pourtant la répétition du phénomène par la suite du transport du pollen (éventuellement par des abeilles) donne une quasi certitude à l’apparition de tels phénomènes avec répétition du schéma précédent :
- Risque de passage d’un gène introduit vers des espèces sauvages très faibles et même qualifié de quasi nul par certains (mais pas nul et c’est cela qui fait toute la différence) ;
- Répétions d’événements : nouveaux OGM – transport de pollen par le vent ou des insectes vers des espèces génétiquement proches. Vu les milliards de milliards de grains de pollen qui sont produits, cette répétition est très fréquente ;
- Mécanismes poissonniens qui rendent l’apparition du phénomène presque certain ;
- À partir du moment où il apparaît, le phénomène devient invasif. Les conséquences sont imprévisibles et dépendent naturellement de la nature de l’événement…
Ces explications devaient avoir lieu d’être. Ceux qui prétendent qu’il n’y a pas de risque parce qu’un événement individuel est hautement improbable, soit, pour des raisons de business, mentent sciemment, soit, ce qui est encore peut-être plus grave, sont des incompétents qui ne connaissent rien dans les mécanismes de dynamiques des populations et de sélection naturelle. C’est grave, parce que, d’un côté les OGM ouvrent des voies très prometteuses dans le domaine de la médecine et qu’il serait absurde de s'en passer mais que, d’un autre côté, certaines manipulations OGM pourront avoir des conséquences désastreuses dans des environnements souvent déjà éprouvés par le développement de l’activité humaine liée à la croissance de l’espèce la plus invasive de la planète : Homo sapiens...
Paul Schweitzer
Laboratoire d’analyses et d’écologie apicole©
CETAM 2005 – Tous droits de reproduction réservés
(1) 3,62.1010 particules • par seconde en réalité.
(2) L’avantage d’un individu est lié au milieu. Si ce dernier se modifie un caractère favorable peut devenir défavorable et inversement.