septembre 2014
L Ma Me J V S D
« août    
1234567
891011121314
15161718192021
22232425262728
2930  

Qui croit encore sérieusement en la théorie de Terre plate ?

FE_lolUn article récemment paru sur le site web Vice a fait découvrir à des lecteurs incrédules l’improbable Flat Earth Society. Cette organisation américaine, qui se veut héritière de l’ouvrage « Zetetic Astronomy: Earth Not a Globe » (1881) de Samuel Rowbotham, promeut une pensée pour le moins incongrue. En effet, ses quelques quatre cent membres sont persuadés qu’un vaste complot mondial organisé par les plus hautes instances gouvernementales cache au monde entier que la Terre est en vérité un vaste disque et non une sphère. Dans ce modèle, le point central du disque correspondrait au pôle nord, tandis que l’Antarctique serait son périmètre. Quant aux innombrables preuves scientifiques de la rotondité de la Terre, elles ne seraient que des sophismes grecs entretenus par des organisations supranationales.

Comment réfutent-ils les démonstrations et preuves scientifiques de la sphéricité de la Terre ? Avec beaucoup d’aplomb, et une bonne dose de notions pour le moins fantasques. Ainsi considèrent-ils qu’un « tourbillon éthérique » perturbe les ondes électromagnétiques, induisant des phénomènes d’illusion optique pour l’observateur terrestre. Ou encore que le Soleil comme la Lune n’ont que 52 km de diamètre. Ces déclarations ont de quoi faire rire : bien avisé l’internaute qui croirait à une parodie digne du Disque-Monde de Pratchett. Et pourtant, cette association fondée en 1956 n’a rien d’un canular. Il s’agit même de la refondation d’une autre organisation, l’Universal Zetetic Society, elle-même créée à la fin du XIXème siècle.

Le plus surprenant reste que la théorie de la Terre plate était déjà considérée comme désuète à l’époque hellénistique (IVème siècle avant J.C.). Platon admettait dans ses écrits la sphéricité de la Terre. En vérité, le dernier grand débat eut lieu dans le monde romain chrétien d’Orient entre l’École théologique nestorienne d’Antioche, partisane de la Terre plate et l’École théologique d’Alexandrie, partisane de la Terre ronde. Cette controverse présente elle-même que peu d’importance puisque après le départ des Nestoriens vers la Perse, l’École jacobite leur succédant prôna un modèle d’univers sphérique. Cette culture hellénique transmise ensuite au monde musulman permit non seulement de conserver une grande part du savoir antique en Orient, mais ancra définitivement le modèle de la Terre ronde auprès des philosophes arabes. Quant à l’Occident, mis à part quelques exceptions comme Lactance (250-325), quasiment aucun autre philosophe ou religieux des derniers siècles de l’Empire Romain ne remit en cause la rotondité de la Terre. Contrairement à ce que qu’écrivit Cyrano de Bergerac (1619-1655), Saint Augustin ne défendit même jamais la théorie de la Terre plate, bien au contraire. Dans la Cité de Dieu (livre XVI, 9), le fameux philosophe et théologien écrivit :

« Quant à leur fabuleuse opinion qu’il y a des antipodes, c’est-à-dire des hommes dont les pieds sont opposés aux nôtres et qui habitent cette partie de la terre où le soleil se lève quand il se couche pour nous, il n’y a aucune raison d’y croire. Aussi ne l’avancent-ils sur le rapport d’aucun témoignage historique, mais sur des conjectures et des raisonnements, parce que, disent-ils, la terre étant ronde, est suspendue entre les deux côtés de la voûte céleste, la partie qui est sous nos pieds, placée dans les mêmes conditions de température, ne peut pas être sans habitants. Mais quand on montrerait que la terre est ronde, il ne s’ensuivrait pas que la partie qui nous est opposée ne fût point couverte d’eau. D’ailleurs, ne le serait-elle pas, quelle nécessité qu’elle fût habitée, puisque, d’un côté, l’Écriture ne peut mentir, et que, de l’autre, il y a trop d’absurdité à dire que des hommes aient traversé l’immensité de l’Océan pour y implanter un rameau détaché de la famille du premier homme » .

Saint Augustin ne remet nullement en cause la rotondité de la Terre mais débat uniquement de l’absence de preuves qu’elle soit habitée aux antipodes ; ce court extrait démontre que la théorie de la Terre plate n’était même plus sérieusement évoquée de son vivant. Il est d’ailleurs amusant de noter que s’il ne doutait pas pour mieux soutenir le dogme des Écritures, Augustin aurait pu faire un brillant zététicien !. La chute de l’Empire Romain ne signifie pas pour autant l’abandon de l’idée d’une Terre ronde. Les penseurs du Haut Moyen-Âge conservent les démonstrations du monde antique, bien que le savoir grec leur reste partiellement inaccessible pendant plusieurs siècles. Aussi l’idée encore véhiculée de nos jours qu’avant Christophe Colomb les intellectuels du Moyen-Âge niaient la rotondité de la Terre est tout simplement fausse ! En définitive, quiconque ayant un peu d’instruction croyait en la Terre ronde, cependant les hommes de lettre craignaient qu’une zone infranchissable ne sépare les deux hémisphères, rejoignant en cela les doutes de Saint Augustin. Le défi relevé par les grands explorateurs ne fut donc jamais de prouver la rotondité de la Terre, mais plutôt de démontrer qu’il était possible de rallier les quatre coins du globe.

Aussi est-il encore plus difficile de croire qu’au XXIème siècle, des hommes et des femmes puissent se déclarer partisans de la théorie de la Terre plate, retardant de 2400 ans en matière de compréhension de notre globe terrestre. Que des internautes puissent ainsi détenir moins de savoir scientifique qu’un lettré romain ou qu’un chevalier en route pour les Croisades a quelque chose de vertigineusement ridicule. Mais peut-être est-ce là un des paradoxes de notre société de l’information immédiate …


Comment l’Homme a empêché un refroidissement climatique

Que mes lecteurs se rassurent, derrière ce titre particulièrement provocateur ne se cache pas un soudain parti pris en faveur de la pollution atmosphérique. Mais plutôt une réflexion personnelle suite à la publication de trois pertinents articles de climatologie malheureusement boudés par les magazines de vulgarisation scientifique. En effet, il semble que la presse grand public se limite uniquement à relayer les avis d’été pourri ou à déformer les propos alarmants d’experts climatiques en une sur-enchère d’annonces alarmistes. C’est d’autant plus regrettable qu’au cours de ces derniers mois, une avancée importante à mon sens a été faite en climatologie. La célèbre « pause climatique » brandie par les anti-sciences comme une réfutation du réchauffement climatique est désormais clairement expliquée par les climatologues. Et si mon titre se voulait volontairement cynique, c’est peut-être pour mieux digérer les conclusions particulièrement pessimistes que m’inspirent ces travaux récents.

Le hoax de la « pause climatique » est né de l’analyse biaisée des températures moyennes mesurées à la surface du globe. Reconnaissons-le, après la forte montée des températures au cours des années 70 à 90, la courbe venait s’infléchir à tel point que la très faible pente positive rapportée depuis 1998 laissait croire à un arrêt brutal du réchauffement climatique. En définitive, les records de mois les plus chauds continuent à s’accumuler, mais de manière bien moins spectaculaire que l’emballement annoncé par les précédents modèles climatiques. Dans ces situations, le scientifique s’interroge et recherche calmement quels facteurs ont pu modifier la donne. Le climato-sceptique, quant à lui, se frotte les mains en se gardant bien de tout raisonnement contraire à sa doctrine. Seulement derrière la « pause climatique » se cachait une variation naturelle sous-estimée : un refroidissement climatique temporaire et multifactoriel. Autant dire que pour le partisan anti-science, l’explication est déjà bien trop compliquée. Mais puisque nous ne sommes pas sur un site climato-sceptique, tâchons de faire l’effort qui leur fait tant défaut et regardons plus en détails comment le réchauffement climatique a pu être freiné ces dernières années. Un premier papier tout d’abord, publié dans la revue Geophysical Research Letters [1], montre grâce à l’analyse statistique des températures moyennes mesurées à la surface de la Terre qu’un refroidissement naturel s’oppose bien au réchauffement climatique anthropique. Cette conclusion apparaissait déjà en substance dans les résultats publiés par Meehl et al. (2004) (voir la figure ci-dessous). L’article proposé par Lovejoy et al. (2014) confirme donc les précédentes interprétations en s’appuyant sur une autre méthode statistique développée précédemment par la même équipe. Puisque la chose est acquise, intéressons-nous maintenant à ces facteurs naturels présumés.

 

meehle_2004

Crédits : Meehl et al. (2004)

 

Markus Huber et Reto Knutti ont également publié en août dernier dans la revue Nature Geoscience un article revenant plus en détails sur ces facteurs responsables [2]. Certains détracteurs du GIEC, comme Allègre et Courtillot, ont émis par le passé l’hypothèse que l’activité solaire est responsable des changements climatiques mesurés. Paradoxalement, si leur hypothèse a été depuis infirmée (voir la figure ci-dessous), il semblerait que l’activité solaire soit bien un des facteurs naturels responsables de la stagnation du réchauffement climatique. Depuis 13 ans, le Soleil présente une période de faible activité anormalement plus longue que d’accoutumée. Cette baisse de l’irradiance solaire rajoutée à la forte dispersion atmosphérique au cours des dernières années d’aérosols d’origine volcanique (comme lors de l’éruption du volcan Eyjafjallajökull en 2010) s’ajoutent dans la colonne des facteurs « refroidissants » du bilan climatique mondial. Autre phénomène fluctuant, l’année 1998 a été caractérisée par un important événement El Niño, significatif d’une année « chaude ». Le contre-phénomène de La Niña qui s’en suivit eut un effet à l’inverse « refroidissant » sur les températures des années suivnates. Étant donné la difficulté de prévision du phénomène El Niño/La Niña, les modèles climatiques ont en toute logique pâti du manque de données disponibles.

 

Solar_vs_temp_500

Sources : skepticalscience.com/

 

Enfin, un papier paru fin août dans la revue Science [3] vient apporter une information supplémentaire : un des facteurs responsables du ralentissement du réchauffement climatique serait à chercher dans la circulation des courants océaniques Atlantique et de l’hémisphère sud. Au cours des années 70-90, les données collectées montraient que les courants chauds s’attardaient plus longtemps vers les eaux de surface, permettant une libération de la chaleur dans l’atmosphère et contribuant de manière significative au réchauffement climatique. Mais à la fin des années 90, les courants se sont brutalement accélérés, renvoyant cette fois-ci les eaux chaudes vers les profondeurs de l’océan. Selon les océanologues Ka-Kit Tung et Xianya Chen à l’origine de cette étude, le changement est suffisamment important pour expliquer la « pause climatique » actuelle. Une conclusion un peu plus hasardeuse que certains climatologues modèrent déjà dans les colonnes de Nature News. Toujours est-il qu’un troisième facteur naturel vient compléter la liste des responsables de cette « pause climatique » .

Nos facteurs désormais mieux compris, les modèles climatiques peuvent être réajustés, et comme attendu les voilà incluant désormais cette « pause climatique » dans leurs résultats [2]. La problématique soulevée au cours de années 2000 est donc en bonne voie d’être résolue. Notre colonne des facteurs « refroidissants » désormais mise à jour, regardons du côté de la colonne des facteurs « réchauffants » , avec à leur tête les rejets de GES d’origine anthropique. Puisque les températures mondiales « stagnent » depuis la fin des années 90, il faut trouver un responsable à l’absence de refroidissement climatique. Or pendant cette même période, les rejets de GES n’ont cessé d’augmenter de manière exponentielle. D’où ma conclusion évoquée en titre de ce billet : l’Homme a empêché un refroidissement climatique grâce à ses émissions polluantes. Il y aurait de quoi remettre une médaille aux industriels et politiciens pour leur bienfaitrice inaction : imaginez si nous avions eu un été encore plus pourri ? Mais cessons-là toute ironie grinçante, car le pire reste toujours à venir. Que ce soient les événements El Niño, l’activité solaire ou les circulations océaniques, tous ces facteurs fluctuent, et leurs tendances actuelles viendront à s’inverser. Que se passera-t-il lorsque ces trois facteurs redeviendront favorables à une montée des températures ? Nous observerons alors une hausse brutale du réchauffement climatique, avec toutes les conséquences catastrophiques que cela impliquera. Faut-il donc se réjouir de cette « pause climatique » qui n’en est pas vraiment une ? Non, bien au contraire. Car elle s’annonce en quelque sorte comme le calme avant la tempête …

 

 

Références :

 

[1] Lovejoy, S. (2014). Return periods of global climate fluctuations and the pause. Geophysical Research Letters, 41(13), p. 4704-4710.

[2] Huber, M.; Knutti, R. (2014). Natural variability, radiative forcing and climate response in the recent hiatus reconciled. Nature Geoscience. doi:10.1038/ngeo2228

[3] Chen, X.; Tung, K-K. (2014). Varying planetary heat sink led to global-warming slowdown and acceleration. Science 345(6199), p. 897-903.


Les prédictions de Robert Heinlein pour l’an 2000

En 1949, l’auteur américain de science-fiction compilait une liste de prédictions pour l’année 2000, qui furent finalement publiées en 1952 dans le magazine Galaxy. Soixante cinq ans après leur rédaction, ces prévisions peuvent sembler obsolètes. Outre les fascinantes visions d’un rétrofutur heinleinien, ces prédictions sont également truffées d’humour et laissent entrevoir les inspirations politiques de l’auteur. Heinlein imagine un vingt-et-unième siècle technophile, aux mœurs sociétales bien plus ouvertes et dominé par une vision politique libertarienne. La médecine y est triomphante. Tous les maux trouvent un remède, du plus redoutable cancer métastasique au plus insignifiant rhume des foins, et les médecins travaillent désormais sur la régénération de membres entiers. Les citoyens du futur ont tous un téléphone portable dans leur poche, il est même possible de passer ses vacances sur Mars à la rencontre de ses autochtones intelligents ! Mieux encore, les USA ne feront jamais de guerre préventive et les « faucons » ne chercheront pas d’armes de destruction massive dans le désert irakien.

Mais si la science future tente de contrôler la gravité et de construit les premiers vaisseaux interstellaires, la fracture sociale change de visage. Les classes sociales les plus pauvres ont toutes un toit mais doivent faire face à deux nouveaux problèmes sociétaux : l’inégalité face aux transports et une carence alimentaire mondiale. La biotechnologie mise au service de l’alimentation nous permet de palier ces carences grâce à la culture de levures comestibles ou les protéines de poissons. Mais alors que les plus démunis doivent se contenter de cette alimentation synthétique bon marché, les riches nantis savourent des biftecks hors de prix. L’humanité perdurera et ne connaîtra pas l’apocalypse nucléaire tant redoutée après guerre. Heinlein imaginait-il que son appel à un contrôle supranational des armes nucléaires serait entendu dans le futur ? Toujours est-il que si un tel accord était trouvé dans son imagination, l’auteur reste sceptique sur la formation d’ici l’an 2000 d’un gouvernement mondial. Une lueur de misanthropie jaillit entre les lignes : certaines choses semblent impossibles pour l’espèce humaine, et renoncer à toute guerre en fait partie.

 

Robert Heinlein en 1939.

Robert Heinlein en 1939.

 

Liste traduite d’après sa retranscription web :

 

1. Les voyages interplanétaires vous attendent au pied de votre porte. Paiement à la livraison. Ils sont à vous dès que vous les payez.

2. La contraception et le contrôle des maladies sexuellement transmissibles revisitent les relations entre les sexes avec une telle ampleur qu’ils changent entièrement notre structure économique et sociale.

3. Le fait militaire le plus important de ce siècle reste qu’il n’y a aucun moyen de repousser une attaque venue de l’espace.

4. Il est totalement impossible que les USA puissent mener une guerre préventive. Nous nous battrons que si nous sommes attaqués directement ou sur un territoire dont nous garantissons la défense.

5. En quinze ans, la pénurie de logements sera résolue par une percée dans les nouvelles technologies qui rendront chaque maison actuelle aussi désuète que des latrines.

6. Nous aurons tous bientôt de plus en plus faim.

7. Le culte du faux dans l’art disparaîtra. Le soit-disant « art moderne » sera seulement discuté en psychiatrie.

8. Freud sera classé comme pré-scientifique, la psychanalyse pionnière et intuitive sera remplacée par le développement radical d’une « psychologie opérationnelle » basée sur des mesures et prédictions.

9. Le cancer, le rhume et la carie dentaire seront vaincus; le nouveau problème qui révolutionnera la recherche médicale sera la régénération; c’est à dire faire croître une nouvelle jambe à un homme amputé plutôt que de lui fournir une prothèse.

10. D’ici la fin de ce siècle, l’humanité aura exploré le système solaire, et les premiers vaisseaux interstellaires seront en construction.

11. Votre téléphone personnel sera assez petit pour tenir dans votre poche. Votre téléphone fixe enregistrera des messages, répondra à de simples questions, et transmettra des images.

12. Une forme de vie intelligente sera découverte sur Mars.

13. Un millier de miles par heure au prix d’un cent par mile sera monnaie courante. Les courtes distances seront franchies par des métros sous vide à très grandes vitesses.

14. Un objectif majeur de la physique appliquée sera le contrôle de la gravité.

15. Nous ne formerons pas un « état mondial » dans cet avenir prévisible. Néanmoins, le communisme disparaîtra de cette planète.

16. L’accroissement de la mobilité privera de ses droits une majorité de la population. En 1990, un amendement constitutionnel en finira avec les frontières étatiques tout en conservant l’apparence.

17. Tous les aéronefs seront contrôlés par un gigantesque réseau radar déployé à l’échelle continentale grâce à de multiples cerveaux électroniques.

18. Les poissons et les levures deviendront nos principales sources de protéines. La viande de bœuf sera un luxe; l’agneau et le mouton disparaîtront.

19. L’humanité ne se détruira pas elle-même, ni sa « civilisation ».

 

Et voici les concepts que nous ne sommes pas prêts de développer, si jamais la chose se révélait un jour possible :

- Le voyage dans le temps
- Voyager plus vite que la lumière
- Transmettre de la matière par ondes « radio »
- Des robots anthropomorphes avec des réactions humaines
- La vie artificielle créée en laboratoire
- Une réelle compréhension de ce qu’est la pensée et comment elle est reliée à la matière.
- La preuve scientifique d’une vie après la mort
- Ni une fin définitive de toute guerre.


Chemtrails, HAARP, Moon Hoax, ces complots insensés qui pullulent sur le web

L’été est propice à l’observation du ciel, qu’il soit d’un bleu d’azur immaculé ou d’un noir constellé de milliers d’étoiles scintillantes. Confortablement allongé sur sa chaise longue, on regarde le voyage au long cours d’avions perchés à haute altitude ou l’éclat fascinant d’une pleine lune au-dessus de l’océan. On se prend alors à rêver à quelques destinations lointaines et exotiques, ou à d’autres mondes inconnus situés bien au-delà des étoiles filantes. Mais pour les partisans de la théorie du complot, rien dans le ciel n’invite à cette douce rêverie qui remplit vos vacances estivales, bien au contraire. De nombreux complots voient dans les formes allégoriques des nuages les preuves de terribles machinations, et les voilà s’agitant sur le web, tels des gaulois craignant que le ciel ne leur tombe sur la tête !

Démonter les propos des charlatans anti-sciences fait également partie de mes objectifs de blogueur, et les lecteurs réguliers connaissent déjà mes combats contre les créationnismes et les climato-sceptiques. Mais toutes les théories anti-sciences ne se valent pas. Si les deux citées ci-dessus ne peuvent qu’inspirer une réfutation sans concessions, certaines polémiques sur les cultures d’OGM ou les thèses des Bogdanoff ne peuvent être rejetées d’un seul bloc, et nécessitent un rigoureux débunking afin d’en séparer la part de vérité de l’affabulation. D’autres, enfin, se basent sur des rumeurs tellement folles que leur message semble dénué de toute logique ; leur décryptage devient d’autant plus difficile que leurs partisans se sont enfermés dans une vision paranoïaque de la réalité et refusent systématiquement de briser leur cercle de raisonnement vicieux. Curieusement, les trois plus grands hoax répondant à cette définition concernent le ciel : ce sont les chemtrails, le projet HAARP et le Moon Hoax.

chemtrails_meme

Audrey Garric, journaliste et blogueuse du Monde.fr s’est attaquée dernièrement à la théorie des chemtrails. Dans un article aussi passionnant qu’instructrif, la journaliste réalise l’un des meilleurs travail de synthèse qu’il m’ait été permis de lire sur le sujet. Retraçant les origines du hoax à un rapport de l’US Air Force de 1996 baptisé « Le climat comme un multiplicateur de force : posséder le temps en 2025 » , elle montre comment le réseau internet récemment ouvert au public permit alors, grâce à l’émergence des premiers sites conspirationnistes, de véhiculer une interprétation paranoïaque de ces réflexions militaires sur la faisabilité d’armes climatiques, pourtant un très vieux thème scientifique. Comment les partisans du complot firent-ils le rapprochement entre les traînées de condensation laissées par les avions en haute altitude (les contrails, pour condensation trails) et l’idée d’un vaste complot de géoingénierie militaire ? Probablement en regardant le ciel, comme tout à chacun. Les condensation trails s’expliquent aisément par le choc thermique entre l’air chaud et humide éjecté par les turbines d’avion et l’air froid et plus sec de la haute atmosphère. En fonction du degré d’humidité relatif et de la température à ces altitudes, il va se créer dans le sillage de l’avion un voile nuageux de gouttelettes et cristaux de glace issus de la condensation de la vapeur d’eau. En d’autres termes, les turbines des avions de ligne fabriquent derrière elle d’inoffensifs mais spectaculaires nuages artificiels.

Et pourtant, dans l’imaginaire des théoriciens du complot, les contrails sont en vérité de dangereux chemtrails remplis de produits nocifs : métaux pauvres comme l’aluminium, métaux de transition ou alcalino-terreux, polymères irritants ou nanoparticules nocives, le cocktail a de quoi effrayer les profanes. Bien entendu, les réfutations scientifiques comme aéronautiques ne suffisent pas à démonter les rumeurs : l’absence de preuves est, pour le théoricien du complot, la meilleure preuve que la vérité lui est cachée. Aussi serait-il vain d’accumuler les analyses géochimiques des traînées nuageuses en haute altitude pour rassurer un conspirationniste, l’effet inverse serait obtenu. Le plus surprenant réside peut-être dans les tenants et aboutissants du complot. A qui profitent les chemtrails ? Selon les théoriciens du complot, sont renvoyés sur le banc des accusés aussi bien l’armée américaine (chemtrails militaires et armes climatiques), la gouvernance mondiale (chemtrails économiques ou démographiques), le GIEC (chemtrails réchauffistes) ou encore l’incontournable firme Monsanto qui mettrait ainsi sur place des cultures génétiquement modifiées résistantes à l’aluminium ! Même constat avec le complot HAARP, étroitement associé dans les théories du complot climatique aux chemtrails. Le projet High Frequency Active Auroral Research Program (HAARP) installé depuis 1993 près de Gakona, en Alaska, est une installation de recherche sur l’ionosphère financée conjointement par l’US Air Force et l’US Navy, sous la direction scientifique de l’Université d’Alaska. Grâce à l’excitation via des ondes haute fréquence de la haute atmosphère, le projet tend à comprendre les mécanismes électromagnétiques complexes qui régissent l’ionosphère. Le programme se présente au sol comme un champ d’antennes assez monotone. Car pour vraiment observer les effets de ces installations, il faut écouter en radioamateur sur des fréquences précises les impulsions émises lors d’expériences menées conjointement avec les géophysiciens américains. Le projet HAARP a cependant permis une percée scientifique assez spectaculaire, lors de l’apparition d’une émission optique artificiellement provoquée par l’interaction de ces ondes haute-fréquence et du plasma ionosphérique. Le phénomène, décrit par Pedersen & Gerken (2005) dans la revue Nature, excita bon nombre de conspirationnistes y voyant là une preuve éclatante de la puissance néfaste du projet HAARP. Puisque les scientifiques génèrent des lumières dans le ciel, il n’y a – dans l’esprit des conspirationnistes– aucune raison pour que les militaires ne puissent pas modifier le climat, interrompre toute forme de communication hertzienne, détruire ou détourner des avions et missiles transcontinentaux et même influencer les comportements humains. Tout ceci grâce à une petite tâche lumineuse verdâtre bien moins spectaculaire qu’une aurore boréale, rappelons-le.

haarp_lol

Il suffirait d’un peu plus de bon sens et de culture scientifique aux tenants de ces théories du complot pour se rendre compte de leur erreur : dans le cas du Moon Hoax, théorie attribuant à divers degrés les vols lunaires habités à une supercherie du gouvernement américain, un débunking en règle des arguments complotistes montre que la plupart d’entre-eux sont basés sur une méconnaissance de disciplines scientifiques basiques telles que l’optique, l’astronomie ou encore la mécanique du point. De même pour les chemtrails, les théories conspirationnistes rejetent de facto une explication basique de chimie physique pour lui préférer des théories aussi complexes que fumeuses. Le principe du rasoir d’Ockham permet, comme toujours, de rejeter par simple raisonnement logique ces explications conspirationnistes. Prenons quelques instants au sérieux l’hypothèse d’un déversement de métaux toxiques et micro-particules dans la haute atmosphère. Un premier problème se pose : dans l’aéronautique, le moindre kilogramme de charge utile transportée est précieux. Les ingénieurs métallurgistes connaissent bien le problème pour rechercher sans cesse de nouveaux alliages à la fois résistants et légers. Etant donné qu’une compagnie aérienne doit optimiser sa charge utile embarquée (son gagne-pain) par rapport à la masse totale de l’avion au décollage, embarquer des tonnes de produits chimiques à pulvériser dans le ciel équivaut à réduire cette charge utile, et donc à rendre chaque vol bien moins rentable. Dans ce cas, qui payerait la facture ? Imaginons que l’état et certaines firmes privées financent la pulvérisation d’aluminium au-dessus de nos têtes. Nous pouvons, de manière assez grossière, estimer le coût de la manœuvre rien qu’en calculant l’achat quotidien de matière première. Supposons que chaque avion de ligne en vol embarque en moyenne secrètement une tonne d’aluminium à pulvériser, ce qui représente 1/18ème de la charge utile embarquée d’un Boeing 737-700. Ce choix d’avion utilisé aussi bien pour le fret que pour le transport de passagers n’est pas anodin, puisque actuellement, le Boeing 737 (et ses nombreuses déclinaisons) est l’avion de ligne le plus vendu au monde. A la rédaction de ce billet, le cours de l’aluminium était de 1520,34 euros la tonne. Sachant que d’après les statistiques consultées, 80000 vols mondiaux sont quotidiennement enregistrés, il faudrait payer quotidiennement la bagatelle de 121,63 millions d’euros pour arroser le ciel d’aluminium. Soit une facture à l’année de 44,4 milliards d’euros ! Si le complot des chemtrails était vrai, cela impliquerait deux conséquences directes : l’explosion exponentielle des cours de l’aluminium et autres métaux dispersés, alors que ceux-là fluctuent selon les demandes du marché, et bien entendu la faillite de la firme Monsanto, qui avec son chiffre d’affaires de 10,8 milliards d’euros, n’a clairement pas les moyens de financer ce complot. Quant à l’état payant la facture, ceci pourrait toujours expliquer dans l’esprit des conspirationnistes l’acharnement des gouvernements à réduire les dépenses publiques…

Les théories conspirationnistes frisent même le ridicule dans le cas du projet HAARP, actuellement à l’arrêt depuis plus d’un an et probablement démantelé dans un proche avenir malgré les annonces de reprises partielles d’activité à l’automne prochain. Ces mauvaises nouvelles pour la géophysique ne font pas pour autant réagir les conspirationnistes, qui malgré l’abandon du projet lui attribuent encore toute sortes d’événements climatiques et catastrophes aériennes. A croire que les installations de Gakona restent opérationnelles même une fois éteintes ! Mais puisque la moindre explication rationnelle sera rejetée comme une tentative de justification du complot, que la moindre absence de preuves sera interprétée comme l’évidence même de l’existence d’un complot, ces quelques exemples de raisonnements biaisés et contres-arguments ne pourront pas briser le cercle vicieux du conspirationnisme. Les commentaires postés en réponse au billet d’Audrey Garric en sont une preuve consternante. Pris au second degré, ils peuvent se révéler amusants et postés par des trolls patentés. Hélas, ces navrantes répliques dénuées de toute logique ou culture scientifique sont écrites avec le premier degré le plus sincère. Car le conspirationniste n’est pas seulement un militant anti-sciences trollant les sites et blogs. Il s’agit, le plus souvent, d’un innocent candide berné par des théories fallacieuses que son manque de culture scientifique ne lui ont pas permis d’éviter. A la fois victime et vecteur des théories du complot, le conspirationniste reflète une vérité bien plus triste : celle d’une société hautement technologique, et pourtant si dépourvue de culture scientifique. Or de même que l’enseignement de l’histoire permet de lutter contre le négationnisme et l’intolérance, seul l’enseignement des sciences et de leur culture permettra de rejeter les théories du complots dès le plus jeune âge. Encore faut-il se donner les moyens de ce combat et s’interroger : voulons-nous pour demain une société éclairée ou un monde obscurantiste ?

gaulois


Quarante mille personnes pour coloniser une exoplanète ?

spaceship-interstellarEmbarquer un jour à bord d’un vaisseau spatial à destination d’une exoplanète fait partie des rêves les plus fous de l’Humanité. Parmi les challenges colossaux soulevés par un tel projet, la taille de l’équipage à bord du vaisseau pose également problème. Quels effectifs minimum suffiraient pour coloniser durablement le nouveau monde une fois arrivé à bon port ? Des expertises avaient précédemment estimé qu’un équipage de 100 individus en âge de se reproduire suffiraient à conserver une population stable au fil des générations durant le voyage interstellaire, puis à fonder cette lointaine colonie. Pour Cameron M. Smith, anthropologue à l’Université de Portland et scientifique membre du projet Hyperion, ce chiffre est très largement sous-évalué. Dans une étude parue en avril dernier dans la revue Acta Astronautica, le chercheur américain évalue que la population embarquée pour un voyage de 5 générations (150 ans) à destination d’une exoplanète colonisable devrait comprendre 14000 à 44000 individus. Idéalement, une population totale de 40000 individus de tout âge avec un sous-groupe en âge de se reproduire (ou population effective) de 23400 hommes et femmes garantirait les meilleures chances de bonne santé et de survie à très long terme de la population.

Si ces chiffres peuvent sembler colossaux et exagérés, il faut cependant préciser que Smith s’est posé d’entrée de jeu des conditions draconiennes afin d’évaluer sa population. D’abord, l’anthropologue veut limiter toute perte de diversité génétique du à l’échantillonnage originel des candidats dans la population mondiale. Ensuite, notre chercheur estime qu’au terme d’un voyage aussi long que hasardeux, le vaisseau spatial connaîtra au moins une avarie sévère réduisant fortement sa population effective. Il ne faut donc pas que cette crise démographique soit fatale à la viabilité de la future colonie. Pour arriver à de tels chiffres, Smith s’est basé sur la génétique des populations et ses méthodes prédictives de dérive génétique et de dynamique des populations. En prenant en compte les risques de consanguinité à long terme et de perte de polymorphisme, il a estimé que non seulement l’équipage devrait rester en bonne santé au terme des 5 générations de voyage, mais que la population fondatrice de la colonie devait également pouvoir transmettre à ses descendants une diversité génétique à même de garantir son adaptation et sa survie dans son nouvel environnement.

Mais en quoi consiste cette dérive génétique ? Ce processus aléatoire naturel permet de mieux comprendre l’évolution de la fréquence d’un allèle au sein d’une population. Les variations de fréquences alléliques sont liées à deux facteurs : la fréquence allélique d’origine et la taille de la population suivie. Dans le cas d’une population supposée infinie et en absence de toute mutation ou sélection, ces fréquences alléliques restent stables au cours des générations. Elles vont cependant varier dans une population finie en raison de l’échantillonnage aléatoire des gènes lors de la reproduction. De part le caractère aléatoire lié à cet échantillonnage allélique à chaque nouvelle génération, cette dérive génétique va aboutir à deux cas extrêmes : soit la disparition de l’allèle (fréquence nulle), soit à sa fixation définitive (fréquence égale à 1). Au bout d’un certain nombre de générations, il y a donc un risque d’appauvrissement de la diversité génétique. Cette variance allélique est d’autant plus importante que la taille de la population est faible. Tôt (pour de petites populations) ou tard (pour de grandes populations), la dérive génétique entraîne irrémédiablement une perte de polymorphisme. Une population à faible effectif présente donc un plus grand risque à court terme de diminution de l’hétérozygotie et d’accroissement de la consanguinité.

La dérive génétique étant un mécanisme aléatoire, il est possible de la modéliser pour un allèle donné en renseignant sa fréquence allélique P0 et l’effectif initial de population N. Comme pour une expérience de tirages aux sort successifs, les modèles reproduisent l’aléa au fil des générations. En recommençant plusieurs fois la simulation, il est possible d’obtenir graphiquement la superposition de plusieurs scénarios aléatoires. L’amplitude des fréquences obtenues à chaque simulation est proportionnelle à la taille de la population. Si N est petit, alors le nombre de tirages successifs montre que l’allèle va très rapidement se fixer ou disparaître. Au contraire, si N est important, la probabilité d’aboutir à ces deux situations extrêmes diminue et la fréquence PZ au terme de Z générations tend à se rapprocher de la valeur P0. A titre d’exemple, simulons à l’aide d’une application web comme celle proposée par l’Université d’Arizona la dérive génétique pour un allèle de fréquence P0 = 0,5 dans une petite puis une grande population N. Pour chaque graphique, la simulation est répétée cinq fois de suite. Dans le premier cas où N = 20 l’allèle se fixe ou disparaît rapidement. Dans le second cas où N = 1000 aucun événement extrême n’est constaté et l’amplitude des fréquences est beaucoup plus resserrée autour de la fréquence allélique initiale :

genetic drift 2

Grâce à cet exemple ci-dessus, il apparaît clairement qu’une faible population initiale ne garantit pas au fil des générations la conservation de la diversité génétique. Dans son article, le Dr. Smith a voulu obtenir grâce à sa modélisation le meilleur compromis entre diversité allélique et enchaînement des générations successives. Qui plus est, son modèle est suffisamment robuste pour assurer une viabilité de la future colonie même après une crise majeure durant le voyage. Imaginons qu’un système principal tombe en panne, qu’un phénomène astronomique tue une grande partie de l’équipage ou qu’une émeute ravage leur communauté. Smith n’ignore pas que toute catastrophe majeure venant décimer les effectifs provoquerait un nouvel échantillonnage génétique de la population. Ce nouveau groupe de départ doit donc être supposé suffisamment important pour ne pas sombrer au fil des générations dans une dépression génétique. Bien trop d’incertitudes sont également éludées des précédentes estimations concernant la fécondité humaine dans l’espace. Si le ratio d’enfants par couple venait à chuter au fil des générations, encore faut-il être certain que cette chute démographique ne s’accompagnerait pas d’une dangereuse dérive génétique. De petits groupes peuvent certes donner naissance à des populations viables, et l’histoire de l’humanité est rempli d’exemples de ce genre, mais le risque d’accroître une fréquence allélique défavorable, voire de fixer une tare génétique sont d’autant plus élevés. Prenons l’exemple de la petite colonie britannique de Tristan da Cunha, dans l’Atlantique, fondée par seulement 15 individus. Un d’entre-eux portait l’allèle récessif de la rétinopathie pigmentaire. La petite taille de la population a permis d’augmenter significativement la fréquence de cette allèle, et par conséquent le nombre de naissances d’individus malades, en raison d’un effet négatif de la dérive génétique. Ce risque, également présent pour nos futurs colons de l’espace, s’accroît en considérant l’ensemble des facteurs alléliques ou génomiques défavorables susceptibles d’être amplifiés ou fixés par la sélection d’une population trop petite. De plus, la diversité génétique est un atout essentiel à l’adaptation de nos futurs colons à leur nouvel environnement. Combinant toutes ces méta-données ainsi que les plus récentes connaissances en matière de génomique humaine et génétique médicale, Smith a donc conçu un modèle particulièrement approfondi pour répondre à la problématique initiale. Et comme le veut la logique en génétique des populations, plus les obstacles sont nombreux, plus grande se doit d’être la population initiale afin de les surmonter.

Cependant, plusieurs solutions permettraient de réduire cet impressionnant effectif. Une aubaine, puisque ces quarante mille passagers ne manqueront pas de soulever d’innombrables problèmes de conception des systèmes de survie à bord. Une première astuce consisterait à sélectionner drastiquement les candidats au voyage interstellaire. C’est dans les grandes lignes le thème du film d’anticipation Bienvenue à Gattaca d’Andrew Niccol, dans lequel les astronautes sont soigneusement sélectionnés en fonction de leur profil génétique. Une autre méthode consisterait à embarquer du sperme et des ovules congelés afin d’enrichir artificiellement le patrimoine génétique des passagers sans pour autant gonfler les effectifs à bord. Une troisième technique basée sur l’évolution dirigée consisterait à sélectionner par génie génétique des embryons aux modifications alléliques innovantes et répondant à des besoins spécifiques de la colonie. Enfin, à très long terme, la meilleure solution reste encore de laisser faire la nature : avec une pression sélective renouvelée, la population de colons suivra sa propre évolution, coupée de ses flux géniques d’origine. La vision peut faire rêver comme cauchemarder, car au final, ces évolutions indépendantes mènent dans la nature à un mécanisme de spéciation. Mais si l’homme venait à coloniser l’espace grâce à ces voyages sans retour, ne sèmerait-il tout au long de sa route les graines de nouvelles Humanités ?