août 2014
L Ma Me J V S D
« juil    
 123
45678910
11121314151617
18192021222324
25262728293031

Les prédictions de Robert Heinlein pour l’an 2000

En 1949, l’auteur américain de science-fiction compilait une liste de prédictions pour l’année 2000, qui furent finalement publiées en 1952 dans le magazine Galaxy. Soixante cinq ans après leur rédaction, ces prévisions peuvent sembler obsolètes. Outre les fascinantes visions d’un rétrofutur heinleinien, ces prédictions sont également truffées d’humour et laissent entrevoir les inspirations politiques de l’auteur. Heinlein imagine un vingt-et-unième siècle technophile, aux mœurs sociétales bien plus ouvertes et dominé par une vision politique libertarienne. La médecine y est triomphante. Tous les maux trouvent un remède, du plus redoutable cancer métastasique au plus insignifiant rhume des foins, et les médecins travaillent désormais sur la régénération de membres entiers. Les citoyens du futur ont tous un téléphone portable dans leur poche, il est même possible de passer ses vacances sur Mars à la rencontre de ses autochtones intelligents ! Mieux encore, les USA ne feront jamais de guerre préventive et les « faucons » ne chercheront pas d’armes de destruction massive dans le désert irakien.

Mais si la science future tente de contrôler la gravité et de construit les premiers vaisseaux interstellaires, la fracture sociale change de visage. Les classes sociales les plus pauvres ont toutes un toit mais doivent faire face à deux nouveaux problèmes sociétaux : l’inégalité face aux transports et une carence alimentaire mondiale. La biotechnologie mise au service de l’alimentation nous permet de palier ces carences grâce à la culture de levures comestibles ou les protéines de poissons. Mais alors que les plus démunis doivent se contenter de cette alimentation synthétique bon marché, les riches nantis savourent des biftecks hors de prix. L’humanité perdurera et ne connaîtra pas l’apocalypse nucléaire tant redoutée après guerre. Heinlein imaginait-il que son appel à un contrôle supranational des armes nucléaires serait entendu dans le futur ? Toujours est-il que si un tel accord était trouvé dans son imagination, l’auteur reste sceptique sur la formation d’ici l’an 2000 d’un gouvernement mondial. Une lueur de misanthropie jaillit entre les lignes : certaines choses semblent impossibles pour l’espèce humaine, et renoncer à toute guerre en fait partie.

 

Robert Heinlein en 1939.

Robert Heinlein en 1939.

 

Liste traduite d’après sa retranscription web :

 

1. Les voyages interplanétaires vous attendent au pied de votre porte. Paiement à la livraison. Ils sont à vous dès que vous les payez.

2. La contraception et le contrôle des maladies sexuellement transmissibles revisitent les relations entre les sexes avec une telle ampleur qu’ils changent entièrement notre structure économique et sociale.

3. Le fait militaire le plus important de ce siècle reste qu’il n’y a aucun moyen de repousser une attaque venue de l’espace.

4. Il est totalement impossible que les USA puissent mener une guerre préventive. Nous nous battrons que si nous sommes attaqués directement ou sur un territoire dont nous garantissons la défense.

5. En quinze ans, la pénurie de logements sera résolue par une percée dans les nouvelles technologies qui rendront chaque maison actuelle aussi désuète que des latrines.

6. Nous aurons tous bientôt de plus en plus faim.

7. Le culte du faux dans l’art disparaîtra. Le soit-disant « art moderne » sera seulement discuté en psychiatrie.

8. Freud sera classé comme pré-scientifique, la psychanalyse pionnière et intuitive sera remplacée par le développement radical d’une « psychologie opérationnelle » basée sur des mesures et prédictions.

9. Le cancer, le rhume et la carie dentaire seront vaincus; le nouveau problème qui révolutionnera la recherche médicale sera la régénération; c’est à dire faire croître une nouvelle jambe à un homme amputé plutôt que de lui fournir une prothèse.

10. D’ici la fin de ce siècle, l’humanité aura exploré le système solaire, et les premiers vaisseaux interstellaires seront en construction.

11. Votre téléphone personnel sera assez petit pour tenir dans votre poche. Votre téléphone fixe enregistrera des messages, répondra à de simples questions, et transmettra des images.

12. Une forme de vie intelligente sera découverte sur Mars.

13. Un millier de miles par heure au prix d’un cent par mile sera monnaie courante. Les courtes distances seront franchies par des métros sous vide à très grandes vitesses.

14. Un objectif majeur de la physique appliquée sera le contrôle de la gravité.

15. Nous ne formerons pas un « état mondial » dans cet avenir prévisible. Néanmoins, le communisme disparaîtra de cette planète.

16. L’accroissement de la mobilité privera de ses droits une majorité de la population. En 1990, un amendement constitutionnel en finira avec les frontières étatiques tout en conservant l’apparence.

17. Tous les aéronefs seront contrôlés par un gigantesque réseau radar déployé à l’échelle continentale grâce à de multiples cerveaux électroniques.

18. Les poissons et les levures deviendront nos principales sources de protéines. La viande de bœuf sera un luxe; l’agneau et le mouton disparaîtront.

19. L’humanité ne se détruira pas elle-même, ni sa « civilisation ».

 

Et voici les concepts que nous ne sommes pas prêts de développer, si jamais la chose se révélait un jour possible :

- Le voyage dans le temps
- Voyager plus vite que la lumière
- Transmettre de la matière par ondes « radio »
- Des robots anthropomorphes avec des réactions humaines
- La vie artificielle créée en laboratoire
- Une réelle compréhension de ce qu’est la pensée et comment elle est reliée à la matière.
- La preuve scientifique d’une vie après la mort
- Ni une fin définitive de toute guerre.


Chemtrails, HAARP, Moon Hoax, ces complots insensés qui pullulent sur le web

L’été est propice à l’observation du ciel, qu’il soit d’un bleu d’azur immaculé ou d’un noir constellé de milliers d’étoiles scintillantes. Confortablement allongé sur sa chaise longue, on regarde le voyage au long cours d’avions perchés à haute altitude ou l’éclat fascinant d’une pleine lune au-dessus de l’océan. On se prend alors à rêver à quelques destinations lointaines et exotiques, ou à d’autres mondes inconnus situés bien au-delà des étoiles filantes. Mais pour les partisans de la théorie du complot, rien dans le ciel n’invite à cette douce rêverie qui remplit vos vacances estivales, bien au contraire. De nombreux complots voient dans les formes allégoriques des nuages les preuves de terribles machinations, et les voilà s’agitant sur le web, tels des gaulois craignant que le ciel ne leur tombe sur la tête !

Démonter les propos des charlatans anti-sciences fait également partie de mes objectifs de blogueur, et les lecteurs réguliers connaissent déjà mes combats contre les créationnismes et les climato-sceptiques. Mais toutes les théories anti-sciences ne se valent pas. Si les deux citées ci-dessus ne peuvent qu’inspirer une réfutation sans concessions, certaines polémiques sur les cultures d’OGM ou les thèses des Bogdanoff ne peuvent être rejetées d’un seul bloc, et nécessitent un rigoureux débunking afin d’en séparer la part de vérité de l’affabulation. D’autres, enfin, se basent sur des rumeurs tellement folles que leur message semble dénué de toute logique ; leur décryptage devient d’autant plus difficile que leurs partisans se sont enfermés dans une vision paranoïaque de la réalité et refusent systématiquement de briser leur cercle de raisonnement vicieux. Curieusement, les trois plus grands hoax répondant à cette définition concernent le ciel : ce sont les chemtrails, le projet HAARP et le Moon Hoax.

chemtrails_meme

Audrey Garric, journaliste et blogueuse du Monde.fr s’est attaquée dernièrement à la théorie des chemtrails. Dans un article aussi passionnant qu’instructrif, la journaliste réalise l’un des meilleurs travail de synthèse qu’il m’ait été permis de lire sur le sujet. Retraçant les origines du hoax à un rapport de l’US Air Force de 1996 baptisé « Le climat comme un multiplicateur de force : posséder le temps en 2025 » , elle montre comment le réseau internet récemment ouvert au public permit alors, grâce à l’émergence des premiers sites conspirationnistes, de véhiculer une interprétation paranoïaque de ces réflexions militaires sur la faisabilité d’armes climatiques, pourtant un très vieux thème scientifique. Comment les partisans du complot firent-ils le rapprochement entre les traînées de condensation laissées par les avions en haute altitude (les contrails, pour condensation trails) et l’idée d’un vaste complot de géoingénierie militaire ? Probablement en regardant le ciel, comme tout à chacun. Les condensation trails s’expliquent aisément par le choc thermique entre l’air chaud et humide éjecté par les turbines d’avion et l’air froid et plus sec de la haute atmosphère. En fonction du degré d’humidité relatif et de la température à ces altitudes, il va se créer dans le sillage de l’avion un voile nuageux de gouttelettes et cristaux de glace issus de la condensation de la vapeur d’eau. En d’autres termes, les turbines des avions de ligne fabriquent derrière elle d’inoffensifs mais spectaculaires nuages artificiels.

Et pourtant, dans l’imaginaire des théoriciens du complot, les contrails sont en vérité de dangereux chemtrails remplis de produits nocifs : métaux pauvres comme l’aluminium, métaux de transition ou alcalino-terreux, polymères irritants ou nanoparticules nocives, le cocktail a de quoi effrayer les profanes. Bien entendu, les réfutations scientifiques comme aéronautiques ne suffisent pas à démonter les rumeurs : l’absence de preuves est, pour le théoricien du complot, la meilleure preuve que la vérité lui est cachée. Aussi serait-il vain d’accumuler les analyses géochimiques des traînées nuageuses en haute altitude pour rassurer un conspirationniste, l’effet inverse serait obtenu. Le plus surprenant réside peut-être dans les tenants et aboutissants du complot. A qui profitent les chemtrails ? Selon les théoriciens du complot, sont renvoyés sur le banc des accusés aussi bien l’armée américaine (chemtrails militaires et armes climatiques), la gouvernance mondiale (chemtrails économiques ou démographiques), le GIEC (chemtrails réchauffistes) ou encore l’incontournable firme Monsanto qui mettrait ainsi sur place des cultures génétiquement modifiées résistantes à l’aluminium ! Même constat avec le complot HAARP, étroitement associé dans les théories du complot climatique aux chemtrails. Le projet High Frequency Active Auroral Research Program (HAARP) installé depuis 1993 près de Gakona, en Alaska, est une installation de recherche sur l’ionosphère financée conjointement par l’US Air Force et l’US Navy, sous la direction scientifique de l’Université d’Alaska. Grâce à l’excitation via des ondes haute fréquence de la haute atmosphère, le projet tend à comprendre les mécanismes électromagnétiques complexes qui régissent l’ionosphère. Le programme se présente au sol comme un champ d’antennes assez monotone. Car pour vraiment observer les effets de ces installations, il faut écouter en radioamateur sur des fréquences précises les impulsions émises lors d’expériences menées conjointement avec les géophysiciens américains. Le projet HAARP a cependant permis une percée scientifique assez spectaculaire, lors de l’apparition d’une émission optique artificiellement provoquée par l’interaction de ces ondes haute-fréquence et du plasma ionosphérique. Le phénomène, décrit par Pedersen & Gerken (2005) dans la revue Nature, excita bon nombre de conspirationnistes y voyant là une preuve éclatante de la puissance néfaste du projet HAARP. Puisque les scientifiques génèrent des lumières dans le ciel, il n’y a – dans l’esprit des conspirationnistes– aucune raison pour que les militaires ne puissent pas modifier le climat, interrompre toute forme de communication hertzienne, détruire ou détourner des avions et missiles transcontinentaux et même influencer les comportements humains. Tout ceci grâce à une petite tâche lumineuse verdâtre bien moins spectaculaire qu’une aurore boréale, rappelons-le.

haarp_lol

Il suffirait d’un peu plus de bon sens et de culture scientifique aux tenants de ces théories du complot pour se rendre compte de leur erreur : dans le cas du Moon Hoax, théorie attribuant à divers degrés les vols lunaires habités à une supercherie du gouvernement américain, un débunking en règle des arguments complotistes montre que la plupart d’entre-eux sont basés sur une méconnaissance de disciplines scientifiques basiques telles que l’optique, l’astronomie ou encore la mécanique du point. De même pour les chemtrails, les théories conspirationnistes rejetent de facto une explication basique de chimie physique pour lui préférer des théories aussi complexes que fumeuses. Le principe du rasoir d’Ockham permet, comme toujours, de rejeter par simple raisonnement logique ces explications conspirationnistes. Prenons quelques instants au sérieux l’hypothèse d’un déversement de métaux toxiques et micro-particules dans la haute atmosphère. Un premier problème se pose : dans l’aéronautique, le moindre kilogramme de charge utile transportée est précieux. Les ingénieurs métallurgistes connaissent bien le problème pour rechercher sans cesse de nouveaux alliages à la fois résistants et légers. Etant donné qu’une compagnie aérienne doit optimiser sa charge utile embarquée (son gagne-pain) par rapport à la masse totale de l’avion au décollage, embarquer des tonnes de produits chimiques à pulvériser dans le ciel équivaut à réduire cette charge utile, et donc à rendre chaque vol bien moins rentable. Dans ce cas, qui payerait la facture ? Imaginons que l’état et certaines firmes privées financent la pulvérisation d’aluminium au-dessus de nos têtes. Nous pouvons, de manière assez grossière, estimer le coût de la manœuvre rien qu’en calculant l’achat quotidien de matière première. Supposons que chaque avion de ligne en vol embarque en moyenne secrètement une tonne d’aluminium à pulvériser, ce qui représente 1/18ème de la charge utile embarquée d’un Boeing 737-700. Ce choix d’avion utilisé aussi bien pour le fret que pour le transport de passagers n’est pas anodin, puisque actuellement, le Boeing 737 (et ses nombreuses déclinaisons) est l’avion de ligne le plus vendu au monde. A la rédaction de ce billet, le cours de l’aluminium était de 1520,34 euros la tonne. Sachant que d’après les statistiques consultées, 80000 vols mondiaux sont quotidiennement enregistrés, il faudrait payer quotidiennement la bagatelle de 121,63 millions d’euros pour arroser le ciel d’aluminium. Soit une facture à l’année de 44,4 milliards d’euros ! Si le complot des chemtrails était vrai, cela impliquerait deux conséquences directes : l’explosion exponentielle des cours de l’aluminium et autres métaux dispersés, alors que ceux-là fluctuent selon les demandes du marché, et bien entendu la faillite de la firme Monsanto, qui avec son chiffre d’affaires de 10,8 milliards d’euros, n’a clairement pas les moyens de financer ce complot. Quant à l’état payant la facture, ceci pourrait toujours expliquer dans l’esprit des conspirationnistes l’acharnement des gouvernements à réduire les dépenses publiques…

Les théories conspirationnistes frisent même le ridicule dans le cas du projet HAARP, actuellement à l’arrêt depuis plus d’un an et probablement démantelé dans un proche avenir malgré les annonces de reprises partielles d’activité à l’automne prochain. Ces mauvaises nouvelles pour la géophysique ne font pas pour autant réagir les conspirationnistes, qui malgré l’abandon du projet lui attribuent encore toute sortes d’événements climatiques et catastrophes aériennes. A croire que les installations de Gakona restent opérationnelles même une fois éteintes ! Mais puisque la moindre explication rationnelle sera rejetée comme une tentative de justification du complot, que la moindre absence de preuves sera interprétée comme l’évidence même de l’existence d’un complot, ces quelques exemples de raisonnements biaisés et contres-arguments ne pourront pas briser le cercle vicieux du conspirationnisme. Les commentaires postés en réponse au billet d’Audrey Garric en sont une preuve consternante. Pris au second degré, ils peuvent se révéler amusants et postés par des trolls patentés. Hélas, ces navrantes répliques dénuées de toute logique ou culture scientifique sont écrites avec le premier degré le plus sincère. Car le conspirationniste n’est pas seulement un militant anti-sciences trollant les sites et blogs. Il s’agit, le plus souvent, d’un innocent candide berné par des théories fallacieuses que son manque de culture scientifique ne lui ont pas permis d’éviter. A la fois victime et vecteur des théories du complot, le conspirationniste reflète une vérité bien plus triste : celle d’une société hautement technologique, et pourtant si dépourvue de culture scientifique. Or de même que l’enseignement de l’histoire permet de lutter contre le négationnisme et l’intolérance, seul l’enseignement des sciences et de leur culture permettra de rejeter les théories du complots dès le plus jeune âge. Encore faut-il se donner les moyens de ce combat et s’interroger : voulons-nous pour demain une société éclairée ou un monde obscurantiste ?

gaulois


Quarante mille personnes pour coloniser une exoplanète ?

spaceship-interstellarEmbarquer un jour à bord d’un vaisseau spatial à destination d’une exoplanète fait partie des rêves les plus fous de l’Humanité. Parmi les challenges colossaux soulevés par un tel projet, la taille de l’équipage à bord du vaisseau pose également problème. Quels effectifs minimum suffiraient pour coloniser durablement le nouveau monde une fois arrivé à bon port ? Des expertises avaient précédemment estimé qu’un équipage de 100 individus en âge de se reproduire suffiraient à conserver une population stable au fil des générations durant le voyage interstellaire, puis à fonder cette lointaine colonie. Pour Cameron M. Smith, anthropologue à l’Université de Portland et scientifique membre du projet Hyperion, ce chiffre est très largement sous-évalué. Dans une étude parue en avril dernier dans la revue Acta Astronautica, le chercheur américain évalue que la population embarquée pour un voyage de 5 générations (150 ans) à destination d’une exoplanète colonisable devrait comprendre 14000 à 44000 individus. Idéalement, une population totale de 40000 individus de tout âge avec un sous-groupe en âge de se reproduire (ou population effective) de 23400 hommes et femmes garantirait les meilleures chances de bonne santé et de survie à très long terme de la population.

Si ces chiffres peuvent sembler colossaux et exagérés, il faut cependant préciser que Smith s’est posé d’entrée de jeu des conditions draconiennes afin d’évaluer sa population. D’abord, l’anthropologue veut limiter toute perte de diversité génétique du à l’échantillonnage originel des candidats dans la population mondiale. Ensuite, notre chercheur estime qu’au terme d’un voyage aussi long que hasardeux, le vaisseau spatial connaîtra au moins une avarie sévère réduisant fortement sa population effective. Il ne faut donc pas que cette crise démographique soit fatale à la viabilité de la future colonie. Pour arriver à de tels chiffres, Smith s’est basé sur la génétique des populations et ses méthodes prédictives de dérive génétique et de dynamique des populations. En prenant en compte les risques de consanguinité à long terme et de perte de polymorphisme, il a estimé que non seulement l’équipage devrait rester en bonne santé au terme des 5 générations de voyage, mais que la population fondatrice de la colonie devait également pouvoir transmettre à ses descendants une diversité génétique à même de garantir son adaptation et sa survie dans son nouvel environnement.

Mais en quoi consiste cette dérive génétique ? Ce processus aléatoire naturel permet de mieux comprendre l’évolution de la fréquence d’un allèle au sein d’une population. Les variations de fréquences alléliques sont liées à deux facteurs : la fréquence allélique d’origine et la taille de la population suivie. Dans le cas d’une population supposée infinie et en absence de toute mutation ou sélection, ces fréquences alléliques restent stables au cours des générations. Elles vont cependant varier dans une population finie en raison de l’échantillonnage aléatoire des gènes lors de la reproduction. De part le caractère aléatoire lié à cet échantillonnage allélique à chaque nouvelle génération, cette dérive génétique va aboutir à deux cas extrêmes : soit la disparition de l’allèle (fréquence nulle), soit à sa fixation définitive (fréquence égale à 1). Au bout d’un certain nombre de générations, il y a donc un risque d’appauvrissement de la diversité génétique. Cette variance allélique est d’autant plus importante que la taille de la population est faible. Tôt (pour de petites populations) ou tard (pour de grandes populations), la dérive génétique entraîne irrémédiablement une perte de polymorphisme. Une population à faible effectif présente donc un plus grand risque à court terme de diminution de l’hétérozygotie et d’accroissement de la consanguinité.

La dérive génétique étant un mécanisme aléatoire, il est possible de la modéliser pour un allèle donné en renseignant sa fréquence allélique P0 et l’effectif initial de population N. Comme pour une expérience de tirages aux sort successifs, les modèles reproduisent l’aléa au fil des générations. En recommençant plusieurs fois la simulation, il est possible d’obtenir graphiquement la superposition de plusieurs scénarios aléatoires. L’amplitude des fréquences obtenues à chaque simulation est proportionnelle à la taille de la population. Si N est petit, alors le nombre de tirages successifs montre que l’allèle va très rapidement se fixer ou disparaître. Au contraire, si N est important, la probabilité d’aboutir à ces deux situations extrêmes diminue et la fréquence PZ au terme de Z générations tend à se rapprocher de la valeur P0. A titre d’exemple, simulons à l’aide d’une application web comme celle proposée par l’Université d’Arizona la dérive génétique pour un allèle de fréquence P0 = 0,5 dans une petite puis une grande population N. Pour chaque graphique, la simulation est répétée cinq fois de suite. Dans le premier cas où N = 20 l’allèle se fixe ou disparaît rapidement. Dans le second cas où N = 1000 aucun événement extrême n’est constaté et l’amplitude des fréquences est beaucoup plus resserrée autour de la fréquence allélique initiale :

genetic drift 2

Grâce à cet exemple ci-dessus, il apparaît clairement qu’une faible population initiale ne garantit pas au fil des générations la conservation de la diversité génétique. Dans son article, le Dr. Smith a voulu obtenir grâce à sa modélisation le meilleur compromis entre diversité allélique et enchaînement des générations successives. Qui plus est, son modèle est suffisamment robuste pour assurer une viabilité de la future colonie même après une crise majeure durant le voyage. Imaginons qu’un système principal tombe en panne, qu’un phénomène astronomique tue une grande partie de l’équipage ou qu’une émeute ravage leur communauté. Smith n’ignore pas que toute catastrophe majeure venant décimer les effectifs provoquerait un nouvel échantillonnage génétique de la population. Ce nouveau groupe de départ doit donc être supposé suffisamment important pour ne pas sombrer au fil des générations dans une dépression génétique. Bien trop d’incertitudes sont également éludées des précédentes estimations concernant la fécondité humaine dans l’espace. Si le ratio d’enfants par couple venait à chuter au fil des générations, encore faut-il être certain que cette chute démographique ne s’accompagnerait pas d’une dangereuse dérive génétique. De petits groupes peuvent certes donner naissance à des populations viables, et l’histoire de l’humanité est rempli d’exemples de ce genre, mais le risque d’accroître une fréquence allélique défavorable, voire de fixer une tare génétique sont d’autant plus élevés. Prenons l’exemple de la petite colonie britannique de Tristan da Cunha, dans l’Atlantique, fondée par seulement 15 individus. Un d’entre-eux portait l’allèle récessif de la rétinopathie pigmentaire. La petite taille de la population a permis d’augmenter significativement la fréquence de cette allèle, et par conséquent le nombre de naissances d’individus malades, en raison d’un effet négatif de la dérive génétique. Ce risque, également présent pour nos futurs colons de l’espace, s’accroît en considérant l’ensemble des facteurs alléliques ou génomiques défavorables susceptibles d’être amplifiés ou fixés par la sélection d’une population trop petite. De plus, la diversité génétique est un atout essentiel à l’adaptation de nos futurs colons à leur nouvel environnement. Combinant toutes ces méta-données ainsi que les plus récentes connaissances en matière de génomique humaine et génétique médicale, Smith a donc conçu un modèle particulièrement approfondi pour répondre à la problématique initiale. Et comme le veut la logique en génétique des populations, plus les obstacles sont nombreux, plus grande se doit d’être la population initiale afin de les surmonter.

Cependant, plusieurs solutions permettraient de réduire cet impressionnant effectif. Une aubaine, puisque ces quarante mille passagers ne manqueront pas de soulever d’innombrables problèmes de conception des systèmes de survie à bord. Une première astuce consisterait à sélectionner drastiquement les candidats au voyage interstellaire. C’est dans les grandes lignes le thème du film d’anticipation Bienvenue à Gattaca d’Andrew Niccol, dans lequel les astronautes sont soigneusement sélectionnés en fonction de leur profil génétique. Une autre méthode consisterait à embarquer du sperme et des ovules congelés afin d’enrichir artificiellement le patrimoine génétique des passagers sans pour autant gonfler les effectifs à bord. Une troisième technique basée sur l’évolution dirigée consisterait à sélectionner par génie génétique des embryons aux modifications alléliques innovantes et répondant à des besoins spécifiques de la colonie. Enfin, à très long terme, la meilleure solution reste encore de laisser faire la nature : avec une pression sélective renouvelée, la population de colons suivra sa propre évolution, coupée de ses flux géniques d’origine. La vision peut faire rêver comme cauchemarder, car au final, ces évolutions indépendantes mènent dans la nature à un mécanisme de spéciation. Mais si l’homme venait à coloniser l’espace grâce à ces voyages sans retour, ne sèmerait-il tout au long de sa route les graines de nouvelles Humanités ?


Du fond du labo #9 spécial climat

Voici une nouvelle fournée d’actualités scientifiques pour vous occuper en ce mois de juillet à la météo capricieuse ! Puisqu’il n’y a plus de saisons et que le temps menace de nous tomber sur la tête, on se penche depuis le fond du labo sur les sciences climatiques. Bien entendu, été pourri rime avec troll climato-sceptique, et le blog n’a pas manqué de voir éclore ces derniers jours une nouvelle fournée de « climate deniers » toujours aussi velus. Mais la récréation est finie, et il est temps de revenir plus sérieusement sur l’actualité très chargée de la climatologie. Haters gonna hate !

 

NASA_2000_2005

 

Mauvaise nouvelle pour nos amis climato-sceptiques, la « pause climatique » n’en est non seulement pas une, mais le phénomène est désormais expliqué. Il est fort peu probable que cette nouvelle étude, publiée dans la revue Geophysical Research Letters, puisse convaincre les trolls les plus velus. Et pourtant, l’analyse statistique des températures moyennes mesurées directement ou non à la surface de la Terre montre que non seulement le réchauffement climatique n’est pas à l’arrêt, mais que cette accélération est actuellement ralentie par une variation climatique naturelle. En d’autres termes, un refroidissement naturel s’oppose au réchauffement climatique provoqué par l’activité humaine. Cette conclusion apparaissait déjà dans les résultats publiés par Meehl et al. en 2004. L’article proposé par Lovejoy et al. (2014) s’appuie quant à lui sur une autre méthode statistique développée précédemment par la même équipe et publiée en avril dernier dans le journal Climate Dynamics. Lovejoy et ses collègues confirment par la même occasion les précédentes interprétation du phénomène. Avec la confirmation récente dans Nature Climate Change que les modèles climatiques prennent bien en compte le ralentissement climatique observé depuis 1998, le hoax de la « pause climatique » est bon à jeter à la corbeille. Hélas, nos émissions de gaz à effet de serre s’emballant, ce rafraîchissement climatique ne suffit pas à masquer totalement les facteurs anthropiques. Le pire reste même à prévoir lorsque cette fluctuation naturelle viendra à s’inverser … A lire sur Geophys. Res. Lett.

 

Un nouveau satellite chargé de mesurer la teneur atmosphérique en dioxyde de carbone a été lancé avec succès par une fusée Delta-2 au début du mois de juillet depuis l’astroport de Vandenberg, en Californie. Grâce à ce satellite OCO-2, la NASA souhaite apporter un second outil de mesure en renfort de l’observatoire de Mauna Loa, situé à Hawaï. Le satellite OCO-2 est placé sur une orbite polaire à 705 km d’altitude, rejoignant la trajectoire de la constellation de satellites A-train dédiés à l’étude de la Terre. A terme, sept satellites franco-américains occuperont cette orbite. OCO-2 est le successeur de la sonde OCO, perdue lors de l’échec de son lanceur en février 2009. Cinq autres satellites sont déjà en orbite, deux autres les rejoindront dans les années à venir. La mission de OCO-2 ne devrait cependant durer que deux ans, ce qui peut sembler particulièrement court en comparaison du suivi de l’observatoire de Mauna Loa mené depuis 1958. Cependant, OCO-2 devrait avoir le temps de transmettre aux scientifiques de précieuses données sur la répartition et la dynamique des teneurs en dioxyde de carbone. Ces informations permettront de compléter les modèles informatiques du cycle biogéochimique du carbone. Pour rappel, l’observatoire de Mauna Loa rapporte une hausse des teneurs en dioxyde de carbone depuis plus d’un demi-siècle, passant de 315 ppm en 1958 à 401 ppm en avril dernier (voir figure ci-dessous). A lire sur Science².

 

CO2 Mauna Loa

 

Le mois de juin 2014 a marqué un nouveau record mondial de chaleur. L’usage massif des énergies fossiles et la déforestation tropicale ont contribué à l’intensification des émissions de gaz à effet de serre tels que le méthane et le dioxyde de carbone. En conséquence, la NOAA rapporte que le mois passé a été en moyenne le plus chaud depuis plus de 130 ans. Après les records d’avril et de mai, cette année 2014 sera-t-elle la plus chaude jamais rapportée ? Les climatologues ne s’avancent bien évidemment pas encore sur un tel bilan, mais notent que les fluctuations enregistrées dans le Pacifique tropical pourraient bien avoir le dernier mot dans cette histoire. En effet, l’écart moyen des températures mensuelles rapportées le long des côtes Pacifique de l’Amérique du sud est positif, laissant craindre la préparation d’un nouvel épisode El Niño. Tout dépendra donc de l’évolution de ces fluctuations dans le Pacifique tropical. En attendant, Sylvestre Huet s’amuse des habituels discours climato-sceptiques en notant que James Hansen n’est certainement pas responsable de ce record de chaleur. En effet, le patron du GISS (Godard institute for space studies) fait parti de ces « affreux réchauffistes » honnis par les anti-climatologistes en raison des calculs de température rapportés par son équipe toujours supérieurs à ceux d’autres instituts. Seulement voilà, James Hansen est désormais à la retraite et les températures continuent à battre des records. Facétieux Sylvestre Huet !


Une compétition télévisée pour conquérir la Lune

Il faut croire que le projet Mars One a fait des émules. Seulement cette fois-ci, l’objectif est bien plus modeste. Il n’est plus question d’envoyer des colons pour un aller simple sur la planète rouge, mais d’attendre le premier la surface de la Lune avec une soude robotisée. La compétition, baptisée Google Lunar X Prize, permettra au gagnant d’empocher la somme de 30 millions de dollars. En avril dernier, les chaînes de télévision Science Channel et Discovery Channel ont annoncé qu’elles couvriraient la compétition, des premiers essais techniques jusqu’à l’alunissage du robot vainqueur. Le challenge comprendra non seulement le premier alunissage couvert par la télévision depuis le programme Apollo, mais sera également comme le second projet actuel de divertissement TV ayant pour cadre la conquête de l’espace.

Conquérir la Lune ne fait plus vraiment rêver le grand public. Et pourtant, concevoir une mission lunaire, qu’elle soit habitée ou non, représente un véritable défi scientifique, technologique et humain. De plus, la dernière retransmission d’un alunissage datant de près d’un demi-siècle, peu de téléspectateurs actuels peuvent se venter d’avoir assisté au dernier événement de ce genre. Pour Robert K. Weiss, président du Google Lunar X Prize, le défi n’est donc pas seulement technique. Il s’agit aussi de montrer aux téléspectateurs un spectaculaire projet spatial à même d’inspirer des vocations scientifiques auprès des plus jeunes tout en ravivant la curiosité de leurs aînés. La forme du programme télévisé, si elle n’a pas encore été révélée, pourrait être une émission de TV-réalité montrant les progrès réalisés par chaque équipe concurrente jusqu’à l’alunissage final. Il y a déjà de quoi se réjouir d’un tel programme, qui a contrario des habituels Nabilla et autres « Anges de la téléréalité » , aura l’avantage de vulgariser les sciences et l’intelligence humaine auprès des téléspectateurs.

Actuellement, 33 équipes et firmes se sont déjà engagées dans la compétition, dont les compétiteurs américains Astrobotic, Moon Express, Omega Envoy et le Penn State Lunar Lion. Toutes sont financées par des fonds privés. Afin de remporter les 30 millions de dollars mis en jeu, l’équipe gagnante devra faire alunir sa sonde robotisée en premier et lui faire parcourir cinq cent mètres minimum sur la surface lunaire. Le robot devra également retransmettre des vidéos, des images et des données utiles, sans que la durée de vie de la sonde ou le type d’expériences réalisées ne rentre plus spécifiquement dans les critères du jury. Cependant tout ne sera pas perdu pour les autres groupes, puisque des primes bonus allant jusqu’à un million de dollars récompenseront les meilleures innovations techniques. Des exemples ? Les trois alunissages les plus élégants remporteront le bonus d’un million de dollars, et les quatre caméra embarquées les plus innovantes permettront d’empocher 250,000 dollars à leurs équipes.

Gageons que genre de compétition inspirera certainement bon nombre d’étudiants et d’ingénieurs. Vu qu’il ne reste plus que 18 mois pour se lancer dans la course, il ne semble guère possible de vous lancer à votre tour dans la course. Mais pourquoi pas en organiser d’autres, avec encore plus d’objectifs originaux ? Comme par exemple un concours pour lancer des satellites environnementaux avec un bonus pour les projets réussis à plus faibles impacts carbone ; inventer des nano-satellites scientifiques innovants avec des bonus suivant les coups de cœur du jury pour les programmes d’étude ; ou encore concevoir des sondes d’exploration vers d’autres planètes du système solaire ? Non seulement l’idée est motivante, mais elle permettrait de faire aimer la science auprès du plus jeune public. Espérons cependant qu’à l’inverse, nous n’aurons jamais droit à un « Cauchemar au centre spatial » avec un Philippe Etchebest jouant les gros durs dans les coulisses techniques de Kourou. Quoique, dans un sens, cela pourrait être amusant !

 

google lunar x prize


Du fond du labo #8

L’actualité scientifique se bouscule en ce début d’été ! Bon nombre de mes sujets de prédilection se sont retrouvés enrichis de nouvelles publications, et notamment en anthropologie avec la révision de la chronologie des Hominidés présentée le jour même de mon précédent article sur les Australopithèques. Un coup de vaine terrible, puisqu’il venait illustrer dans la journée une explication que je vous livrais le matin même ! Aussi mon billet précédent a été mis à jour en conséquence. Mais les autres sujets à aborder sont nombreux, et il était temps de livrer un nouvel épisode du « fond du labo » . Au programme : des concurrents pour SpaceX, l’évolution moléculaire spottée en 3D et des fossiles vieux de plus de 2 milliards d’années. N’hésitez pas à signaler vos propres actualités marquantes dans les commentaires, et sur ce, bonne vacances à toutes et à tous !

 

Peut-on retrouver dans les biomolécules les plus communes chez les êtres vivants des reliquats de leurs ancêtres moléculaires communs ? Lorsque les premiers organismes unicellulaires sont apparus sur Terre, voilà à peu près quatre milliards d’année, ils ont transmis à leurs descendants leurs formes primitives d’ADN, d’ARN et de protéines, dont les séquences ont été progressivement modifiées alors que le Vivant se scindait en trois grands groupes : les Bactéries, les Eucacryotes et les Archées. Plus une biomolécule est essentielle au Vivant, plus elle sera conservée au sein de l’arbre phylogénétique du Vivant. Aussi est-il possible, à partir d’une biomolécule présente dans la plupart des organismes vivants, de rechercher des séquences encore similaires et provenant très probablement de la très lointaine forme ancestrale commune à toutes ces espèces. Forts de ce raisonnement, des biochimistes américains du School of Chemistry and Biochemistry de l’Université de Géorgie se sont penchés sur une des biomolécules cruciales du Vivant : le ribosome. Ce complexe à la fois composé de protéines et d’ARN est indispensable à la traduction des ARN messagers en protéines. Ils sont donc impliqués au cœur du mécanisme cellulaire permettant de décrypter les gènes en protéines. Tous les êtres vivants possèdent des ribosomes opérant dans leurs cellules. S’intéressant à la partie ARN du complexe (ARN ribosomique ou ARNr), les chercheurs ont comparé des représentations 3D de ces biomolécules issues de bactéries, de levures, de drosophiles et de cellules humaines. Leurs résultats montrent une portion commune à tous ces êtres vivants, sur laquelle ont été rajoutées des structures nouvelles ou altérées. Ces travaux soulignent donc qu’il est encore possible de retrouver des traces du lointain ribosome ancestral transmis par le dernier organisme commun à tous les êtres vivants, LUCA (Last Universal Commun Ancestor). A partir de ces résultats, d’autres équipes pourront également progresser dans la recherche d’une structure archaïque pour cet aïeul ribosomique. A lire sur Phys.org.

 

evolutionofl

Crédits : Université de Géorgie.

 

En 2008, la revue Nature publiait la découverte dans un gisement sédimentaire de Franceville, au Gabon, de fossiles d’organismes pluricellulaires complexes vieux de 2,1 milliards d’années. Cet article avait fait l’effet d’une bombe dans la communauté des paléontologues, puisque les plus vieux fossiles similaires jusque là connus remontaient à 600 millions d’années. A tel point que la vie sur Terre à cette lointaine époque était supposée se limiter à des bactéries et algues unicellulaires. Depuis cette publication, l’équipe du Pr. Abderrazak El Albani de l’Université de Poitiers a extrait plus de 400 fossiles du sol gabonais. Grâce aux dosages isotopiques du soufre, les chercheurs ont pu déterminer qu’il s’agissait bien de d’organismes ayant rapidement fossilisé grâce au remplacement bactérien de la matière organique par de la pyrite. Cette conservation exceptionnelle a permis de réaliser une analyse au microtomographe à rayons X, révélant la surprenante structure interne comme externe de ces fossiles antédiluviens. La variété de formes (circulaires, allongés, lobés…) et de tailles (des microfossiles jusqu’aux macrofossiles de 17 centimètres) révèle tout un écosystème marin, vieux de plus de deux milliards d’années. Selon l’équipe de géologues à l’origine de cette découverte, ce biota gabonais coïncide avec le premier pic d’oxygène rapporté dans les couches géologiques, entre -2,3 et -2 milliards d’années. La chute brutale de la teneur en oxygène aurait provoqué l’extinction brutale de cette première explosion de vie aquatique. A lire sur PloS One.

 

Abderrazak_El_Albani__cnrs

Crédits : El Albani et al. (2014)

 

Le succès de SpaceX aiguise les appétits : Airbus et le constructeur de fusées français Safran viennent en effet d’annoncer un nouveau partenariat visant à concurrencer la célèbre firme américaine. Il y a encore quelques années, l’industrie spatiale se concentrait autour de trois grands groupes : United Lauch Alliance (USA), Arianespace (Européens) et International Lanch Services (Russo-américains). Jusqu’à l’arrivée sur le marché de SpaceX, venant démontrer que ces trois grands leaders pouvaient être concurrencés sur leur propre domaine de chasse. Airbus et Safran présentent pour leur part de sérieux arguments et devraient représenter un concurrent redoutable sur les contrats et appels d’offres gouvernementales. Sources : Génération-NT.