novembre 2014
L Ma Me J V S D
« oct    
 12
3456789
10111213141516
17181920212223
24252627282930

Les galaxies abritant des formes de vie complexes seraient très rares

Hubble_supernova_MonocerotisLa vie sur Terre constitue pour le moment la seule exception connue à l’apparente stérilité de la galaxie. Et si, à l’échelle de l’Univers, cette exception était tout aussi rare parmi l’ensemble des galaxies connues ? C’est du moins ce que proposent deux physiciens dans la revue Physical Review Letters. Selon eux, seuls 10% des 100 milliards de galaxies dénombrées abriteraient des formes de vie complexes. Les autres seraient tout simplement trop saturées de rayonnements gamma pour autoriser l’épanouissement de la biodiversité sur leurs exoplanètes habitables.

Parmi les scénarios catastrophes pouvant provoquer une extinction massive d’espèces sur Terre figure le bombardement massif de notre planète par des rayonnements gamma. Découverts fortuitement en 1967 par un satellite américain destiné à surveiller l’activité nucléaire militaire, ces photons hautement énergétiques également appelés sursauts gamma sont classés en deux catégorie : ceux de courte durée (1 à 2 secondes) émis lorsque deux étoiles à neutron ou trous noirs entrent en interaction, et ceux de longue durée (quelques dizaines de secondes) émis lorsqu’une étoile en fin de vie finit par exploser en supernova.

Ces sursauts gamma n’inquièteront pas la biosphère d’une planète d’un système solaire éloigné. Cependant, si l’explosion de la supernova est suffisamment proche, le rayonnement gamma peut provoquer une réaction chimique dans l’atmosphère détruisant la couche d’ozone et rendant la surface de la planète sensible au rayonnement UV de son soleil. Ce scénario est loin d’être totalement fictionnel, puisqu’il est actuellement étudié comme hypothèse sérieuse afin de mieux comprendre les raisons de la grande crise d’extinction majeure de l’Ordovicien-Silurien, il y a environ 450 millions d’années. L’événement à l’origine de cet hypothétique sursaut gamma se serait produit dans un rayon de 6500 années-lumière autour de la Terre, et aurait entraîné la disparition de 80% des espèces vivantes.

Pour Tsvi Piran, astrophysicien à l’Université de Jérusalem et Raul Jimenez, astrophysicien à l’Université de Barcelone, ces sursauts gamma trop fréquents pourraient tout simplement empêcher le maintient de biosphère à la surface des planètes qui en seraient victimes. D’après leurs modèles, les galaxies formant rapidement des étoiles seraient également susceptibles d’émettre plus fréquemment des sursauts gamma. Rajoutant à cela une densité supérieure d’étoiles par rapport à notre propre environnement galactique, comme par exemple dans les régions centrales de la Voie lactée, les deux astrophysiciens en concluent que les exoplanètes situées dans un rayon de 6500 années-lumière du centre de la galaxie ont 95% de chances d’avoir déjà connu un bombardement massif de rayonnement gamma. A l’inverse, notre planète Terre étant distante de 27000 années-lumière du centre galactique, seules les exoplanètes situées sur des bras galactiques éloignés seraient suffisamment préservées des sursauts gamma ou beaucoup moins fréquemment exposées.

La plupart des galaxies sont de petite taille comparées à la Voie lactée. Leurs exoplanètes gravitent donc autour de soleils situés dans des régions galactiques denses ou proches du centre. Dans ces conditions, les galaxies de petite taille ne faciliteraient pas l’apparition de la vie sur leurs exoplanètes ! Mais faut-il en déduire pour autant que ces mondes sont définitivement stériles ? Pas forcément. Comme le précisent nos deux astrophysiciens, des bombardements fréquents par sursauts gamma auront d’abord pour conséquence de multiplier les épisodes d’extinction massive et de contrarier l’évolution complexe du vivant. Les organismes survivants seront peut-être bien plus primitifs au terme de milliards d’années d’évolution que sur des exoplanètes préservées de ces sursauts gamma. S’il existe d’autres formes de civilisations évoluées, il y a donc fort à parier qu’elles prospèrent à la périphérie des galaxies de grande taille.


[En direct] Atterrissage de la sonde Philae sur la comète Tchouri !

L’événement peut être qualifié d’historique : pour la première fois, une sonde va tenter de se poser à la surface d’une comète ! Aboutissement de la mission Rosetta, le petit robot Philae va être éjecté de la fameuse sonde actuellement placée sur une orbite favorable à la manœuvre au-dessus de la comète 67P/Tchourioumov-Guérassimenko.

La scène se passe à quelques 510 millions de kilomètres de la Terre. Rosetta doit larguer le robot Philae sur le site Agilkia depuis une altitude de 20 km. Aucun pilote automatique, Philae est un laboratoire robotisé de 100 kg qui devra tomber sur une zone elliptique de 900 mètres sur 600. Depuis lundi, les ingénieurs du CEOS (European Space Operations Centre) travaillent à l’envoi des instructions pour cet atterrissage historique. Après un petit retard d’allumage du robot, le voilà désormais opérationnel et ses batteries rechargées. Tout est désormais prêt pour le grand saut !

Mais au-delà de l’exploît technologique, Philae vient compléter la mission Rosetta en réalisant des expériences physico-chimiques à la surface de la comète. Son objectif majeur, l’étude des molécules d’eau et des traces organiques présentes à sa surface. selon toute vraisemblance, les comètes ont contribué à la formation des océans sur Terre voici 3-4 milliards d’années. Dans quelle mesure ont-elles également apporté les briques élémentaires indispensables à l’apparition du Vivant ? Telles sont les questions passionnantes auxquelles Philae tentera d’apporter des réponses.

rosetta_atterrissage

Lire la suite…


Conférence Utopiales 2014 : le voyage interstellaire, une idée intelligente ?

Les Utopiales démarrent aujourd’hui ; le président du festival et physicien Roland Lehoucq inaugurait ce matin l’édition 2014 avec une passionnante conférence consacrée à la plausibilité du voyage interstellaire. Le sujet étant aussi vaste que passionnant, le Pr. Lehoucq se proposait de l’aborder sous un angle qui lui tient particulièrement à cœur : l’énergie nécessaire. C’est devant un public venu nombreux que le Professeur a donc tenu une conférence aussi pédagogique que savante, à même de susciter des vocations parmi les plus jeunes auditeurs.

Le Projet Daedalus - vue d'artiste.

Le Projet Daedalus – vue d’artiste.

Premier constat à l’allure de douche froide, voyager dans l’espace nécessite de rallier des distances faramineuses. Les astres de notre minuscule portion de galaxie sont séparés entre-eux par des distances considérables, et même le moindre voyage dans le système solaire peut s’éterniser. Rejoindre Mars prendrait au bas mot six mois, tandis que la sonde New Horizons partie en 2006 devrait atteindre Pluton d’ici juillet 2015 … Même les sondes les plus éloignées de notre planète ont à peine atteint la limite du système solaire et dérivent aux alentours de 100 UA. Aussi rallier la plus proche étoile à l’aide de notre technologie spatiale actuelle peut sembler illusoire : il faudrait pas moins de 80000 années pour rallier Proxima Centauri ! Les lointains descendants de l’équipage d’origine seraient-ils en vie ? Ou même capables de comprendre l’odyssée dans laquelle leurs ancêtres les embarquèrent ?

La plus grosse difficulté, comme l’a exposé tout au long de cette conférence le Pr. Lehoucq, repose sur la notion d’énergie. En effet, plus nous voyageons à des vitesses relativistes, plus nous devons dépenser des sommes exponentielles d’énergie. Si un vaisseau lancé à 1% de la vitesse de la lumière rallierait l’étoile la plus proche en 400 ans, il nécessiterait en retour un potentiel énergétique considérable, de l’équivalent de plusieurs années de production mondiale d’énergie générée par l’activité humaine ! De même que nos modes de propulsions chimiques sont totalement incapables de rallier les étoiles, les modes de propulsion par fission, fusion nucléaire ou antimatière posent des contraintes technologiques encore insurmontables. Prenons l’exemple du Projet Daedalus, une étude menée de 1973 à 1978 par la British Interplanetary Society pour concevoir une sonde interstellaire réalisable. Sa propulsion par réaction de fusion nucléaire entre de l’hélium 3H et du deutérium permettrait d’atteindre – en théorie – l’étoile de Barnard distante de 5,9 années-lumière en seulement 50 ans. Mais comment constituer des stocks suffisants d’hélium 3H ? Pour le Pr. Lehoucq, seule l’exploitation des ressources isotopiques de Jupiter apporterait une production suffisante à court terme … encore faut-il développer l’exploitation de Jupiter à l’échelle industrielle ! De même pour les vaisseaux spatiaux équipés de moteurs à antimatière : outre la difficulté de concevoir un moteur au rendement acceptable, il se pose la question du stockage de l’antimatière en masse suffisante, là où seulement quelques particules sont contenues pendant à peine un quart d’heure avec la technologie de pointe actuelle.

Le "Venture Star" du film Avatar

Le « Venture Star » du film Avatar

En définitive, si le voyage interstellaire n’est pas encore à l’ordre du jour, la science-fiction nous offre tout de même quelques exemples de vaisseaux spatiaux suffisamment plausibles pour être discutés par les physiciens. Le Venture Star du film Avatar en est un parfait exemple. Bien que le film de James Cameron provoque d’âpres discussions entre cinéphiles, et notamment en raison de son scénario, le vaisseau spatial ralliant la Terre à la planète Pandora reste particulièrement bien pensé, avec ses énormes moteurs, ses réserves d’antimatière et son bouclier de proue protégeant l’équipage du bombardement de particules cosmiques. Dans Tau zéro de Poul Anderson, le vaisseau spatial fonctionne à la manière d’un aspirateur interstellaire, récupérant à la proue les particules cosmiques pour les éjecter en poupe et ainsi propulser le vaisseau. Une bien belle idée pour nourrir les rêves des scientifiques comme des lecteurs.


Climat : les 5 leçons à retenir de l’année 2014

L’année en cours a été marquée par de nombreux records de chaleur, inscrivant les mois écoulés parmi les plus chauds jamais enregistrés en 130 ans de suivi des températures. Deke Arndt, responsable de département au NOAA National Climatique Data Center d’Asheville (Caroline du Nord), revenait récemment dans les pages de climate.gov sur cette année écoulée et les enseignements à en tirer. Revenons donc, selon cet expert climatique, sur les cinq points essentiels que nous devons retenir de cette année en cours :

 

1. Les records sont désormais établis mois après mois, à l’échelle de l’année. Dans un calendrier, les douze mois de l’année en cours s’enchaînent indépendamment des années précédemment écoulées. Cette façon de concevoir une année a un sens dans notre vie quotidienne, mais elle le perd en climatologie. En effet, le modèle d’étude du climatologue n’est pas un calendrier en carton mais le système Terre-Soleil, avec ses répétitions saisonnières liées à l’inclinaison de l’axe des pôles combinée à la rotation de notre planète autour de son étoile. C’est pourquoi la NOAA compare les températures moyennes à la surface de la Terre aux données recueillies pour les mêmes mois lors des années antérieures. Les graphiques ainsi exposés ont plus d’impact, notamment pour visualiser des périodes annuelles comparables et ainsi mieux souligner les éventuels records de chaleur rapportés.

Evolution des températures mensuelles lors des six années les plus chaudes rapportées (sources : NOAA).

Evolution des températures mensuelles lors des six années les plus chaudes rapportées (sources : NOAA).

 

2. Les records de chaleur de l’année 2014 sont indépendants du phénomène El Niño. L’année 1998 est une référence en climatologie, en raison de son important événement El Niño, significatif d’une année « chaude » . Le contre-phénomène de La Niña qui s’en suivit eut un effet à l’inverse « refroidissant » sur les températures des années suivantes. Le phénomène s’est également reproduit en 2005 puis 2010, et les fortes chaleurs rencontrées cette année auraient pu déclencher un nouvel événement El Niño/La Niña. Si ce n’est fort heureusement pas encore le cas, les prévisionnistes de la NOAA n’excluent pas un déclenchement tardif d’ici la fin de l’année. Etant donné la difficulté de prédiction du phénomène, une année chaude sans événement El Niño/La Niña représenterait une donnée des plus précieuses afin d’affiner les modèles climatiques.

3. Plusieurs scénarios pointent un nouveau record de chaleur d’ici la fin de l’année 2014. En effet, si aucun événement El Niño ne se réalise, le contre-phénomène « refroidissant » de La Niña ne se produira certainement pas. Les températures moyennes devraient donc marquer de nouveaux records, voire même aboutir à la fin d’année la plus chaude jamais mesurée. Ces pronostics sont résumés dans le graphique ci-dessus, qui compare les hausses de températures rapportées durant les mois des années les plus chaudes jamais enregistrées. Pour l’année 2014, les différents scénarios avancés et rapportés en pointillé viennent compléter la courbe. Tous avancent une fin d’année chaude, potentiellement supérieure aux précédents records des automnes 1998 ou 2010.

 

Planisphère des évolutions de température à la surface du globe en janvier-septembre 2014. (sources : NOAA)

Planisphère des évolutions de température à la surface du globe en janvier-septembre 2014. (sources : NOAA)

4. Les températures records de cette année sont reliées à la hausse de la température moyenne à la surface des océans. Mais contrairement aux territoires émergés, les tendances évoluent lentement pour les océans. Aussi leur influence sur les records de chaleur restera positive jusqu’à la fin de l’année. Prenez pour explication le constat suivant : en juin, l’eau est encore relativement fraîche, tandis que sa température en septembre-octobre est bien plus chaude. Cela crée deux phénomènes annuels observés en septembre : les records de surface des banquises aux pôles. La banquise de l’océan arctique a atteint en septembre son minimum annuel d’extension avec pour 2014 une surface enregistrée de 5,02 millions de km². Aux antipodes, la banquise antarctique a connu sa plus forte extension hivernale du dernier quart de siècle avec un record de 20 millions de km². Ce constat contradictoire est lié au réchauffement des océans, cependant la singularité de la banquise antarctique s’explique par d’autres facteurs venant favoriser son extension annuelle : les taux d’ozone créent des perturbations favorables, tandis que les eaux australes stratifiées forment en surface une couche froide propice à l’extension.

5. Le classement individuel des années est trompeur. Il est tentant de proposer un podium des années les plus chaudes jamais rapportées. Ce trait de l’esprit est souvent utilisé par les médias, y compris les revues scientifiques, mais présente le désavantage de focaliser sur une information incomplète. Prise individuellement, la fluctuation de la température moyenne pour l’année 2014 est un détail. Elle apparaît même comme difficilement discernable des autres fluctuations rapportées. Seule importe l’évolution au fil des mois, et leur comparaison d’année en année. Dans le graphique précédent, il faudrait que les derniers mois de 2014 soient en dessous de la moyenne des années 2000 à 2013 pour rater la première place du classement. Quel que soit le scénario réalisé d’ici la fin de l’année, ces chiffrent confirment que nous vivons dans un monde se réchauffant de manière significative, sans aucun doute désormais possible.


La course à la fusion thermonucléaire relancée

Deux annonces retentissantes ont relancé la course à l’énergie de demain. D’un côté, la firme américaine Lockheed Martin a annoncé le développement d’un prototype de réacteur à fusion contrôlée miniaturisé. De l’autre, le laboratoire Sandia a révélé une avancée pour sa fameuse Z machine. Mais ces excellentes nouvelles ne manquent pas d’attirer une bonne dose de scepticisme auprès de la communauté scientifique. Alors, pipeautage ou date charnière de la physique du XXIème siècle ?

LM-vidpix_N

Crédits : Lockheed Martin (2014)

Hélas, nous ne disposons pour le moment que des déclarations de chaque challenger, aussi le contenu de ces communiqués de presse doit être pris en compte avec la plus grande prudence. Il faut à ce sujet bien avouer que les habituelles annonces fracassantes relayées par les pure players sur le web se résument le plus souvent à de vulgaires hoax et escroqueries de charlatans, piètres physiciens du dimanche ou illuminés adeptes de pseudo-sciences. Cependant, certains éléments plaident en faveur de ces deux communiqués de presse, et ce bien au-delà des doutes légitimes de la communauté scientifique. Commençons tout d’abord par Lockheed Martin, précédé d’une réputation sérieuse dans cette affaire. Selon leurs propres déclarations, leurs ingénieurs seraient en bonne voie pour dévoiler d’ici un an le principe d’un réacteur thermonucléaire dix fois plus compact que Iter et permettant une fusion nucléaire sans risques. La firme, spécialisée dans l’équipement de défense militaire et de sécurité, d’envisager l’emploi de ces réacteurs à fusion pour mouvoir porte-avions et avions de transport militaire lourd. Bien entendu, la fusion nucléaire intéresse fortement le domaine civil : la firme américaine envisage ainsi d’alimenter des villes de cinquante à cent mille habitants à l’aide de petits réacteurs disponibles d’ici 5 ans. Quant au domaine aérospatial, le développement de moteurs ioniques à partir de cette technologie réduirait à un mois seulement le voyage vers Mars !

D’après les premières informations consultables, le secret de Lockheed Martin reposerait sur des aimants supraconducteurs, reprenant par la même occasion les propositions développées par le mathématicien Harold Grad au sujet de la fusion contrôlée dans les années 1950. A cette époque, les travaux théoriques de ce chercheur de l’Université de New York n’étaient pas expérimentables, faute de champs magnétiques suffisamment puissants. La technologie étant aujourd’hui disponibles, les ingénieurs de Lockheed Martin laissent à supposer qu’ils disposeraient déjà d’une maîtrise technique suffisante dans ce domaine appliqué. La situation est pour le moins différente dans le cas des laboratoires Sandia, rattachés au département américain de l’Énergie des États-Unis. Leurs chercheurs ont développé la fameuse « Z machine » , un générateur de rayons X pulsés. Développé depuis près de vingt ans, leur dispositif commence à donner des résultats plus qu’encourageants. Les chercheurs ont comprimé du deutérium, un isotope de l’hydrogène, dans un cylindre métallique soumis à un courant électrique de très haute intensité (19 millions d’ampères). Ils ont ainsi obtenu un plasma porté à 35 millions de degrés celsius. A titre de comparaison, le cœur du Soleil est deux fois plus froid, et ITER devrait atteindre des températures trois fois supérieures. Mesurant les flux de neutrons issus des réactions produites lors de cette expérience, ils ont mis en évidence la fusion d’atomes de deutérium (D-D), formant de l’hélium-3 et du tritium, ainsi que la fusion de deutérium et de tritium (D-T), preuve indirecte de la production précédente de tritium. Un résultat encourageant mais encore insuffisant, car il faudrait multiplier par un facteur de 10000 pour que le nombre de réactions puisse produire un bilan énergétique positif.

La Z machine (crédits : laboratoires Sandia).

La Z machine (crédits : laboratoires Sandia).

La maîtrise de la fusion thermonucléaire est sujet à de nombreuses controverses, essentiellement en raison des nombreux charlatans partisans de l’énergie libre ou de la fusion froide qui pullulent sur le web. Aussi ces bonnes nouvelles, aussi ténues soient-elles, représentent une véritable bouffée d’air frais. A défaut de pouvoir émettre une opinion définitive sur la portée de ces annonces, il nous faudra guetter les prochains développements dans ces affaires respectives et suspendre notre souffle d’ici là.