octobre 2014
L Ma Me J V S D
« sept    
 12345
6789101112
13141516171819
20212223242526
2728293031  

Conférence Utopiales 2014 : le voyage interstellaire, une idée intelligente ?

Les Utopiales démarrent aujourd’hui ; le président du festival et physicien Roland Lehoucq inaugurait ce matin l’édition 2014 avec une passionnante conférence consacrée à la plausibilité du voyage interstellaire. Le sujet étant aussi vaste que passionnant, le Pr. Lehoucq se proposait de l’aborder sous un angle qui lui tient particulièrement à cœur : l’énergie nécessaire. C’est devant un public venu nombreux que le Professeur a donc tenu une conférence aussi pédagogique que savante, à même de susciter des vocations parmi les plus jeunes auditeurs.

Le Projet Daedalus - vue d'artiste.

Le Projet Daedalus – vue d’artiste.

Premier constat à l’allure de douche froide, voyager dans l’espace nécessite de rallier des distances faramineuses. Les astres de notre minuscule portion de galaxie sont séparés entre-eux par des distances considérables, et même le moindre voyage dans le système solaire peut s’éterniser. Rejoindre Mars prendrait au bas mot six mois, tandis que la sonde New Horizons partie en 2006 devrait atteindre Pluton d’ici juillet 2015 … Même les sondes les plus éloignées de notre planète ont à peine atteint la limite du système solaire et dérivent aux alentours de 100 UA. Aussi rallier la plus proche étoile à l’aide de notre technologie spatiale actuelle peut sembler illusoire : il faudrait pas moins de 80000 années pour rallier Proxima Centauri ! Les lointains descendants de l’équipage d’origine seraient-ils en vie ? Ou même capables de comprendre l’odyssée dans laquelle leurs ancêtres les embarquèrent ?

La plus grosse difficulté, comme l’a exposé tout au long de cette conférence le Pr. Lehoucq, repose sur la notion d’énergie. En effet, plus nous voyageons à des vitesses relativistes, plus nous devons dépenser des sommes exponentielles d’énergie. Si un vaisseau lancé à 1% de la vitesse de la lumière rallierait l’étoile la plus proche en 400 ans, il nécessiterait en retour un potentiel énergétique considérable, de l’équivalent de plusieurs années de production mondiale d’énergie générée par l’activité humaine ! De même que nos modes de propulsions chimiques sont totalement incapables de rallier les étoiles, les modes de propulsion par fission, fusion nucléaire ou antimatière posent des contraintes technologiques encore insurmontables. Prenons l’exemple du Projet Daedalus, une étude menée de 1973 à 1978 par la British Interplanetary Society pour concevoir une sonde interstellaire réalisable. Sa propulsion par réaction de fusion nucléaire entre de l’hélium 3H et du deutérium permettrait d’atteindre – en théorie – l’étoile de Barnard distante de 5,9 années-lumière en seulement 50 ans. Mais comment constituer des stocks suffisants d’hélium 3H ? Pour le Pr. Lehoucq, seule l’exploitation des ressources isotopiques de Jupiter apporterait une production suffisante à court terme … encore faut-il développer l’exploitation de Jupiter à l’échelle industrielle ! De même pour les vaisseaux spatiaux équipés de moteurs à antimatière : outre la difficulté de concevoir un moteur au rendement acceptable, il se pose la question du stockage de l’antimatière en masse suffisante, là où seulement quelques particules sont contenues pendant à peine un quart d’heure avec la technologie de pointe actuelle.

Le "Venture Star" du film Avatar

Le « Venture Star » du film Avatar

En définitive, si le voyage interstellaire n’est pas encore à l’ordre du jour, la science-fiction nous offre tout de même quelques exemples de vaisseaux spatiaux suffisamment plausibles pour être discutés par les physiciens. Le Venture Star du film Avatar en est un parfait exemple. Bien que le film de James Cameron provoque d’âpres discussions entre cinéphiles, et notamment en raison de son scénario, le vaisseau spatial ralliant la Terre à la planète Pandora reste particulièrement bien pensé, avec ses énormes moteurs, ses réserves d’antimatière et son bouclier de proue protégeant l’équipage du bombardement de particules cosmiques. Dans Tau zéro de Poul Anderson, le vaisseau spatial fonctionne à la manière d’un aspirateur interstellaire, récupérant à la proue les particules cosmiques pour les éjecter en poupe et ainsi propulser le vaisseau. Une bien belle idée pour nourrir les rêves des scientifiques comme des lecteurs.


Climat : les 5 leçons à retenir de l’année 2014

L’année en cours a été marquée par de nombreux records de chaleur, inscrivant les mois écoulés parmi les plus chauds jamais enregistrés en 130 ans de suivi des températures. Deke Arndt, responsable de département au NOAA National Climatique Data Center d’Asheville (Caroline du Nord), revenait récemment dans les pages de climate.gov sur cette année écoulée et les enseignements à en tirer. Revenons donc, selon cet expert climatique, sur les cinq points essentiels que nous devons retenir de cette année en cours :

 

1. Les records sont désormais établis mois après mois, à l’échelle de l’année. Dans un calendrier, les douze mois de l’année en cours s’enchaînent indépendamment des années précédemment écoulées. Cette façon de concevoir une année a un sens dans notre vie quotidienne, mais elle le perd en climatologie. En effet, le modèle d’étude du climatologue n’est pas un calendrier en carton mais le système Terre-Soleil, avec ses répétitions saisonnières liées à l’inclinaison de l’axe des pôles combinée à la rotation de notre planète autour de son étoile. C’est pourquoi la NOAA compare les températures moyennes à la surface de la Terre aux données recueillies pour les mêmes mois lors des années antérieures. Les graphiques ainsi exposés ont plus d’impact, notamment pour visualiser des périodes annuelles comparables et ainsi mieux souligner les éventuels records de chaleur rapportés.

Evolution des températures mensuelles lors des six années les plus chaudes rapportées (sources : NOAA).

Evolution des températures mensuelles lors des six années les plus chaudes rapportées (sources : NOAA).

 

2. Les records de chaleur de l’année 2014 sont indépendants du phénomène El Niño. L’année 1998 est une référence en climatologie, en raison de son important événement El Niño, significatif d’une année « chaude » . Le contre-phénomène de La Niña qui s’en suivit eut un effet à l’inverse « refroidissant » sur les températures des années suivantes. Le phénomène s’est également reproduit en 2005 puis 2010, et les fortes chaleurs rencontrées cette année auraient pu déclencher un nouvel événement El Niño/La Niña. Si ce n’est fort heureusement pas encore le cas, les prévisionnistes de la NOAA n’excluent pas un déclenchement tardif d’ici la fin de l’année. Etant donné la difficulté de prédiction du phénomène, une année chaude sans événement El Niño/La Niña représenterait une donnée des plus précieuses afin d’affiner les modèles climatiques.

3. Plusieurs scénarios pointent un nouveau record de chaleur d’ici la fin de l’année 2014. En effet, si aucun événement El Niño ne se réalise, le contre-phénomène « refroidissant » de La Niña ne se produira certainement pas. Les températures moyennes devraient donc marquer de nouveaux records, voire même aboutir à la fin d’année la plus chaude jamais mesurée. Ces pronostics sont résumés dans le graphique ci-dessus, qui compare les hausses de températures rapportées durant les mois des années les plus chaudes jamais enregistrées. Pour l’année 2014, les différents scénarios avancés et rapportés en pointillé viennent compléter la courbe. Tous avancent une fin d’année chaude, potentiellement supérieure aux précédents records des automnes 1998 ou 2010.

 

Planisphère des évolutions de température à la surface du globe en janvier-septembre 2014. (sources : NOAA)

Planisphère des évolutions de température à la surface du globe en janvier-septembre 2014. (sources : NOAA)

4. Les températures records de cette année sont reliées à la hausse de la température moyenne à la surface des océans. Mais contrairement aux territoires émergés, les tendances évoluent lentement pour les océans. Aussi leur influence sur les records de chaleur restera positive jusqu’à la fin de l’année. Prenez pour explication le constat suivant : en juin, l’eau est encore relativement fraîche, tandis que sa température en septembre-octobre est bien plus chaude. Cela crée deux phénomènes annuels observés en septembre : les records de surface des banquises aux pôles. La banquise de l’océan arctique a atteint en septembre son minimum annuel d’extension avec pour 2014 une surface enregistrée de 5,02 millions de km². Aux antipodes, la banquise antarctique a connu sa plus forte extension hivernale du dernier quart de siècle avec un record de 20 millions de km². Ce constat contradictoire est lié au réchauffement des océans, cependant la singularité de la banquise antarctique s’explique par d’autres facteurs venant favoriser son extension annuelle : les taux d’ozone créent des perturbations favorables, tandis que les eaux australes stratifiées forment en surface une couche froide propice à l’extension.

5. Le classement individuel des années est trompeur. Il est tentant de proposer un podium des années les plus chaudes jamais rapportées. Ce trait de l’esprit est souvent utilisé par les médias, y compris les revues scientifiques, mais présente le désavantage de focaliser sur une information incomplète. Prise individuellement, la fluctuation de la température moyenne pour l’année 2014 est un détail. Elle apparaît même comme difficilement discernable des autres fluctuations rapportées. Seule importe l’évolution au fil des mois, et leur comparaison d’année en année. Dans le graphique précédent, il faudrait que les derniers mois de 2014 soient en dessous de la moyenne des années 2000 à 2013 pour rater la première place du classement. Quel que soit le scénario réalisé d’ici la fin de l’année, ces chiffrent confirment que nous vivons dans un monde se réchauffant de manière significative, sans aucun doute désormais possible.


La course à la fusion thermonucléaire relancée

Deux annonces retentissantes ont relancé la course à l’énergie de demain. D’un côté, la firme américaine Lockheed Martin a annoncé le développement d’un prototype de réacteur à fusion contrôlée miniaturisé. De l’autre, le laboratoire Sandia a révélé une avancée pour sa fameuse Z machine. Mais ces excellentes nouvelles ne manquent pas d’attirer une bonne dose de scepticisme auprès de la communauté scientifique. Alors, pipeautage ou date charnière de la physique du XXIème siècle ?

LM-vidpix_N

Crédits : Lockheed Martin (2014)

Hélas, nous ne disposons pour le moment que des déclarations de chaque challenger, aussi le contenu de ces communiqués de presse doit être pris en compte avec la plus grande prudence. Il faut à ce sujet bien avouer que les habituelles annonces fracassantes relayées par les pure players sur le web se résument le plus souvent à de vulgaires hoax et escroqueries de charlatans, piètres physiciens du dimanche ou illuminés adeptes de pseudo-sciences. Cependant, certains éléments plaident en faveur de ces deux communiqués de presse, et ce bien au-delà des doutes légitimes de la communauté scientifique. Commençons tout d’abord par Lockheed Martin, précédé d’une réputation sérieuse dans cette affaire. Selon leurs propres déclarations, leurs ingénieurs seraient en bonne voie pour dévoiler d’ici un an le principe d’un réacteur thermonucléaire dix fois plus compact que Iter et permettant une fusion nucléaire sans risques. La firme, spécialisée dans l’équipement de défense militaire et de sécurité, d’envisager l’emploi de ces réacteurs à fusion pour mouvoir porte-avions et avions de transport militaire lourd. Bien entendu, la fusion nucléaire intéresse fortement le domaine civil : la firme américaine envisage ainsi d’alimenter des villes de cinquante à cent mille habitants à l’aide de petits réacteurs disponibles d’ici 5 ans. Quant au domaine aérospatial, le développement de moteurs ioniques à partir de cette technologie réduirait à un mois seulement le voyage vers Mars !

D’après les premières informations consultables, le secret de Lockheed Martin reposerait sur des aimants supraconducteurs, reprenant par la même occasion les propositions développées par le mathématicien Harold Grad au sujet de la fusion contrôlée dans les années 1950. A cette époque, les travaux théoriques de ce chercheur de l’Université de New York n’étaient pas expérimentables, faute de champs magnétiques suffisamment puissants. La technologie étant aujourd’hui disponibles, les ingénieurs de Lockheed Martin laissent à supposer qu’ils disposeraient déjà d’une maîtrise technique suffisante dans ce domaine appliqué. La situation est pour le moins différente dans le cas des laboratoires Sandia, rattachés au département américain de l’Énergie des États-Unis. Leurs chercheurs ont développé la fameuse « Z machine » , un générateur de rayons X pulsés. Développé depuis près de vingt ans, leur dispositif commence à donner des résultats plus qu’encourageants. Les chercheurs ont comprimé du deutérium, un isotope de l’hydrogène, dans un cylindre métallique soumis à un courant électrique de très haute intensité (19 millions d’ampères). Ils ont ainsi obtenu un plasma porté à 35 millions de degrés celsius. A titre de comparaison, le cœur du Soleil est deux fois plus froid, et ITER devrait atteindre des températures trois fois supérieures. Mesurant les flux de neutrons issus des réactions produites lors de cette expérience, ils ont mis en évidence la fusion d’atomes de deutérium (D-D), formant de l’hélium-3 et du tritium, ainsi que la fusion de deutérium et de tritium (D-T), preuve indirecte de la production précédente de tritium. Un résultat encourageant mais encore insuffisant, car il faudrait multiplier par un facteur de 10000 pour que le nombre de réactions puisse produire un bilan énergétique positif.

La Z machine (crédits : laboratoires Sandia).

La Z machine (crédits : laboratoires Sandia).

La maîtrise de la fusion thermonucléaire est sujet à de nombreuses controverses, essentiellement en raison des nombreux charlatans partisans de l’énergie libre ou de la fusion froide qui pullulent sur le web. Aussi ces bonnes nouvelles, aussi ténues soient-elles, représentent une véritable bouffée d’air frais. A défaut de pouvoir émettre une opinion définitive sur la portée de ces annonces, il nous faudra guetter les prochains développements dans ces affaires respectives et suspendre notre souffle d’ici là.


Bioterrorisme et Ebola : récit d’une nouvelle rumeur absurde

ebola_virusDepuis le début de la récente épidémie d’Ebola en Afrique de l’Ouest, les théories conspirationnistes autour de cette actualité se multiplient. Considéré comme l’un des virus les plus dangereux au monde, Ebola présente un taux de létalité de 90 % chez l’homme, mais fort heureusement sa transmission reste difficile au sein des populations. Découvert en septembre 1976 par le médecin belge Peter Piot près de la rivière éponyme située dans le nord de la République démocratique du Congo, ce filovirus semblerait provenir de réservoirs naturels, notamment de chauve-souris frugivores. En raison de sa spectaculaire létalité et de sa récente description, Ebola alimente toutes sortes de théories du complot, qui ne manquent pas de se diffuser à mesure que l’actualité se fait plus préoccupante autour de la propagation du virus à d’autres continents.

Une des théories les plus souvent relayées par les conspirationnistes stipule que le virus Ebola (tout comme le virus du SIDA) serait une invention échappée de laboratoires militaires secrets ou actuellement testé comme arme de bioterrorisme par les puissances occidentales. Comme entrevu ci-dessus, ce hoax rejoint les complots du lentivirus HIV sur l’hypothèse de virus artificiels : selon les partisans de ces théories, les deux virus auraient été produits dans les années 70, en pleine guerre froide, afin de déstabiliser la concurrence par de foudroyantes attaques bioterroristes. Cependant, cette théorie s’écroule comme un château de cartes lorsqu’elle est comparée à la chronologie de l’histoire de la biologie moléculaire. En effet, en 1976, la génomique encore balbutiante réalise le premier séquençage d’un petit génome, celui du virus bactériophage MS2. Bien trop tôt pour imaginer une quelconque construction génétique d’envergure : le premier génome viral artificiel ne sera quant à lui publié qu’en 2003 par le laboratoire de Craig Venter. Même constat pour le virus HIV, dont l’origine a été retracée jusqu’aux alentours des années 1920, date à laquelle le support moléculaire de l’information génétique était encore inconnu des biologistes. Dans ces conditions, l’idée même que ces deux virus aient été fabriqués dans les années 70 ou à une date antérieure est difficilement défendable, pour ne pas dire techniquement irréalisable.

Reste à envisager l’hypothèse bioterroriste. A défaut de concevoir un virus conspirationniste, est-il possible d’utiliser Ebola comme arme biologique ? Commençons par définir le cahier des charges d’une telle arme. Pour que l’agent infectieux soit efficace, il faut que le virus se propage facilement dans l’environnement et infecte rapidement la population visée. Afin d’apprécier le potentiel de dissémination d’un agent infectieux, il faut calculer son taux de reproduction de base (Ro). Il s’agit d’estimer quel est, en moyenne, le nombre de cas secondaires générés suite à la transmissions de l’agent pathogène par une personne durant sa période infectieuse. Si Ro est inférieur à 1, alors chaque malade entraînera statistiquement moins d’un cas secondaire, et l’épidémie peut être considérée comme contrôlée ou sur le déclin. A l’inverse, si Ro est supérieur à 1, alors le risque que l’épidémie se repende augmente en conséquence. Tous les virus ne présentent pas le même taux de reproduction. Ce facteur est calculé selon la relation Ro = p.c.D  avec p la probabilité de transmission de l’infection au cours d’un contact avec une personne atteinte, c le nombre moyen de contacts qu’un individu malade réalise par unité de temps, et D la durée moyenne de la phase infectieuse. Le taux de reproduction de base Ro varie donc en fonction de la nature de l’agent viral et des conditions sanitaires mises en œuvre durant l’épidémie. Si le virus Ebola était utilisé comme arme biologique, il lui faudrait présenter un facteur Ro élevé. Or les candidats viraux les plus souvent cités par partisans des théories du complot sont également les moins contagieux : l’hépatite C comme le virus Ebola ont un Ro égal à 2, et le virus du SIDA ou celui du SARS ne dépassent pas un Ro égal à 4. Même la fameuse grippe A (H1N1) présente un Ro d’à peine 1,5, soit encore plus faible que le Ro de 2-3 estimé de la célèbre grippe espagnole de 1918 ! En définitive, selon ce critère, un candidat viral idéal pour un attentat bioterroriste serait à chercher dans des souches mutantes des virus de la rougeole (Ro = 18) ou de la coqueluche (Ro = 17), qui figurent parmi les virus les plus contagieux connus pour l’espèce humaine.

Autre condition indispensable à la réalisation d’une arme biotechnologique efficace, notre agent infectieux doit pouvoir se propager facilement. Idéalement, un virus restant longtemps actif dans l’atmosphère permettra de répondre à cette contrainte. C’est pour cette raison que le bacille du charbon, qui peut être propagé dans l’air ambiant sous la forme de spores bactériennes, intéresse bon nombre d’experts en armement biologique. Or le virus Ebola ne se transmet nullement chez l’homme par voie aérienne. Pour être contaminé à son tour, il faut être en présence de fluides corporels : sang, sécrétions, excrétions, sperme, salive, ou encore larmes. Inoculer de manière massive et efficace le virus Ebola à une population nécessite également des expositions à risques répétées. Il faudrait donc imaginer de fréquentes pulvérisations de micro-gouttelettes de fluides corporels dans des endroits mal ventilés. Évidemment, une douche de sang, de vomi ou de matière fécale ne manquerait pas d’alerter immédiatement les victimes comme les autorités. L’opération isolée serait très difficile à répéter pour un groupe terroriste, et ceci pour un faible risque encouru chez les personnes aspergées. En effet, dans le cas d’Ebola, la fréquence des contacts à risques est le seul moyen d’entraîner la contamination. C’est pourquoi le personnel soignant présente bien plus de risques de contracter la maladie que le passant ordinaire. Bref, le virus Ebola ne cumule que des désavantages pour le bioterrorisme : sa propagation est délicate et son taux de reproduction de base est faible. Il en est de même pour le virus du SIDA, qui ne se transmet que par le sang, les rapports sexuels non-protégés et durant la grossesse. Voilà donc deux virus que tout bioterroriste en herbe prendra soin d’éviter s’il veut réussir son projet criminel …

En définitive, les agents viraux les plus à même de devenir des armes biologiques intéressent rarement les complotistes. Citons parmi eux la variole (Ro = 7, transmission par contact physique), dont la menace bioterroriste est immensément plus sérieuse que pour le virus Ebola. Mais l’ignorance et la peur prennent hélas bien trop souvent le dessus sur la raison. Avec la sur-médiatisation de la moindre présomption de contamination, les chaînes d’information entretiennent un climat de psychose auprès du grand public, qui en oublie les véritables raisons de cette propagation du virus en Afrique : la grande misère dans laquelle vivent ces populations et l’indifférence générale des pays occidentaux à leur égard.


L’hypothermie au secours des vols habités martiens

Comment les astronautes supporteront-ils les longs voyages à destination de Mars ? Tout simplement en hibernant. C’est du moins la solution proposée par la société américaine SpaceWorks, primée par la NASA et qui a présenté son projet au début du mois lors du Congrès International Astronautique de Toronto. Mais de quoi rêveront les astronautes endormis dans leurs modules d’habitation ? Telle est la question à laquelle aurait très certainement répondu le célèbre auteur de science-fiction Philip K. Dick dans une fiction des plus inspirées.

Le périple martien discuté depuis des décennies par les agences spatiales internationales présente encore de nombreux obstacles techniques. Parmi ceux-là, la durée du voyage (aux alentours de 90-180 jours pour chaque trajet) reste un problème de taille sur lequel butent médecins et ingénieurs en aérospatiale. En effet, les astronautes devront emporter avec eux les vivres nécessaires mais également lutter efficacement contre l’ennui et l’exiguïté de leur vaisseau spatial. Si l’expérience Mars 500 a démontré qu’un petit groupe social est capable d’endurer psychologiquement la durée d’une mission habitée martienne dans des conditions d’enfermement sur Terre, elle n’a cependant pas pris en compte les dangers sur la santé de l’équipage provoqués par des séjours prolongés dans l’espace ni l’inévitable stress lié à un vol spatial aussi risqué. Car un autre problème majeur s’oppose encore aux vols habités martiens : la protection de l’équipage contre les radiations qui ne manqueront pas de bombarder le module habité une fois quittée l’influence protectrice de la Terre.

Pour les ingénieurs de SpaceWorks, le meilleur moyen de renforcer les boucliers antiradiations consiste à rogner sur le volume de charge utile embarquée, et pour se faire à plonger l’équipage dans une sorte de sommeil prolongé, à la manière d’animaux hibernant à la mauvaise saison. Mission impossible ? Pas tant que cela : il suffirait tout simplement de s’inspirer de techniques médicales déjà existantes, comme l’hypothermie thérapeutique. En refroidissant le corps à des températures de 32-34°c, il serait possible de plonger les astronautes dans un état inconscient mais toujours viable. Les centres hospitaliers utilisent déjà cette technique pour soigner des patients victimes d’arrêts cardio-circulatoires. Le métabolisme se retrouve ralenti mais gagne en efficacité sur le plan thermochimique, tandis que les tissus restent parfaitement protégés. Les patients inconscients sont alors alimentés par perfusions intraveineuses et réveillés au bout de quelques jours de traitement. Sur le papier, cette solution paraît plutôt élégante : fini l’ennui d’un vol de 180 jours, les astronautes seraient endormis peu après avoir quitté l’orbite terrestre et réveillés lorsque le vaisseau s’approcherait de Mars. Exit également les volumineux stocks de vivres pour plus d’un an et demi : la nutrition parentérale est beaucoup moins encombrante, laissant du volume vacant pour des équipements et protections antiradiations supplémentaires.

Cependant, cette belle solution a un défaut majeur : aucun patient sur Terre n’a été soumis à une hypothermie thérapeutique de plus de sept jours d’affilée. Dans ces conditions, une léthargie de 90 à 180 jours (selon les fourchettes de durées estimées de trajets) relève encore de la science-fiction médicale. Les risques encourus par les astronautes seraient nombreux : perte de masse musculaire, effets néfastes sur l’activité cérébrale ou neurologique, perturbations généralisées des systèmes digestifs et rénaux, voire même atrophie du tube digestif … sans oublier les perturbations habituellement observées sur les organismes d’astronautes soumis à de longs séjours dans l’espace !Aucun médecin ne prendrait donc le risque de valider la proposition de SpaceWorks dans sa forme actuelle. Et pourtant, il sera probablement difficile, voire impossible de se passer de l’hypothermie thérapeutique pour rallier Mars en l’état actuel de nos moyens de propulsion spatiale. Aussi une alternative intéressante consisterait à alterner les phases de léthargie et de réveil durant le trajet. Les astronautes occuperaient leurs journées d’éveil avec des exercices physiques destinés à entretenir leurs organismes, quelques tâches intellectuelles maintenant leur intellect affûte et la préparation de leur prochaine période d’hypothermie. Les phases d’activité permettraient ainsi d’éviter l’instauration de trop longes périodes de sommeil tout en maintenant un bon état physique et psychique des astronautes, condition indispensable à la réussite de toute mission martienne. Le volume habitable ne serait certes pas aussi réduit que dans le scénario d’une léthargie complète, mais la charge utile pourrait tout de même être suffisamment diminuée comme discuté précédemment. Si la proposition de SpaceWorks est encore loin d’être retenue à la lettre par la NASA, parions qu’elle inspirera de nouveaux axes de recherche médicale en collaboration avec l’agence spatiale américaine, comme le suivi de patients en bonne santé durant des hypothermies prolongées de plusieurs semaines. Le sommeil sera-t-il une des solutions retenues pour atteindre le rêve martien ? Seul Morphée possède la réponse à cette question.

 

(c) SpaceWorks 2014

(c) SpaceWorks 2014