Astrophysique

Le cœur du Soleil en rotation rapide

Deux types d’ondes circulent dans le Soleil. Les ondes sonores, qui se propagent dans toutes les couches de l’étoile, et les ondes de gravité, qui ne quittent pas le cœur et dont la détection restait incertaine. Or ces dernières sont porteuses d’informations sur les couches les plus profondes du Soleil. Depuis plus de quarante ans, une signature des modes de gravité est recherchée activement. Elle vient d’être trouvée dans les enregistrements des pulsations du Soleil effectués depuis seize ans par l’instrument GOLF (Global Oscillations at Low Frequencies) du satellite SOHO (Solar and Heliospheric Observatory). Analysées en permanence par des héliosismologues français, espagnols et américains, ces pulsations ont permis de prouver indirectement l’existence des modes de gravité. Les chercheurs ont pu déterminer alors la vitesse de rotation du cœur de l’étoile qui s’effectue en 7 jours, soit 3,8 fois plus vite que les couches extérieures et intermédiaires. Ces résultats relancent les discussions sur la naissance du Soleil, son évolution, sa structure, sa composition chimique et l’éventuelle existence d’un champ magnétique en son centre. HUBERT DESRUES

Pour en savoir plus
: actualité de l'Irfu-CEA

Astronomie

Installations astronomiques européennes au Chili, montée en puissance

Le Very Large Telescope de l’Observatoire européen austral installé au Chili est composé de quatre télescopes principaux, dont le dernier mis en service, baptisé Yepun (« Vénus » en mapudungun), vient d’être transformé en un télescope totalement adaptatif. Il existait déjà sur chaque télescope un dispositif d’optique active permettant de corriger les déformations des miroirs dues à leur poids (23 tonnes pour 8,2 mètres de diamètre). Le système d’optique adaptative est chargé pour sa part de compenser en temps réel les effets de brouillage atmosphérique. Il agit sur le miroir secondaire (1 mètre de diamètre) très mince et déformable de Yepun. Les corrections appliquées à ce miroir sont pilotées par le module GALACSI (Correcteur adaptatif de basse couche atmosphérique pour l’imagerie spectroscopique) qui utilise les informations sur l’atmosphère fournies par quatre étoiles guides artificielles produites dans le ciel par quatre faisceaux laser. Avec l’instrument MUSE (Multi Unit Spectroscopic Explorer) installé sur le télescope Yepun, l’ensemble constitue le système le plus avancé technologiquement disponible aujourd’hui pour l’astronomie au sol. H. D.

Pour en savoir plus : communiqué de presse de l'ESO

Astronomie

Effets de marée et champs magnétiques planétaires

Les champs magnétiques des planètes continuent d’interpeller les scientifiques. La plupart s’accordent à dire que la formation et le maintien de tels champs proviennent des écoulements de fer dans le noyau liquide. Cependant, l’explication la plus souvent avancée d’une convection associée au lent refroidissement des astres ne convient plus dans le cas de petites planètes ou de lunes refroidies depuis longtemps, alors que leur champ magnétique est toujours présent. Une équipe de l’Institut de recherche sur les phénomènes hors équilibre (Aix-Marseille Université) vient de proposer un autre modèle, dans lequel les interactions gravitationnelles entre les astres jouent le rôle d’agitateur. Les effets de marée produits par ces interactions gravitationnelles déforment les noyaux des astres et amplifient les mouvements ondulatoires présents dans le fer liquide en rotation, jusqu’à produire un écoulement turbulent. Pour comprendre la formation de ce dernier, les chercheurs ont utilisé un modèle numérique. Ils ont établi que la turbulence provient de la superposition de mouvements ondulatoires qui échangent en permanence de l’énergie. Ces travaux devraient permettre de mieux comprendre les propriétés des champs magnétiques des planètes et des lunes. H. D.

Pour en savoir plus
: actualité de Techniques de l'ingénieur

Physique

À la poursuite des secrets de l’antimatière

Le CERN (Organisation européenne pour la recherche nucléaire) dispose d’installations qui, depuis 2002, fournissent des atomes d’antimatière sous une forme « analysable et manipulable » comme la matière. Il s’agit de décélérateurs d’antiprotons ralentissant les particules à une énergie aussi faible que possible pour faciliter leur étude. Les antiprotons sont dirigés ensuite vers les expériences chargées de les étudier et manipuler. En 2012, l’expérience ALPHA, qui reçoit les particules d’antimatière, a prouvé qu’il était possible d’agir techniquement sur la structure interne de ces atomes. Dernièrement, la même expérience a réalisé des mesures spectroscopiques sur des atomes d’antihydrogène. Grâce à cette technique, les chercheurs sont parvenus à observer la structure hyperfine de l’antihydrogène. L’équipe a mesuré deux lignes spectrales de l’antihydrogène et n’a relevé aucune différence en les comparant aux lignes spectrales de l’hydrogène. ALPHA est capable de capturer jusqu’à 74 antiatomes en même temps, pour une plus grande précision dans les mesures. Ces travaux pourraient aider à comprendre les différences entre matière et antimatière. H. D.

Pour en savoir plus : brève du CERN

Physiologie

Similitude inattendue entre développement et cancer

Dès les premiers jours de grossesse, les cellules placentaires qui entourent l’embryon humain permettent son implantation chez la mère. Cette opération nécessite de la part des cellules placentaires des capacités de migration et d’invasion dans l’utérus, tout en échappant aux défenses immunitaires maternelles qui pourraient rejeter l’embryon. Ces mécanismes épigénétiques se déroulent en mobilisant, parmi les 23 000 gènes contenus dans nos cellules, ceux qui vont permettre à la vie de s’installer. Plusieurs équipes françaises et américaines coordonnées par l’Institut Curie viennent de démontrer que certains mécanismes, utilisés par les cellules placentaires au début de la vie, pouvaient être mis à profit par les cellules cancéreuses pour migrer, envahir des organes, échapper aux défenses immunitaires et finalement faire disparaître la vie. Cette étude, outre les réflexions philosophiques qu’elle peut susciter, montre tout l’intérêt des travaux menés aujourd’hui sur les cellules placentaires, qui ont permis des avancées spectaculaires dans le traitement des cancers par immunothérapie. H. D.

Pour en savoir plus
: actualité de l'Institut Curie

Médecine

Le VIH sait se protéger

Depuis sa découverte en 1983, le virus de l’immunodéficience humaine (VIH) ne finit pas d’étonner les chercheurs par le nombre de ruses qu’il met en œuvre pour assurer sa survie. Une équipe du laboratoire de virologie de l’Institut Pasteur, en collaboration avec l’Institut national de la santé et de la recherche médicale et le centre hospitalier universitaire du Kremlin-Bicêtre (Val-de-Marne), vient de mettre au jour une stratégie de contamination en groupe. Isolé, le VIH est fragile. Aussi semble-t-il pousser les lymphocytes infectés à sécréter une matrice extracellulaire, un biofilm capable de recueillir et protéger des agrégats de plusieurs centaines de particules virales. Les chercheurs ont mesuré que, dans ce cas, la contamination était plus violente, et l’efficacité des antirétroviraux et des anticorps fortement réduite. « Grâce à ce biofilm viral, la contamination d’une cellule n’est pas effectuée par un virus seul, mais par de véritables colonies formées de plusieurs centaines de
particules virales, qui pourraient se complémenter », précise la responsable de l’étude. Ce maillage extracellulaire constitue une nouvelle cible thérapeutique pour lutter contre le VIH. H. D.

Pour en savoir plus : communiqué de presse du CNRS

Neurosciences

Étudier le cerveau en très haute résolution

Le plus gros scanner IRM (imagerie par résonance magnétique) humain est en cours d’assemblage sur le site du centre de recherche NeuroSpin (Commissariat à l’énergie atomique et aux énergies alternatives) à Saclay (Essonne). Doté d’un aimant de 11,7 teslas, cet imageur d’une puissance inégalée délivrera des images du cerveau en très haute résolution. Parallèlement à cette mise en place, une équipe de l’Institut national de recherche en informatique et en automatique travaille au développement de techniques d’analyse statistique et géométrique qui permettent de mieux décrire le cerveau. L’un des défis à relever concerne le temps d’acquisition des données. Plus la définition est fine, plus le temps d’acquisition est important. L’équipe se concentre sur une technique d’échantillonnage compressif permettant de reconstruire les mêmes images à partir d’une quantité plus restreinte de points de mesure, donc plus rapidement. L’aimant de 5 mètres de long et 5 mètres de diamètre pesant 130 tonnes est installé dans un bâtiment conçu spécialement pour l’accueillir. Avec cet équipement, les chercheurs en neurosciences disposeront d’IRM fonctionnelles permettant d’observer en temps réel un cerveau en train d’accomplir une tâche cognitive. Il sera possible de se livrer à « l’étude du cerveau par l’image du cerveau » dit un membre de l’équipe. H. D.

Pour en savoir plus : actualité de l'Inria

Médecine

Première victoire contre la myopathie de Duchenne

La myopathie de Duchenne est la plus fréquente maladie neuromusculaire de l’enfant (1 garçon sur 3 500 touché). Elle est due à une anomalie d’un gène codant pour la dystrophine, protéine essentielle au fonctionnement musculaire. Ce gène est l’un des plus grands du génome humain ; il est impossible de l’insérer dans un vecteur viral pour une thérapie génique. Les chercheurs du laboratoire Généthon, en collaboration avec une équipe de l’université de Londres, ont développé un médicament de thérapie génique avec une version raccourcie du gène de la dystrophine ne comptant qu’environ 4 000 paires de bases, suffisantes pour produire une protéine fonctionnelle. Administré par voie intraveineuse, donc dans tout le corps, à des chiens atteints naturellement de la myopathie de Duchenne, le médicament a rétabli une production de dystrophine d’un haut niveau et restauré la fonction musculaire. Si cette approche s’avérait efficace, elle permettrait de traiter tous les malades, indépendamment de la mutation précise dont est atteint leur gène de la dystrophine. Au vu des résultats obtenus pour la première fois sur un animal de grande taille, des essais cliniques sur l’Homme sont envisageables aujourd’hui. H. D.

Pour en savoir plus : communiqué de presse de l'Inserm

Biologie

Le phytoplancton, maître des océans

Il est admis que le phytoplancton est responsable de 50 % de la photosynthèse ayant lieu sur Terre. Or ce phénomène de production d’énergie chimique à partir d’énergie lumineuse n’est possible, chez les plantes, que grâce à l’activité, au sein de chaque cellule, de deux petites usines photochimiques. Toutes deux sont séparées par une structure spécialisée qui évite tout court-circuit, afin de ne pas affaiblir l’efficacité de la photosynthèse. Cette structure ne semblant pas exister chez le phytoplancton, comment peut-il donc assurer une photosynthèse si performante ? Dans le cadre d’une collaboration internationale à laquelle participaient plusieurs laboratoires du Centre national de la recherche scientifique, du Commissariat à l’énergie atomique et aux énergies alternatives et de l’Institut national de la recherche agronomique, les chercheurs ont mis en évidence chez la diatomée l’existence de microdomaines qui séparent les deux usines photochimiques, permettant une photosynthèse aussi efficace que chez les plantes, voire plus. Cette découverte, obtenue en utilisant plusieurs techniques d’imagerie cellulaire associées à une modélisation en trois dimensions, explique pourquoi les diatomées produisent à elles seules 20 % de l’oxygène libéré sur Terre et pourquoi elles dominent les océans depuis cent millions d’années. H. D.

Pour en savoir plus : communiqué de presse de l'INRA

Biologie

Un cycle de l’oxygène inattendu dans les océans

Dans tous les océans, le long de certaines côtes tropicales comme de part et d’autre de la péninsule indienne, il existe des zones entre 10 et 1 000 mètres sous la surface où le taux d’oxygène dissous est de 100 à 1 million de fois plus faible que dans la couche superficielle. Si les poissons évitent ces zones dites à minimum d’oxygène, d’autres animaux marins peuvent y vivre, moyennant quelques adaptations spectaculaires, comme des crabes à longues branchies capables de capter la moindre molécule de dioxygène. Certaines de ces zones étaient considérées tout simplement comme désertes. Or une récente campagne océanographique soutenue par l’Institut de recherche pour le développement et l’Institut national des sciences de l’Univers a mis au jour un cycle de l’oxygène totalement inattendu. Les scientifiques ont découvert des micro-organismes chlorophylliens qui produisent du dioxygène par photosynthèse. Ce dernier est immédiatement consommé par des bactéries aérobies qui vivent à proximité. Tout se passe à une échelle locale très circonscrite, mais cette découverte prouve que ces zones ne sont pas inactives et qu’elles pourraient jouer sur les écosystèmes environnants, notamment sur le fonctionnement du climat. H. D.

Pour en savoir plus : actualité de l'IRD

Climatologie

La filière forêt-bois française contre le changement climatique

La forêt est un élément stratégique dans la lutte contre le changement climatique. Au stockage de carbone s’ajoute la production de produits substitutifs de matériaux non renouvelables émetteurs de gaz à effet de serre (GES), comme le béton. L’Institut national de la recherche agronomique s’est interrogé sur la définition d’une stratégie de gestion de la forêt française à l’horizon 2050. Trois scénarios ont été étudiés. Le premier, dit d’extensification, préserverait les volumes récoltés tout en diminuant les taux de prélèvement, ce qui conduirait à une croissance de la forêt. Le deuxième, dit de dynamique territoriale, maintiendrait les taux de prélèvement actuels, ce qui augmenterait les volumes récoltés. Enfin, le troisième scénario, d’intensification avec plan de reboisement, combinerait augmentation des taux de prélèvement et reboisement en espèces plus productives. L’étude montre les avantages des deux derniers scénarios. Cependant, sans un effort collectif d’investissements dans la filière bois, accompagné d’une évolution des comportements, les perspectives de substitution des matériaux producteurs de GES resteront limitées. Dans tous ces scénarios, les risques d’incendies, tempêtes et invasions biologiques laisseront les capacités de stockage du carbone par les forêts positives. H. D.

Pour en savoir plus
: communiqué de presse de l'INRA

Énergie

Vers une production de carburant solaire

Le dioxyde de carbone (CO2) est considéré comme un déchet, dont l’impact sur le climat est fortement défavorable. Une équipe du LEM (Laboratoire d’électrochimie moléculaire, Paris) développe aujourd’hui un procédé capable de transformer ce gaz en matière première. La réaction de base est une réduction au cours de laquelle le CO2 perd ses atomes d’oxygène, qui sont remplacés par des atomes d’hydrogène. Au cours de la réaction se forment du monoxyde de carbone (CO), de l’acide formique (CH2O2) – deux matières premières pour l’industrie chimique –, ou encore du méthanol (CH3OH), un carburant liquide, qui donne finalement du méthane (CH4), la forme la plus réduite chimiquement chargée d’un maximum d’énergie. Jusqu’à ce jour, une telle réaction faisait appel à des catalyseurs à base de métaux précieux et chers. De plus, aucun catalyseur moléculaire ne permettait de réaliser la réduction jusqu’au méthane. Le procédé mis au point au LEM emploie du fer comme catalyseur. Il fonctionne à pression et température ambiantes et se contente de la lumière solaire comme source d’énergie. Une solution peu coûteuse qui valorise le CO2, offre une forme de stockage de l’énergie solaire renouvelable et produit un carburant utilisable avec les infrastructures existantes de distribution d’énergie. H. D.

Pour en savoir plus
: communiqué de presse du CNRS