RessourcesJeunes (13-25 ans),Familles,Enseignants,Médiateurs,Chercheurs,Groupes,ProfessionnelsAgriculture - alimentation,Environnement - développement durable - énergies,Espace - astronomie,Innovation - recherche - industrie,Matériaux micro et nanotechnologies,Mathématiques - physique - chimie,Médecine - santé,Sciences de la Terre,Sciences du vivant,Sciences et sociétéDocument pédagogiqueSourds,Malentendants,Mobilité réduite
Astronomie

Exoplanètes vraies ou fausses ?

Le télescope spatial Kepler de la NASA (National Aeronautics and Space Administration), lancé le 7 mars 2009, a identifié des milliers de candidats planètes extérieurs au système solaire. Les données de Kepler ont été analysées selon la technique dite des transits, qui traque les petites baisses de luminosité périodiques survenant lorsqu’une planète passe devant son étoile. Une équipe internationale, dont des chercheurs de l’Institut d’astrophysique de Paris, s’est livrée, de 2010 à 2015, à une analyse spectroscopique des candidats planètes de Kepler pour confirmer ou rejeter la nature planétaire de ces transits. Au départ, l’échantillon fourni par Kepler comportait 8 826 transits. Dans ce corpus, les astronomes n’ont retenu que les potentielles planètes géantes riches en gaz de période orbitale inférieure ou égale à 400 jours. Ils ont utilisé ensuite l’instrument SOPHIE (Spectrographe pour l’observation des phénomènes des intérieurs stellaires et des exoplanètes) installé sur le télescope de 193 centimètres de l’observatoire de Haute-Provence. Finalement, il ressort que 50 à 60 % des candidats de Kepler étudiés ne sont pas des planètes géantes et que 4 à 5 % des étoiles de type solaire posséderaient des planètes géantes de période orbitale de moins de 400 jours. HUBERT DESRUES

Pour en savoir plus
: http://www.iap.fr/actualites/avoir/2015/Decembre/PlanetesGeantesKepler.html

Astrophysique

Les ondes gravitationnelles existent !

L’observation de 2015 vient confirmer celle de 1974 qui valut à Joseph Taylor et Russel Hulse le prix Nobel de physique en 1993. La découverte de l’année passée a permis de mettre en évidence et caractériser les ondes gravitationnelles à partir de données en provenance de deux trous noirs au moment de leur fusion. L’événement a été détecté le 14 septembre 2015 à 9 h 51 UTC (temps universel coordonné) mais a eu lieu il y a 1,3 milliard d’années. Les deux trous noirs avaient respectivement des masses de 29 et 36 masses solaires, tandis que le trou noir résultant de leur fusion n’a qu’une masse équivalente à 62 soleils. Soit une différence de 3 masses solaires, converties en énergie émise sous forme d’ondes gravitationnelles en une fraction de seconde. Le phénomène a été si violent qu’à son maximum, la puissance émise en ondes gravitationnelles a atteint plus de dix fois la puissance lumineuse de l’ensemble de l’Univers observable. L’événement a été saisi par les deux détecteurs jumeaux américains de LIGO (Laser Interferometer Gravitational-Wave Observatory) dans leur dernière configuration. En moins de une heure, les chercheurs de LIGO ont confirmé que le phénomène enregistré était décrit parfaitement par la relativité générale et qu’il s’agissait bien d’ondes gravitationnelles. H. D.

Pour en savoir plus : http://www2.cnrs.fr/sites/communique/fichier/dp_virgo_og_ok_web.pdf

Informatique

Débat sur l’« ordinateur quantique » de Google

Le 7 décembre dernier, des chercheurs travaillant pour Google ont soumis un article qui va faire grand bruit dans le domaine de l’informatique. La compagnie américaine s’est offert en 2013 un imposant monolithe noir de 15 millions de dollars, fabriqué par la société canadienne D-Wave Systems : un ordinateur quantique. Ce supercalculateur, à la différence de son équivalent classique binaire, utilise les qubits, capables de prendre deux configurations simultanément (0 et 1). Cette étrange superposition entraîne un incroyable gain de rapidité, permettant 2300 calculs simultanément en utilisant 300 qubits. Les résultats présentés par les chercheurs sont impressionnants, le supercalculateur opérant 100 millions de fois plus vite qu’une machine classique. Révolutionnaire selon les auteurs, la réalité est toutefois plus nuancée. La machine testée n’est qu’un simple calculateur qui ne peut effectuer n’importe quel programme. Certains algorithmes classiques peuvent également être plus performants qu’un algorithme quantique pour certains problèmes d’après quelques spécialistes. Des tests indépendants sont nécessaires maintenant, la société D-Wave restant quelque peu évasive sur les détails de ses calculs. La révolution quantique n’est pas complètement en marche, ce qui vous laissera le temps d’économiser pour l’achat de votre futur supercalculateur. JULIEN BABEL

Pour en savoir plus
: http://www.futura-sciences.com/magazines/matiere/infos/actu/d/ordinateur-quantique-buzz-google-encore-loin-ordinateur-quantique-miracle-60811/

Physique

Vers le LHC haute luminosité

Décidée en 2011 (Découverte n° 379, mars-avril 2012, p. 3), l’augmentation de la luminosité du LHC (Grand Collisionneur de hadrons) entre dans sa seconde phase. Elle verra le développement de prototypes pour différentes parties du dispositif. Pour un accélérateur, la luminosité est un indicateur de performance. Elle est proportionnelle au nombre de collisions entre particules produites en un temps donné. Cette évolution du LHC devrait être opérationnelle en 2025. Son objectif est d’augmenter la luminosité de la machine d’un facteur dix, donc de produire dix fois plus de collisions et fournir aux physiciens dix fois plus d’informations, plus précises, portant sur des processus actuellement inaccessibles. Cette amélioration du LHC fera appel à des technologies de pointe dans le domaine des aimants, de l’optique et de l’ensemble des composants supraconducteurs. Mille deux cents mètres du LHC seront équipés ainsi d’aimants quadripolaires supraconducteurs de 12 teslas (225 000 fois le champ magnétique terrestre) qui permettront de focaliser fortement le faisceau afin de produire plus de collisions. Avec la puissance de cet outil de recherche, les scientifiques espèrent pousser leurs investigations au-delà du Modèle standard. H. D.

Pour en savoir plus : http://press.web.cern.ch/fr/press-releases/2015/10/lamelioration-haute-luminosite-du-lhc-entre-dans-une-nouvelle-phase

Médecine

La banane et le mélanome

Une équipe de l’École polytechnique fédérale de Lausanne (Suisse) a constaté que les taches brunes qui apparaissent sur la peau des bananes quand elles mûrissent et les cancers de la peau de type mélanome ont un point commun, l’enzyme tyrosinase. En travaillant sur des fruits mûrs et des tissus cancéreux, les chercheurs ont montré que le niveau de présence et la distribution de la tyrosinase renseignent sur le stade de la maladie. Peu apparente au stade 1, la tyrosinase est présente en grande quantité et de façon homogène au stade 2, et distribuée de manière hétérogène au stade 3. Les scientifiques ont développé un outil de mesure constitué de huit microélectrodes alignées comme les dents d’un peigne qui, passées sur la peau, permettent de calculer la quantité et la distribution de la tyrosinase. Cette technique, qui évalue la présence d’un mélanome et son stade d’évolution, pourrait éviter de procéder à des biopsies. Mieux, les premiers essais en laboratoire révèlent que les cellules cancéreuses pourraient être détruites à l’aide du peigne. H. D.

Pour en savoir plus
: http://actu.epfl.ch/news/cancer-la-peau-de-banane-revele-les-stades-du-mela/ 

Médecine

Un algorithme informatique pour dépister les maladies de la rétine

Lorsqu’il exécute un fond d’œil, l’ophtalmologue peut être amené à prendre plusieurs clichés pour établir son diagnostic. Certaines maladies, comme la DMLA (dégénérescence maculaire liée à l’âge) ou la rétinoplastie diabétique, nécessitent souvent une lecture attentive de la rétine, qui dépasse le temps d’examen, avant de poser un diagnostic. Le Laboratoire de traitement de l’information médicale (université de Bretagne occidentale) vient de mettre au point un algorithme informatique permettant de « rechercher toutes les anomalies possibles de la rétine d’un patient ». Utilisant une base de données de plus de cent mille clichés constituée par l’AP-HP (Assistance publique – Hôpitaux de Paris), cet algorithme opère selon la technique dite de « fouille de données » (data mining) adaptée pour l’exploitation d’images. Cette méthode, qui fait l’objet d’un dépôt de brevet pour un usage clinique, doit être ajustée désormais afin d’être rendue accessible à tous les professionnels de santé formés à son maniement, qui pourraient adresser ensuite leurs patients à un ophtalmologue si une anomalie est détectée. H. D.

Pour en savoir plus : http://www.inserm.fr/index.php/actualites/rubriques/actualites-recherche/un-algorithme-informatique-au-service-des-ophtalmologues

Neurosciences

L’autisme dans un pli du cerveau

La dénomination « troubles du spectre autistique » regroupe un ensemble de troubles neurologiques (autisme typique, syndrome d’Asperger, trouble envahissant du développement non spécifié) qui affectent principalement les relations sociales et le langage des personnes atteintes. À ce jour, il n’a pas été possible de mettre en évidence des marqueurs spécifiques de ces troubles dans le cerveau. Une équipe de l’Institut de neurosciences de la Timone (Marseille) s’est intéressée au sulcal pit, point le plus profond de chaque sillon du cortex cérébral. Ces points, à partir desquels se constituent les plis de la surface du cerveau, se mettent en place très tôt au cours du développement de l’individu. Les observations ont porté sur 102 garçons âgés de 2 à 10 ans, dont une partie seulement était atteinte d’autisme typique. À partir d’IRM (imagerie par résonance magnétique), les chercheurs ont observé les sulcal pits de ces enfants. Ils ont constaté que dans l’aire de Broca, une région en relation avec le langage et la communication, l’un des sillons était moins profond chez les enfants atteints d’autisme typique. Cette anomalie pourrait aider au diagnostic, qui n’est pas posé avant l’âge de 4,5 ans en France, et à une prise en charge plus précoce de ces enfants. H. D.

Pour en savoir plus : http://www2.cnrs.fr/presse/communique/4373.htm

Santé

Un test rapide pour une eau douce sûre

La mise à disposition d’eau potable auprès des populations demeure problématique, y compris en Europe. De plus, le réchauffement climatique et ses conséquences pourraient conduire à une modification du cycle de l’eau et une dispersion d’agents pathogènes dans les eaux des rivières. Pour détecter le plus rapidement possible la présence d’agents pathogènes et de toxines dans l’eau, l’Union européenne a initié le projet µAQUA (universal microarrays for the evaluation of fresh-water quality based on detection of pathogens and their toxins, « microtest universel pour l’évaluation de la qualité de l’eau potable à partir de la mise en évidence d’agents pathogènes et de leurs toxines ») qui aboutit aujourd’hui à la mise au point d’un microtest universel très sensible, économique, rapide et simple d’emploi. Après sélection, des indicateurs de l’état écologique de l’eau ont été greffés sur des micropuces. Ces microtests analysent l’ARN (acide ribonucléique) extrait directement des micro-organismes contenus dans des prélèvements d’eaux douces ou saumâtres. D’abord éprouvés dans six pays (Allemagne, Bulgarie, France, Irlande, Italie et Turquie), ils doivent permettre aux producteurs et distributeurs d’eau potable d’améliorer la qualité et la salubrité de leur eau. H. D.

Pour en savoir plus : http://www.techno-science.net/?onglet=news&news=14835

Sciences de la Terre

L’Anthropocène, une époque à part entière ?

De nombreux scientifiques plaident pour l’adoption du terme « Anthropocène » pour désigner l’époque moderne, qui serait marquée par une signature stratigraphique nette. Un récent article publié dans la revue Science en rajoute une couche ! L’équipe pluridisciplinaire et internationale ayant conduit cette étude livre un verdict sans appel. En 1700, 50 % des terres libres de glace étaient totalement sauvages et 5 % modifiées intensivement par l’Homme. En 2000, ces pourcentages s’élevaient respectivement à 25 % et 55 %. La modification des processus sédimentaires liés à cette artificialisation des sols coïncide avec l’apparition de produits nouveaux dans les sédiments (métaux, plastiques, radionucléides...). Les cycles globaux comme ceux du carbone, de l’azote ou du phosphore ont été profondément changés. L’augmentation du niveau des mers et les changements climatiques se produisent à des vitesses extrêmes. Ces signaux combinés laissent des traces indéniables dans les sédiments du monde entier, ce qui pourrait pousser prochainement la Commission internationale de stratigraphie à délimiter précisément l’Anthropocène. VINCENT PASQUERO

Pour en savoir plus : http://science.sciencemag.org/content/351/6269/aad2622

Climatologie

Plancton et pompe à carbone biologique

À partir des prélèvements de l’expédition Tara Oceans (2009-2012), une équipe interdisciplinaire, constituée d’océanographes, de biologistes et d’informaticiens issus de divers laboratoires français, vient de décrire le réseau d’organismes planctoniques impliqués dans la captation du carbone par les océans. Leurs travaux, réalisés à partir d’échantillons recueillis dans les zones océaniques pauvres en nutriments, permettent d’avoir une vision globale du réseau d’espèces intervenant dans cette pompe biologique. Ces recherches font apparaître de nouveaux acteurs (parasites unicellulaires, cyanobactéries et virus), de même que le rôle de nombreuses bactéries, dont l’implication dans l’export de carbone était sous-estimée voire ignorée. Les scientifiques ont constaté également que la présence d’un petit nombre de gènes de bactéries et virus permettait de prédire une part significative de la variabilité de l’export de carbone vers les profondeurs océaniques. Une partie de ces gènes participe à la photosynthèse et à la dégradation de la sédimentation de la matière organique. La meilleure connaissance du réseau d’organismes planctoniques liés à la captation du carbone va permettre de modéliser finement les processus biologiques à l’œuvre et étudier la façon dont ils interviennent dans la régulation du climat. H. D.

Pour en savoir plus : http://www2.cnrs.fr/presse/communique/4407.htm

Éthologie

Discussion chez les couples de diamants mandarins

Pendant la période de nidification, la plupart des couples d’oiseaux se relaient afin que l’un des parents soit présent pour couver les œufs. C’est le cas du diamant mandarin, un petit oiseau qui vit dans le centre de l’Australie. Les deux parents, très unis, se partagent les tâches d’une manière si équitable que quatre chercheuses du laboratoire Neuro-PSI (Institut des neurosciences Paris-Saclay) de Saint-Étienne ont voulu comprendre comment ils parvenaient à une telle harmonie. En effet, toutes les trente minutes environ, l’un des parents, après s’être nourri, revient au nid pour remplacer son partenaire. À ce moment précis, les deux oiseaux échangent des cris en alternance, de manière organisée, comme s’ils discutaient. En volière, les scientifiques ont contraint le mâle à s’absenter une heure, soit deux fois plus qu’à l’accoutumée. Ce retard modifie le comportement du couple. L’échange vocal devient plus court et rapide. Pendant ce dialogue, plus le mâle émet de cris, plus la femelle reviendra vite au nid. Au contraire, si le mâle fait profil bas, la femelle va s’absenter d’autant plus longtemps qu’il aura été en retard. Tout indique donc que les diamants mandarins discutent pour organiser le partage du temps de couvaison. Rien ne permet d’affirmer cependant que ce comportement existe chez d’autres espèces d’oiseaux. H. D.

Pour en savoir plus
: http://www2.cnrs.fr/presse/communique/4335.htm

Entomologie

Le savoir-faire des fourmis bâtisseuses

Comment les fourmis d’une colonie s’organisent-elles pour construire leur nid, souvent très complexe ? Une équipe de chercheurs toulousains et nantais a combiné des techniques d’analyse comportementale, d’imagerie tridimensionnelle et de modélisation pour étudier les talents de constructeur de la fourmi noire des jardins (Lasius niger). Concernant la partie construite en dôme au-dessus du sol, les individus forment d’abord de petits amas pour délimiter les chambres. Les fourmis suivantes déposent leurs boulettes de matériaux là où les premiers amas ont été constitués. Elles sont guidées par une phéromone que chaque insecte ajoute à son écot pour inciter les suivants à poursuivre les constructions aux mêmes endroits. Les bâtisseuses élèvent chaque pilier jusqu’à une hauteur correspondant à la longueur d’une fourmi. Puis elles se mettent à construire latéralement afin de constituer, en haut des piliers, des chapiteaux qui fusionnent pour former le plafond de la chambre. La durée d’action de la phéromone dépend des conditions climatiques. Par temps sec, son action est plus courte, ce qui aboutit à des constructions comportant moins de piliers pour des chambres plus grandes, où les fourmis se regroupent afin de conserver un peu d’humidité. Au final, au cours de leurs travaux de construction, chaque fourmi s’auto-organise en interagissant avec la structure qu’elle bâtit. H. D.

Pour en savoir plus
: http://www2.cnrs.fr/presse/communique/4379.htm