Fevrier 2017

Translate All The Site Into The Language(Tongue) Of Your Choice

        Vous Appréciez Ce Site ?

Contribué a son évolutions en faisant un don Merci*



Lundi 13 fevrier 2017 Nouvelle liste 2017 de 91 médicaments plus dangereux qu'utiles selon Prescrire

Pour la 5e année consécutive, la revue Prescrire a actualisé, dans son numéro de février, sa liste des « "cas flagrants de médicaments plus dangereux qu'utiles" » à éviter pour « "d'abord ne pas nuire aux patients et éviter des dégâts" ».

Ce bilan 2017 « "a recensé 91 médicaments (dont 82 commercialisés en France) dont la balance bénéfices-risques est défavorable dans toutes les situations cliniques pour lesquelles ils sont autorisés en France ou dans l'Union européenne" ».

Le plus souvent, d’autres options ayant une meilleure balance bénéfices-risques sont disponibles.

Même « "en situation d'impasse thérapeutique dans une maladie grave, il n'est pas justifié d'exposer les patients à des risques graves, quand l'efficacité clinique n'est pas démontrée" », estime la revue.

« "L'utilisation de certains de ces médicaments dans le cadre d'une recherche clinique peut être acceptable, mais à condition d'informer les patients des inconnues sur la balance bénéfices-risques et d'une utilité de l'évaluation. Dans les autres cas, mieux vaut se concentrer sur des soins utiles pour aider le patient à supporter l'absence d'option capable de changer le pronostic ou d'améliorer sa qualité de vie au-delà de l'effet placebo." »

Voici la liste des 91 « cas flagrants de médicaments plus dangereux qu'utiles » :

(De la liste de 74 médicaments de 2016, seuls 3 médicaments ont été retirés : 1 retrait du marché et 2 réévaluations sur la base de nouvelles données.)

(Pour vérifier si un médicament se trouve dans cette liste, vous pouvez utiliser les touches CTRL F (simultanément) pour faire apparaître un champ de recherche. Utilisez le nom de la molécule active qui se trouve sur l'emballage du médicament. Pour quelques médicaments, nous avons ajouté les noms commerciaux hors Europe, notamment canadiens et américains.)

Cancérologie - Hématologie

Le catumaxomab (Removab)
Le défibrotide (Defitelio)
Le mifamurtide (Mepact)
Le nintédanib (Vargatef)
L’olaparib (Lynparza)
Le panobinostat (Farydak)
La trabectédine (Yondelis)
Le vandétanib (Caprelsa)
La vinflunine (Javlor)

Voyez : 5 anticancéreux à éviter selon Prescrire (2015).
Cardiologie

L’aliskirène (Rasilez), un antihypertenseur inhibiteur de la rénine
Le bézafibrate (Befizal), un hypocholestérolémiant (anticholestérol)
Le ciprofibrate (Lipanor ou autre), un hypocholestérolémiant
Le fénofibrate (Lipanthyl ou autre), un hypocholestérolémiant
La dronédarone (Multaq), un antiarythmique
L’ivabradine (Procoralan), un inhibiteur du courant cardiaque IF
Le nicorandil (Adancor ou autre), un vasodilatateur
L’olmésartan (Alteis, Olmetec et associations), un antihypertenseur de la classe des antagonistes de l'angiotensine II (alias sartan)
La ranolazine (Ranexa), un anti-angoreux
La trimétazidine (Vastarel ou autre), substance aux propriétés incertaines utilisée dans l’angor
Le vernakalant (Brinavess), un antiarythmique injectable

Voyez : Hypertension : quels médicaments choisir selon Prescrire ? (2014)
Dermatologie, allergologie

La méquitazine (Primalan), un antihistaminique H1 « sédatif » et « atropinique » dans les allergies
L’omalizumab (Xolair) dans l'urticaire chronique
La prométhazine injectable (Phénergan), un antihistaminique H1 dans
l’urticaire sévère
Le tacrolimus dermique (Protopic), un immunodépresseur dans l’eczéma
atopique

Diabétologie - Nutrition

Les inhibiteurs de la dipeptidyl peptidase 4 (DPP-4, alias gliptines) :
L'alogliptine (Vipidia, Vipdomet)
La linagliptine (Trajenta, Jentadueto)
La saxagliptine (Onglyza, Komboglyze)
La sitagliptine (Januvia, Xelevia, Janumet, Velmetia)
La vildagliptine (Galvus, Eucreas)
La canagliflozine (Invokana)
La dapagliflozine (Forxiga)
La pioglitazone (Actos)
Voyez : 8 antidiabétiques à éviter selon Prescrire : effets secondaires et alternatives (2017) ainsi que Le médicament antidiabétique à choisir selon Prescrire (2014).

Perte de poids :
L’orlistat (Xenical ou autre)
L'association bupropione + naltrexone (Mysimba, Contrave)

Douleur, Rhumatologie

Antalgie

Les coxibs :
Le célécoxib (Celebrex ou autre)
L’étoricoxib (Arcoxia)
Le parécoxib (Dynastat)

Les AINS suivants :
L’acéclofénac (Cartrex ou autre)
Le diclofénac (Voltarène ou autre)

Le kétoprofène en gel (Ketum gel ou autre)

Le piroxicam (Feldène ou autre)

Voyez quels effets secondaires sont associés à ces AINS : 7 médicaments antidouleur à éviter selon Prescrire (2016).

Voyez aussi Médicaments contre l'arthrose : peu ou pas d'efficacité et effets secondaires selon Prescrire (2015) ainsi que Quels médicaments choisir contre la douleur selon Prescrire (2015).
Ostéoporose

Le dénosumab (Prolia)
Le ranélate de strontium (Protelos)

Arthrose

La diacéréine (Art 50 ou autre)
La glucosamine (Voltaflex ou autre)

Divers

La capsaïcine en patchs (Qutenza), dans les douleurs neuropathiques
Le méthocarbamol (Lumirelax), myorelaxant
Le thiocolchicoside (Miorel ou autre), myorelaxant
La pégloticase (Krystexxa)
La quinine (Hexaquine, Okimus) dans les crampes
L’association colchicine + poudre d’opium + tiémonium (Colchimax)
L’association dexaméthasone + salicylamide + salicylate d’hydroxyéthyle (Percutalgine)
L’association prednisolone + salicylate de dipropylène glycol (Cortisal)

Gastro-entérologie

La dompéridone (Motilium, Peridys, Oroperidys et génériques), neuroleptique, traitement des reflux gastro-œsophagiens (voyez : 231 morts subites injustifiées annuellement en France - 2015.)
Le dropéridol (Droleptan), neuroleptique, traitement des reflux gastro-œsophagiens
Le prucalopride (Resolor), apparenté aux neuroleptiques, traitement de la constipation chronique

Gynécologie - Endocrinologie

La tibolone (Livial), stéroïde de synthèse dans le traitement hormonal substitutif de la ménopause

Infectiologie

La moxifloxacine (Izilox), antibiotique
La télithromycine (Ketek), antibiotique

Neurologie

Maladie d’Alzheimer

Le donépézil (Aricept ou autre)

La galantamine (Reminyl ou autre)
La rivastigmine (Exelon ou autre)
La mémantine (Ebixa ou autre)

Voyez : Les médicaments anti-Alzheimer sont à éviter selon Prescrire (2015).
Sclérose en plaques

L’alemtuzumab (Lemtrada)
Le natalizumab (Tysabri)
Le tériflunomide (Aubagio)

Voyez : Éviter le natalizumab et l'alemtuzumab, conseille Prescrire (2014).
Migraine

La flunarizine (Sibelium), neuroleptique
L’oxétorone (Nocertone), neuroleptique

Voyez : Migraine : quels médicaments privilégier pour prévenir les crises selon Prescrire (2014).
Maladie de Parkinson

La tolcapone (Tasmar)

Ophtalmologie

La ciclosporine en collyre (Ikervis) dans la sécheresse oculaire avec kératite sévère
L’idébénone (Raxone) dans la neuropathie optique héréditaire de Leber

Pneumologie, ORL

L’éphédrine, décongestionnant vasoconstricteur
La naphazoline, décongestionnant vasoconstricteur
L’oxymétazoline, décongestionnant vasoconstricteur
La phényléphrine, décongestionnant vasoconstricteur
La pseudoéphédrine, décongestionnant vasoconstricteur
Le tuaminoheptane, décongestionnant vasoconstricteur
L'ambroxol (Muxol et autre), mucolytique
La bromhexine (Bisolvon), mucolytique
La pholcodine, opioïde (toux)
Le tixocortol (Thiovalone), corticoïde (maux de gorge)
L’omalizumab (Xolair), anticorps monoclonal (asthme)
Le mépolizumab (Nucala), anticorps monoclonal (asthme sévère)
Le mannito inhalé (Bronchitol), mucolytique
Le nintédanib (Ofev), inhibiteur de tyrosine kinases avec effet antiangiogenèse

Psychiatrie, dépendances

Antidépresseurs

L’agomélatine (Valdoxan)
La duloxétine (Cymbalta)
Le citalopram (Seropram, Celexa ou autre)
L’escitalopram (Seroplex, Lepraxo, Cipralex ou autre)
Le milnacipran (Ixel ou autre)
La venlafaxine (Effexor LP ou autre)
La tianeptine (Stablon)

Voyez quels effets secondaires sont associés à ces antidépresseurs : 7 antidépresseurs à éviter selon Prescrire (2017).
Autres psychotropes

La dapoxétine (Priligy), éjaculation précoce
L’étifoxine (Stresam), traitement de l’anxiété

Sevrage tabagique

La bupropione (Zyban)

Dans un document PDF en accès libre, Prescrire précise, pour chacun de ces médicaments, les raisons de l'évaluation négative et les alternatives préférables.

Lundi 13 Fevrier 2017 Grippe aviaire : enquête ouverte pour tromperie aggravée

Un camion de canards avait quitté un village du Tarn il y a deux mois alors que les éleveurs ont pu se douter de la présence de la grippe aviaire dans des exploitations voisines.

Grippe aviaire : enquête ouverte pour "tromperie aggravée"

Le parquet de Paris a ouvert en début de semaine une enquête préliminaire pour "tromperie aggravée", deux mois après le début de l’épisode de grippe aviaire H5N8 qui a touché de nombreux élevages de canards, selon les informations recueillies par Europe 1 jeudi.

La coopérative agricole du Tarn se doutait-elle de la présence du virus ? Fin novembre, un camion de canards avait quitté le village d’Almayrac, dans le Tarn, alimentant le Lot-et-Garonne, le Gers et les Hautes-Pyrénées, alors qu’à proximité de l’exploitation, un autre élevage présentait un cas de mortalité très préoccupante. Quelques jours plus tard, les suspicions de grippe aviaire s’étaient avérées et la préfecture du Tarn avait décidé de mesures de surveillance des élevages.

L’enquête devra déterminer si ces transports de canards ont été effectués alors que les éleveurs et la coopérative agricole se doutaient que le virus de la grippe aviaire était présent dans leurs exploitations, rendant possible la propagation de l’épizootie.

Lundi 13 Fevrier 2017 Plomb, arsenic, acrylamide dans notre nourriture : le nouveau rapport de l’Anses change la donne

Pas prêt de plaire aux industriels de la viande, un nouveau rapport de l’Agence Nationale de Sécurité Sanitaire (Anses) a été publié en janvier, actualisant les recommandations de l’agence en termes d’alimentation pour les institutions hexagonales. Des recommandations qui sont connues pour entrer en ligne de compte dans la définition même d’une politique sanitaire nationale au travers de diverses instances décisionnelles. Parmi celles-ci, on retrouve en particulier une injonction à consommer davantage de légumineuses, et à diminuer les quantités de charcuterie et de viande dans nos assiettes. De nouveaux repères, à contre courant de ce qui était communément accepté, qui vont dans le sens d’une alimentation plus saine, mais aussi plus responsable et moins carnée, au regard de la situation écologique.

Les légumineuses en vedettes

Encore trop peu présentes dans les assiettes françaises, les légumineuses s’inscrivent au cœur du rapport rédigé par l’Anses et publié il y a une dizaine de jours. Contenant des quantités importantes de micronutriments comme le fer ou le calcium et étant sources importantes de fibres et de protéines, les légumineuses telles que les lentilles, les pois ou les fèves ont de nombreux atouts nutritifs. Les légumineuses constituent une alternative et un complément facile et bénéfique aux pâtes et au riz encore très apprécié des Français. À propos de ces derniers, d’ailleurs, l’Anses recommande de privilégier les produits céréaliers les moins raffinés. C’est-à-dire des produits complets ou semi-complets.

En outre, les légumes et les fruits conservent une place importante dans les recommandations énoncées par l’agence. En consommer 5 portions par jour reste d’actualité. La consommation d’huiles végétales riches en acide alpha-linolénique (un oméga 3 essentiel) telles que l’huile de colza ou de noix est aussi encouragée. Les poissons gras, quant à eux, continuent de voir leur consommation bihebdomadaire conseillée par le rapport.
Différents poisons dans nos assiettes ?

A contrario, parmi les aliments dont l’Anses recommande une diminution dans les quantités ingurgitées, on trouve majoritairement des produits d’origine animale, et, sans surprise, des produits sucrés. Ainsi, l’agence préconise de réduire la consommation de charcuterie à 25 grammes par jour maximum. Soit pas plus d’une tranche de jambon ou quelques rondelles de saucisson par jour… Les viandes autres que la volaille (comme le bœuf, l’agneau ou le porc), ne doivent pas dépasser les 500g par semaine. Les boissons sucrées sont elles aussi montrées du doigt, regroupant les sodas, jus de fruits et autres nectars riches en sucre.

D’autre part, l’Anses a également révélé la présence assez inquiétante de diverses substances nocives dans certains aliments consommés à grande échelle. Ainsi, le pain industriel serait un des principaux responsables de l’exposition au plomb, quand les capsules de café pourraient contenir des doses d’arsenic et d’acrylamide, un produit de synthèse toxique et reprotoxique qui apparaît lors de la cuisson d’aliments contenant de l’amidon. Les expositions des Français à ces substances resteraient selon l’agence « inquiétantes » bien que constantes.

Des recommandations qui vont dans le sens d’une autre alimentation

En examinant les recommandations énoncées par l’agence française, on ne peut pas passer à côté de la nécessité de plus en plus pressante de consommer davantage d’aliments d’origine végétale. Alors qu’en 2015, le Centre International de Recherche sur le Cancer (CIRC) publiait un rapport classant les viandes rouges et transformées comme cancérogènes probables, les différents scandales sanitaires et un voile de plus en plus transparent sur les pratiques agro-industrielles continuent de motiver une partie de la population à réduire sa consommation de viandes pour des raisons sanitaires et écologiques.

En parallèle, la pression démographique mondiale allant grandissant, la nécessité de repenser nos habitudes alimentaires afin de permettre à 10 milliards d’individus de se nourrir se fait de plus en plus grande. Face à des ressources limitées et à une situation climatique inquiétante, il a été prouvé qu’une alimentation très faible en viande ou végétarienne était plus respectueuse de l’environnement — en plus d’épargner aux animaux des traitements souvent effroyables. S’il n’est pas exigé de tous devenir végétariens pour sauver la planète aussi bien que notre peau, réduire notre consommation de viande reste en tout cas souhaitable et urgent au regard du rapport de l’Anses.

Au vu des conclusions et des pistes de recherche ouvertes par la mise à jour de ces recommandations, il est possible de penser que le tournant opéré récemment dans les mentalités pourra bientôt trouver écho dans la mise en place de mesures institutionnelles. En effet, l’Anses est un établissement public à caractère administratif, placé sous la tutelle des ministres chargés de la Santé, de l’Agriculture, de l’Environnement, du Travail et de la Consommation. En ce sens, la base de données scientifiques et les recommandations qui en découlent ont un impact direct sur l’adoption de mesures qui visent à adapter le contexte environnemental, mais offrent aussi des repères pour les cantines des établissements scolaires, des hôpitaux, et autres établissements publics.

Lundi 13 Fevrier 2017 Gaia, lanceur d'alertes... pour les objets du système solaire

La mission spatiale européenne Gaia, lancée en 2013, a récemment complété l'étendue de ses activités de cartographie du ciel par la mise en service d'un système de lancement d'alertes quotidiennes pour le suivi des astéroïdes qu'elle découvre. Des astronomes et ingénieurs de l'Observatoire de Paris à l'Institut de Mécanique Céleste et de Calcul des Éphémérides (IMCCE) et de l'Observatoire de la Côte d'Azur (OCA), au sein du consortium d'analyse des données Gaia, ont largement contribué à sa mise en place.

Après avoir délivré son premier catalogue stellaire le 14 septembre 2016, Gaia poursuit sa mission de cartographie d'un milliard d'objets célestes et s'y ajoute maintenant une fonction supplémentaire de lanceur d'alertes pour les astéroïdes. Si depuis plusieurs mois des alertes étaient déjà lancées concernant des phénomènes transitoires d'objets célestes fixes (sursauts photométriques, novae et supernovae, lentilles gravitationnelles,...), il n'en était encore rien pour les objets du système solaire. Mais depuis octobre 2016, ce type d'alertes, validé par des observateurs de l'Observatoire de Paris, est dorénavant lancé quotidiennement sur la base de données Gaia-FUN-SSO accessible aux astronomes.

Le système d'alerte

Des astronomes et ingénieurs de l'Observatoire de Paris à l'Institut de Mécanique Céleste et de Calcul des Éphémérides (IMCCE), et de l'Observatoire de la Côte d'Azur (OCA), en collaboration avec des scientifiques de Besançon, Bruxelles, Helsinki, Turin et Florence au sein du consortium d'analyse des données Gaia et des ingénieurs du CNES, ont particulièrement oeuvré à la mise en place de ce système. Dans le processus de traitement des données acquises par Gaia, une détection des mouvements relatifs par rapport aux étoiles est réalisée. La comparaison avec des éphémérides (positions apparentes des objets du système solaire) fournies par l'IMCCE à l'Observatoire de Paris permet de savoir s'il s'agit d'un objet connu ou inconnu. Si l'objet est inconnu, une tâche du processus permet de calculer de multiples solutions orbitales correspondant aux observations réalisées par Gaia. Ces solutions permettent ensuite de prédire et visualiser la zone du ciel où un observateur terrestre a la possibilité de le retrouver. L'alerte est alors injectée dans la base de données Gaia-FUN-SSO.

Un projet de science participative

Les observateurs intéressés peuvent s'inscrire sur le site web de façon à être identifiés dans le réseau Gaia-FUN-SSO et oeuvrer à la redécouverte des objets par des observations depuis le sol.

Le processus de validation

Avant d'ouvrir officiellement le site mis à disposition du public pour la recherche des astéroïdes détectés par Gaia, il était important d'en valider les informations. C'est pourquoi deux missions d'observations au télescope de 1.2 m de l'Observatoire de Haute-Provence (OHP) ont été menées en octobre 2016. Elles ont permis en particulier le 26 octobre 2016 de confirmer au sol la détection d'un astéroïde découvert quelques jours plus tôt par Gaia et désigné provisoirement GAIA-606. Cet objet inconnu a pu être suivi pendant trois nuits. Ses positions successives ont été envoyées et enregistrées au Minor Planet Center, au Smithonian Astrophysical Observatory, USA, qui a la charge, sous l'égide de l'Union Astronomique Internationale, de collecter ces informations au niveau mondial.

La découverte aurait pu être attribuée à Gaia si aucune observation préalable n'avait été faite. Cependant ce n'était pas le cas, quelques-unes avaient été faites peu avant, sans pour autant être reliées entre elles. Les observations réalisées à l'OHP ont permis la détermination d'une orbite reliant toutes ces observations, et cet objet est maintenant connu sous la désignation 2016 UV56. Ce fut donc la conséquence de l'alerte et de ces observations à l'OHP, mais le plus important était qu'elles validaient le processus de déclenchement et de diffusion d'alertes Gaia-FUN-SSO pour les objets du système solaire.

Lundi 13 Fevrier 2017 Un Sahara vert qui rectifie l'Histoire

Comment: Ça n'a l'air de rien, mais un Sahara vert il y a quelques milliers d'années, ça met un grand coup de pompe à la doctrine version officielle de l'Histoire de l'Égypte Antique que nous connaissons tous ; celle établie par les plus grands « spécialistes » de notre époque. Celle que nos grands sectateurs égyptologues auto-accrédités, auto-certifiés et auto-autorisés nous ont pondu il y a des décennies et qui nous chantent en cœur la comptine d'un Sphinx ♪ « sculpté vers 2 500 avant notre ère par Khephren et à son image. »♫ où le ♫ « monument est l'image symbolique du roi Khephren mais également le gardien de la nécropole de Gizeh. »♪♫ (Référence Les sites archéologiques Editions Gründ). Il tombe bien ce Sphinx d'ailleurs, puisque l'on comprend mieux, à la lumière de l'article qui suit, comment cette sculpture fantastique peut porter sur elle les traces « inexplicables » d'une érosion... pluviale, scientifiquement prouvée, et devenir la preuve irréfutable que la chronologie de l'histoire égyptienne imposée admise jusqu'à maintenant est une fumisterie. Le géologue Scoch :

« L'érosion du Sphinx, comparée à celle des tombes de l'Ancien Empire, qui se trouvent à 200 mètres, signifie qu'il a des milliers d'années de plus que les tombes et donc que les pyramides. Les traces d'érosion sont dues à la pluie et non au vent. »

Selon une nouvelle étude publiée récemment dans la revue Advances Sciencemag, il est prouvé que les humains occupaient une grande partie du Sahara au cours de la « période humide » d'il y a environ 8000 ans. Grâce à une analyse des sédiments marins, des chercheurs de l'Université de l'Arizona ont établi des modèles de précipitations dans le Sahara sur une période de 6000 ans obtenant des résultats fascinants. L'équipe UA-Led a identifié le modèle climatique qui a généré un « Sahara vert » il y a entre 5.000 à 11.000 ans. La région comptait 10 fois plus de précipitations qu'aujourd'hui.

Aujourd'hui c'est le désert du Sahara mais c'était le lieu où habitaient autrefois des chasseurs-cueilleurs qui vivaient d'animaux et de plantes présentes dans des savanes, des régions de prairies boisées il y a 5.000 et 11.000 ans. « C'était 10 fois plus humide qu'aujourd'hui », a déclaré la principale auteur Jessica Tierney de l'Université de l'Arizona. Les précipitations annuelles du Sahara se situent actuellement entre environ 10 à 35 mm par an.

Bien que d'autres recherches ont déjà identifié l'existence d'une période de «Sahara vert», Tierney et ses collègues ont réussi à compiler un enregistrement continu de précipitations dans la région qui existait il y a 25.000 ans. Fait intéressant, les preuves archéologiques montrent que les humains ont occupé une grande partie du Sahara au cours de la période humide, mais peu à peu, ils se sont retirés il y a quelque 8000 ans.

Selon la nouvelle étude, les relevés pluviométriques recueillies par l'équipe indiquent une période qui a duré mille ans, il y a environ 8.000 ans, dans laquelle le Sahara est devenu plus sec, ce qui coïncide avec la période où les gens ont migré ailleurs. « Il semble que cette période sèche de mille ans a provoqué le départ des gens », a déclaré Tierney.

« Ce qui est intéressant, ce que les gens qui sont revenus après la période de sécheresse étaient différents. Cette période sèche sépare deux cultures différentes. Notre dossier fournit un contexte climatique de ce changement d'occupation et du mode de vie dans le Sahara occidental ».

Selon UA News, le lieu de sédiments lacustres, Tierney et ses collègues ont utilisé des carottes de sédiments marins prélevés au large de la côte de l'Afrique de l'Ouest sur quatre sites différents. Les carottes ont été prélevées sur une distance nord-sud d'environ 1.300 km - du Cap Ghir, au Maroc, à l'angle nord-ouest de la Mauritanie - les noyaux ont révélé à la fois les anciens modèles de précipitations et l'étendue géographique du Sahara vert.

Traduction et adaptation de la Terre du Futur

Lundi 13 Fevrier 2017 Voie lactée : si notre galaxie se déplace si vite, c’est à cause d’un grand vide répulseur

Une équipe internationale a découvert la raison du déplacement de la Voie lactée à 2,3 millions de km/h : le Dipole Repeller. Cette vaste région vide de matière engendre un déficit de gravité. Et c'est pourquoi notre galaxie fonce plus vite qu'elle ne le devrait vers le mystérieux Grand attracteur, qui se trouve justement dans la direction opposée.

Dans notre voisinage extragalactique existe une immense région vide qui exercerait une force de répulsion sur notre galaxie, la Voie lactée. Ce « repousseur » contribue aux forces gravitationnelles qui nous font naviguer à près de 2,3 millions de km/h sur la toile cosmique (avec la référence du fond cosmologique), la structure suivant laquelle la matière s'organise à grande échelle, notamment sous la forme de filaments qui connectent des galaxies entre elles et séparent des vides.
Ce déplacement de notre galaxie, et aussi de notre voisine Andromède, était déjà connu des astrophysiciens qui en recherchaient l'origine depuis 40 ans. Pour l'expliquer, les recherches se sont historiquement d'abord portées sur la possibilité d'un excès de galaxies situées dans la direction générale de notre mouvement.
Le suspect initial a été appelé le Grand attracteur, une région d'une demi-douzaine d'amas riches en galaxies à environ 150 millions d'années-lumière de nous. Puis, l'attention a été portée sur une entité plus importante encore, toujours dans la même ligne de visée et directement derrière le Grand attracteur : la Concentration d'amas de galaxies de Shapley, à 600 millions d'années-lumière de nous. Mais, au fil des ans, le débat s'est enlisé sur l'importance relative de ces deux attracteurs, ceux-ci ne suffisant pas pour expliquer notre mouvement, d'autant qu'il ne pointe pas exactement dans la direction de Shapley,

Cette cartographie des courants de matière (les flèches directionnelles) et des surfaces équipotentielles gravitationnelles (régions de l’espace « ressentant » la même attraction de gravitation - en vert et en jaune) permet, en visualisant son influence, de matérialiser la région du Dipole Repeller, ainsi que les nœuds et filaments de la toile cosmique (surfaces rouges et grises). La structure à grande échelle de notre Univers local est ainsi représentée. La flèche jaune est positionnée sur notre galaxie la Voie lactée et indique la direction du dipôle du fond diffus cosmologique. Cette cartographie couvre une région de notre Univers d’environ 2,5 milliards d’années-lumière de large. © Y. Hoffman, D. Pomarède, R.B. Tully, H. Courtois


Cartographier en trois dimensions les « fleuves de matière »


L'hypothèse d'une région sous-dense, un « vide » extragalactique, est alors avancée pour élucider ce phénomène. Obtenir une confirmation de l'observation d'un tel vide est toutefois extrêmement difficile. C'est pourquoi les chercheurs ont décidé, plutôt que de regarder la répartition de la masse visible (les galaxies), de cartographier en trois dimensions les mouvements de toute la matière, qu'elle soit visible (dite baryonique) ou invisible (matière noire ou, plus justement, transparente).
« C'est grâce au rayonnement microonde émis il y a plus de 13 milliards d'années que le mouvement de la Voie lactée est détecté, explique Daniel Pomarède, ingénieur-chercheur au CEA. Cette lumière nous parvient de toutes les directions mais, du fait de notre déplacement, on l'observe avec un décalage spectral vers le bleu dans la direction de notre mouvement et un décalage spectral vers le rouge dans la direction opposée. Et c'est en analysant cet effet dipolaire qu'on peut en déduire notre vitesse de 630 km/s. »
Coauteure de cette étude, Hélène Courtois, astrophysicienne à l'université Lyon 1, complète : « En analysant les champs de vitesse de milliers de galaxies peuplant notre univers local, nous avons identifié le déplacement de "fleuves de matière", comme ceux qui parcourent Laniakea. [Notre superamas de galaxies découvert en 2014 par la même équipe, NDLR]. Ces fleuves sont une conséquence directe de la distribution de la masse totale, qui s'éloigne des régions vides et se dirige vers les régions de plus haute densité ».




Une région faite de « rien », le Dipole Repeller


L'équipe a ainsi découvert qu'à l'emplacement de notre galaxie, les forces répulsives et attractives provenant d'entités lointaines sont d'importances comparables et en a déduit que les influences majeures qui sont à l'origine de notre mouvement sont l'attracteur Shapley et une vaste région de vide (c'est-à-dire dépourvue de matière visible et invisible), précédemment non identifiée, qu'ils ont nommé le Dipole Repeller (le répulseur de dipôle, en français). Cette découverte, publiée le 30 janvier 2017 dans Nature Astronomy, la toute nouvelle revue du groupe Nature, permet en effet d'expliquer l'origine du dipôle (ou anisotropie dipolaire) observé dans le rayonnement du fond diffus cosmologique, un ingrédient essentiel du modèle standard de la cosmologie.
Dorénavant, les astrophysiciens savent enfin quel chemin suit notre galaxie, attirée par la lointaine concentration de masse Shapley et repoussée par le Dipole Repeller

CNRS

Lundi 13 Fevrier 2017 Japon : pic de radiation et trou béant dans les entrailles de Fukushima

La compagnie électrique Tepco dit avoir relevé des taux mortels de plus de 500 sieverts au niveau du réacteur 2 de la centrale nucléaire ravagée par le tsunami du 11 mars 2011.


Japon : pic de radiation et trou béant dans les entrailles de Fukushima

Dans son grand chantier de démantèlement de la centrale de Fukushima-daiichi, Tepco vient de faire des découvertes qui risquent de compliquer sa mission. Jeudi, la compagnie électrique qui gère le site endommagé par le tsunami et l’accident du nucléaire de mars 2011, a dit avoir relevé des taux de radiations records : 530 sieverts par heure dans la partie basse de l’enceinte de confinement du réacteur 2, l’un des plus endommagés sur les six unités du site installé en bordure du Pacifique. Il est possible que ce taux astronomique soit dû au fait qu'une partie du combustible fondu ne soit pas immergé dans les eaux de refroidissement, comme l'avance Miyano Hiroshi, professeur émérite de l’université Hôsei, à la NHK.

Même si, comme l’a précisé Tepco à la presse japonaise, il faut tenir compte d’une marge d’erreur de 30%, le chiffre constaté reste très au-delà du précédent record de 73 sieverts établi en 2012 sur ce même réacteur. Avec de tels niveaux de rayonnement, «inimaginables» selon des experts japonais cités par l’agence Kyodo, la mort est quasi instantanée pour l’être humain.

Selon les recommandations de la Commission internationale de protection radiologique (CIPR), les ouvriers du nucléaire en milieu radioactif ne doivent pas être exposés à des doses efficaces et supérieures à 20 millisieverts (mSv) par an, «moyennées sur des périodes définies de cinq ans», indique la CPIR, soit 100 mSv. On s’est rendu compte qu’au-delà de ce seuil, le risque de leucémie s’accroît significativement.
Un magma très radioactif

Depuis la fin décembre, Tokyo Electric company a percé une petite ouverture dans l’enceinte de confinement du réacteur 2. La compagnie cherche à déterminer quel est l’état du cœur des réacteurs, ce magma extrêmement radioactif constitué de débris et de barres de combustibles qui ont fondu dans les heures qui ont suivi le 11 mars 2011. Selon des calculs de l’Institut international de recherche sur le démantèlement nucléaire, ce corium représenterait une masse globale de 880 tonnes réparties entre les unités 1,2 et 3 de Fukushima. Tepco cherche également à localiser où se situe précisément ce magma.

Fin janvier, elle a donc envoyé une petite caméra fixée sur un bras télescopique de guidage qui doit parcourir une dizaine de mètres. Avant d’expédier un robot d’ici à la fin du mois, la compagnie électrique a ainsi réalisé une petite vidéo (visible ici) qui permet d’apercevoir une petite partie des entrailles de réacteur.


Dans le flot d’images filmées, Tepco a publié des clichés où l’on voit nettement qu’un piédestal en forme de plateforme grillagée est nettement enfoncé sur une surface carrée d’un mètre sur un mètre environ. Ce trou pourrait être causé par la chute de structures, de barres de combustibles fondus. Si cette hypothèse devait se confirmer, ce serait la première fois que Tepco localise le corium au sein de l’un de ses réacteurs.

En début de semaine, la compagnie avait déjà publié des images - difficiles à lire pour des novices - tendant à montrer l’existence de ce combustible fondu. On y voyait des sortes de pâtés noirs éparpillés sur une structure métallique grillagée dans la partie inférieure de l’enceinte de confinement. Cela pourrait indiquer que le carburant a fondu et s’est répandu sur le plancher de cette enceinte.
Robots en rade

Le robot que Tepco prévoit d’envoyer dans les prochains jours dans cette partie de l’unité 2 permettra peut-être d’en apprendre plus. Censé supporter des radiations de l’ordre de 1000 sieverts, l’engin pourra fonctionner environ deux heures si l’on se fie au niveau de 530 sieverts relevés ces derniers jours. Ces derniers mois, deux robots expédiés en mission au sein des réacteurs sont déjà tombés en panne à cause de trop fortes radiations.

Celles-ci risquent de faire ralentir les travaux de démantèlement. Tepco ambitionne de commencer à retirer les combustibles fondus à partir de 2021. Mais elle doit encore finaliser la méthode pour y parvenir. Selon une étude du ministère de l’Economie, du commerce et de l’industrie (Meti) publiée en décembre, le seul démantèlement des réacteurs devrait coûter au minimum 8 trillions de yens (autour de 65,9 milliards d’euros), soit quatre fois ce qui était initialement envisagé. Au final, la facture atteindrait les 177 milliards d’euros pour démanteler, indemniser les riverains et décontaminer l'environnement. Ce retrait des combustibles reste la plus risquée de toutes les opérations de ce grand nettoyage de Fukushima-daiichi, prévu pour durer au moins quarante ans.

Lundi 6 Fevrier 2017 CNN : les troupes de l’OTAN sont aux portes de la Russie.

Les membres de l’OTAN ont fait preuve de leur puissance militaire sur les marches de la Russie quand la marine de l’Alliance s’est dirigée dans la mer Noire et les plaines polonaises retentirent au son des canons des blindés américains.

Selon le CNN, le 30 janvier dernier, un groupe aéronaval composé de 8 bâtiments de guerre appartenant à l’OTAN a accédé à la mer Noire pour y prendre part aux manœuvres « Bouclier maritime » se déroulant à proximité immédiate de la côte roumaine. Selon le représentant officiel de l’OTAN, « il s’agit de démontrer que notre Alliance est prête à défendre tous ses alliés de toutes les menaces ; nous cherchons aussi à sécuriser la navigation maritime dans cette région ».

Et le média de remarquer que la mer Noire et la mer Baltique sont de plus en plus la lice des joutes entres la Russie et l’OTAN. Techniquement parlant, le « Bouclier maritime » n’est pas classifié comme les manœuvres otaniennes. Cependant, c’est bien les pays-membres de l’Alliance qui y sont souscrites : Bulgarie, Grèce, Canada, Roumanie, Espagne, Etats-Unis, Turquie et autres.

Il est aussi à remarquer que, le 30 janvier dernier, les troupes américaines ont pris part aux manœuvres qui se sont déroulées à côté de la ville polonaise de Żagań. L’objectif visé était de « signifier clairement au Kremlin que Trump était toujours solidaire des intérêts de ses alliés ». L’auteur de l’article fait valoir que, nonobstant toutes les déclarations pacifistes de Trump sur l’amélioration du relationnel avec la Russie, le nouveau ministre de la Défense américain le général James Mattis, ancien commandant en chef des forces de l’OTAN, soutient inconditionnellement l’Alliance.

Toujours selon le CNN, les troupes qui ont participé à cet exercice militaire font partie d’un contingent fort de 4000 effectifs humains qui s’est déployé en Europe au début du mois de janvier. Un tel roulement des troupes vise à renforcer les liens des Etats-Unis avec ses alliés européens aussi bien que pour adresser un message à Moscou.

Il est également à rappeler qu’en novembre dernier, le secrétaire général de l’OTAN Jens Stoltenberg a déclaré qu’il était obligé de tenir compte d’une montée en puissance de la crise avec Moscou ce qui l’aurait obligé à mobiliser des centaines de milliers de militaires. La direction de l’Alliance a l’intention de renforcer encore son dispositif terrestre en vue d’ « endiguer l’agression russe ». En même temps, Stoltenberg s’est bien gardé d’avancer les chiffres exacts.

L’ancien secrétaire général de l’OTAN et l’actuel conseiller auprès de la Présidence ukrainienne Anders Fogh Rasmussen a critiqué, lui, Washington pour ses atermoiements. « Le rôle de l’Amérique est celui du gendarme du monde », martèle-t-il haut et fort. Selon lui, les Etats-Unis se doivent de s’immiscer avec plus de dynamique dans les conflits un peu partout à travers le monde.

« Quatre bataillons que l’OTAN a décidé de localiser en Europe de l’Est, c’est purement un acte politique qui cherche à prouver aux Européens que l’OTAN existe pour de bon et qu’ils peuvent contrecarrer la « menace russe ». C’est que de la rigolade qui ne fait que vexer les dirigeants concernés », s’est confié à Pravda.ru le vice-président de l’Académie des problèmes géo-politiques de la Russie Vladimir Anokhine.

Il est de notoriété publique que, récemment, un périodique à renommée mondiale Los Angeles Times a tranché le dilemme si « l’OTAN avait, oui ou non, trompé l’Union Soviétique ».

Les journalistes ont su rendre publics les documents historiques démontrant toute la justesse de la position russe. Ces documents prouvent qu’en 1990, les Etats-Unis firent une promesse formelle à l’URSS de ne pas étendre l’OTAN en direction des frontières soviétiques. Un analyste de Los Angeles Times a abattu un travail monstrueux en alignant des centaines de sténogrammes, compte-rendus des conférences de l’OTAN et de la direction américaine et les recommandations des conseillers de la Maison-Blanche. En exergue de son travail, le journaliste a écrit que « bien que les documents analysés ne font pas de Vladimir Poutine pour autant un saint, ils démentent tout de même la thèse sur la mentalité prédatrice de la Russie ».

Ainsi, l’un des documents atteste que lors de la rencontre qui eut lieu le 9 février 1990, le secrétaire du Département d’État James Baker a officiellement (!) déclaré aux diplomates soviétiques que Washington était prête à « octroyer à l’URSS des garanties de fer » pour prouver que les frontières de l’Alliance n’allaient pas bouger d’un pouce en direction de l’Est. En contrepartie, les Etats-Unis demandaient à l’URSS de prêter main forte à la réunification allemande ».

Et les journalistes d’ajouter qu’après la publication de ces documents, « personne ne doit être étonné par l’indignation de Moscou face à la progression de l’OTAN vers l’Est ». L’auteur de la publication avance que si l’OTAN rejetait l’idée de l’expansion à venir (ce qui est déjà impossible par principe), ce serait là un geste porteur d’espoir du « dégel » dans les relations entre la Russie, l’Europe et les Etats-Unis.

Un peu plus tard, l’adjoint au secrétaire général de l’OTAN Alexander Werbshow a déclaré, par l’entremise de son Twitter, que l’Alliance n’eut jamais bâillé aucune garantie à la direction soviétique sur la non-progression de l’OTAN. Donc aucun accord ne fut violé.

source: http://www.pravdafrance.com/news/defense/01-02-2017/1303962-0/

Lundi 6 Fevrier 2017 Nucléaire : EDF n’aurait pas les moyens de démanteler son parc

Un rapport parlementaire s’inquiète : le coût du démantèlement du parc nucléaire français serait sous-estimé et, malgré quinze ans d’études, la faisabilité technique ne serait pas assurée. Ils vont mettre des rustines encore et encore, jusqu’à ce qu’il y en ait un, qui ait la mauvaise idée de nous sauter à la figure, voir les avis d’incidents nucléaires de l’ASN. Comme tout va bien EDF va supprimer 7000 postes en quatre ans.
FILIÈRE. « Face aux difficultés qui s’annoncent, on peut s’étonner qu’on se soit intéressé au problème du démantèlement si tard », pointe la députée PS du Doubs Barbara Romagnan, rapporteure de la Mission d’information relative à la faisabilité technique et financière du démantèlement des installations nucléaires de base (voir notre interview en vidéo).

Après six mois de travaux, 70 auditions et plusieurs visites, notamment aux États-Unis, les parlementaires ont publié un rapport plutôt inquiétant. Il y apparaît que la filière nucléaire n’avait pas anticipé le démantèlement du premier parc (neuf réacteurs de technologies diverses) et qu’implicitement elle s’appuie sur des hypothèses qui lui sont favorables comme la poursuite d’un programme nucléaire.

« EDF inquiète lorsqu’elle annonce unilatéralement (il y a six mois) le report à l’horizon 2100 du démantèlement des réacteurs fonctionnant à l’uranium graphite gaz (UNGG) et qu’elle engage des travaux pour l’allongement de la durée de vie des centrales sans l’aval préalable de l’Autorité de sûreté nucléaire (ASN) », souligne la députée.

Ces orientations sont en contradiction avec la loi sur la transition énergétique qui modifie le code de l’énergie en prévoyant de “réduire la part du nucléaire dans la production de l’électricité de 50 % d’ici à 2025”. » Après avoir épluché les travaux de plusieurs pays engagés dans le démantèlement de leurs centrales (Allemagne, Belgique, Etats-Unis), les parlementaires estiment que leurs retours contredisent l’optimisme dont fait preuve EDF, tant sur les aspects techniques que financiers du démantèlement. « La faisabilité technique que beaucoup d’exploitants considèrent comme maîtrisée n’est pas entièrement assurée », regrette Barbara Romagnan.

…/…

Lire l’article complet

Source Transition-énergétique

67 réacteurs et un EPR en construction. le principal exploitant français EDF compte 58 réacteurs à eau pressurisée (REP) en fonctionnement et neuf réacteurs à l’arrêt: Brennilis (eau lourde), Superphénix (réacteur au sodium), six réacteurs de 1ère génération ayant fonctionné au graphite gaz ainsi que le réacteur ChoozA, le plus ancien REP français. A Flammanville se construit enfin un EPR, réacteur à eau pressurisé dont le chantier connait des difficultés.

http://lesmoutonsenrages.fr/

Lundi 6 Fevrier 2017 Linky : brouillard persistant autour du nouveau compteur électrique

Un an après son arrivée, Linky continue de susciter des inquiétudes et de fédérer les opposants. Premier bilan, alors que le déploiement s’accélère.

n an après son arrivée, Linky continue de susciter des inquiétudes et de fédérer les opposants. Premier bilan, alors que le déploiement s’accélère.

Enedis, gestionnaire du réseau de distribution d’électricité, a engagé le déploiement national des compteurs Linky depuis fin 2015. Trois millions d’entre eux devraient déjà être installés en ce début d’année 2017. Leur mise en place doit se poursuivre jusqu’en 2021, pour remplacer au total 35 millions de compteurs électriques.

Mais Linky suscite toujours des tensions. Des associations se sont dressées contre son déploiement. Car le nouveau compteur a une spécificité : il est communicant et transmet la consommation quotidienne d’un logement à un concentrateur de quartier en utilisant la technologie du courant porteur en ligne (CPL). Celle-ci, selon les opposants, fait « rayonner » le compteur et émet des ondes néfastes pour la santé. Résultat : des consommateurs, effrayés, refusent Linky.

Refuser l’installation de Linky ?

Pour contrer cette peur, Enedis a compris qu’il fallait communiquer plus et mieux, et multiplie donc les réunions. Mais des utilisateurs continuent à nous demander comment ils peuvent éviter Linky. Or, il paraît juridiquement difficile d’empêcher le renouvellement du compteur.

Les opposants ont diffusé un modèle de sommation à faire remettre par huissier. Un ­millier était déjà parvenu à Enedis début novembre, mais sans garantie de résultat pour une procédure coûteuse. De leur côté, plusieurs dizaines de communes ont pris des arrêtés anti-Linky. Mais deux d’entre eux ont été suspendus mi-octobre.

Au-delà des aspects juridiques, y a-t-il de bonnes raisons de s’inquiéter du déploiement de Linky ? Le point sur les trois principaux griefs.

• Ondes : on en sait un peu plus, mais pas encore assez

L’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) a été saisie pour évaluer l’impact éventuel de Linky sur la santé. Son avis, rendu mi-décembre 2016, parle de « risques sanitaires peu probables ». Elle précise que « les compteurs Linky […] sont à l’origine d’une exposition comparable à celle d’autres équipements électriques déjà utilisés dans les foyers depuis de nombreuses années (télévision, chargeur d’ordinateur portable, table de cuisson à induction…) ».

L’Agence nationale des fréquences (ANFR) a également été sollicitée : cet établissement public a publié des résultats en septembre. Ils montrent des niveaux de champs électriques et magnétiques en laboratoire très au-dessous des valeurs limites réglementaires. D’autres mesures ont été réalisées dans des habitations. Les champs magnétiques y sont supérieurs, principalement face au compteur. Mais ils restent deux cents fois au-dessous de la valeur limite réglementaire.
Indispensable de poursuivre les mesures

La publication de ces mesures constitue un pas important en matière de transparence. Il est toutefois indispensable de les poursuivre, pour en avoir davantage et dans des situations différentes. Il serait par ailleurs souhaitable de les faire sous l’égide d’une commission réunissant les principaux acteurs. Le Centre de recherche et d’information indépendantes sur les rayonnements électromagnétiques (Criirem) le souhaite : « Le protocole de l’ANFR doit être amélioré. Il faudrait faire des comparaisons avec les anciens compteurs, ainsi que des mesures sur la durée et pas seulement à un instant T, avec des appareils en fonctionnement, et notamment des chauffages électriques », estime le Centre.

• Factures : payer plus, pour plus de puissance

« Depuis l’installation de ce compteur, cela n’arrête pas de disjoncter chez moi, notamment dès que j’actionne deux appareils électroménagers simultanément, raconte Zoco dans notre forum au cours d’un débat à propos de Linky. On me dit que j’ai un abonnement insuffisant pour une maison. Cela s’apparente à de la vente forcée, non ? »

En réalité, ces désagréments signifient que l’abonnement de la maison n’était pas correctement dimensionné pour la puissance demandée, même si le disjoncteur précédent ne réagissait pas. Linky intègre son propre disjoncteur. Si la puissance demandée est supérieure à celle souscrite, il coupe.
Augmentation de 15 à 40 € par an

Pour éviter de disjoncter, il faut donc souscrire un abonnement plus puissant et plus cher : l’abonnement de base augmente de 15 à 40 € par an dans les cas les plus fréquents. Environ 2 % des clients particuliers pourraient être concernés, selon l’expérimentation menée entre 2009 et 2011, qui avait permis de repérer le phénomène.

Ajoutons que, si l’installation disjoncte, ce n’est donc pas, comme le soutiennent les opposants, parce que Linky compterait la consommation instantanée différemment (en kVA ou kilovoltampères, au lieu de kW ou kilowatts). Enedis affirme que la consommation des particuliers est bien toujours calculée en kilowatts.

• Perturbations : le mystère des lampes tactiles clignotantes

Les opposants à Linky ont annoncé des pannes en série d’appareils qui – circonstance aggravante – ne seraient pas prises en charge par les assurances. Mais un an plus tard, il semble bien que la menace ne se soit pas concrétisée. Pour certains matériels, Enedis indique qu’il s’agit seulement d’un dispositif de sécurité qui s’active avec la coupure d’alimentation lors de la pose. Il suffit de le débloquer et de faire redémarrer l’appareil.

Il y a toutefois un équipement qui a clairement fait les frais de l’arrivée du nouveau compteur : les lampes tactiles, dont certaines se sont mises à clignoter ! Le ­principe de ces lampes : elles s’éteignent, s’allument ou changent d’intensité par un simple effleurement.
Les fabricants ne sont pas forcément responsables

Dans un premier temps, Enedis a mis en cause les fabricants, soutenant qu’ils ne respectaient pas la réglementation et que leurs produits empiétaient sur la bande de fréquence de Linky (entre 30 et 90 kHz). Ils portaient pourtant le marquage CE. Fin octobre, Enedis a cessé de parler de non-respect des normes. Sans avancer d’autre explication, il indiquait poursuivre les travaux avec les fabricants pour essayer de comprendre le phénomène.

Les lampes réagiraient dans certaines situations, notamment selon l’endroit où elles sont posées. Une soixantaine de cas a déjà été recensée. Enedis se disait prêt à envoyer des techniciens sur demande. Et envisageait une indemnisation des clients touchés. Le mystère reste entier, mais les personnes concernées ne doivent pas hésiter à contacter Enedis, et à nous tenir informés en cas de difficultés.

http://www.60millions-mag.com/

Lundi 6 Fevrier 2017 Un supercontinent disparu découvert au fond de l'océan Indien

Un groupe de scientifiques affirme avoir retrouvé les traces d'un continent très ancien, le Gondwana. Cette découverte a été faite sur l'île Maurice.

Un groupe de scientifiques sud-africains et suédois a découvert les restes du supercontinent Gondwana, relate le magazine Nature Communications.





Les scientifiques ont obtenu de nouvelles preuves de l'existence de ce supercontinent qui se trouvait entre Madagascar et l'Inde. La désintégration du supercontinent a commencé il y a 200 millions d'années. La plateforme du continent a disparu il y a 84 millions d'années.
L'île Maurice est apparue il y a 8 à 9 millions d'années. Bien que cette île soit considérée comme l'un des plus jeunes terrains de la Terre, les scientifiques ont découvert du zircon dans ses roches. D'habitude, ce minéral se retrouve dans une croûte continentale d'origine ancienne. L'analyse du minéral a montré que les cristaux de zircon retrouvés s'étaient formés il y a 2,5 à 3 milliards d'années.



Selon les scientifiques, cette découverte confirme que l'île Maurice est apparue sur les restes du supercontinent. Les roches qui se trouvent sous l'île sont d'origine continentale.

Lundi 6 Fevrier 2017 L’univers accélère plus vite que prévu et défie les cosmologistes

Dans le cadre du modèle cosmologique standard, l'énergie noire est une vraie constante cosmologique qui ne varie pas dans le temps. Mais une nouvelle estimation de la vitesse d'expansion de l'univers observable remet cette hypothèse en question. Plus généralement, elle suggère qu'il faudrait modifier le modèle cosmologique à l'aide d'une nouvelle physique.

l y a presque un an, Futura-Sciences avait demandé l'avis du cosmologiste français Alain Blanchard au sujet d'une annonce faite par le prix Nobel de physique Adam Riess. En compagnie de ses collègues, il avait obtenu une nouvelle valeur de la mythique constante de Hubble. Pour cela, ils avaient utilisé les fameuses étoiles variables que sont les Céphéides, observées avec le télescope spatial Hubble. Or la valeur mesurée était un peu plus élevée que celle déduite de l'analyse des données collectées par Planck en observant le rayonnement fossile.
Astrophysiciens et cosmologistes se sont alors brusquement retrouvés confrontés au dilemme suivant, selon Alain Blanchard : « soit, on croit aux mesures de la constante de Hubble par Riess, et aux mesures de Planck, et alors on a le signe d'une nouvelle physique, soit il y a une des données qui est un peu biaisée... ».
Le chercheur nous avait ensuite expliqué que, selon lui, cette problématique - nouvelle physique ou biais dans les analyses - allait probablement être très présente en cosmologie au cours des prochaines années.

Une salve de publications sur arXiv provenant de la collaboration HOLiCOW, un projet international en cosmologie mené par l'École polytechnique fédérale de Lausanne (EPFL) et le Max Planck Institute, vient confirmer tout à la fois la découverte d'Adam Riess et ses collègues, ainsi que la prédiction d'Alain Blanchard. Une nouvelle mesure de la vitesse de l'expansion de l'univers, en utilisant l'effet de lentille gravitationnelle forte des galaxies sur plusieurs quasars, conduit à nouveau à un conflit avec la mesure de la constante de Hubble fournie par Planck. Mieux, les membres de HOLiCOW retrouvent par une méthode indépendante une valeur proche de celle déduite de l'étude des Céphéides avec, cette fois-ci, une précision de 3,8 %.
Des quasars comme sonde cosmologique


Pour aboutir à ce résultat, les astrophysiciens ont travaillé dans la cadre du programme COSmological MOnitoring of GRAvItational Lenses (COSMOGRAIL) qui utilise principalement le télescope suisse de 1,2 m situé dans les Andes chiliennes, à proximité des observatoires de l'ESO. L'idée de base a consisté à mesurer des décalages de fluctuations de luminosité dans les multiples images de cinq quasars ayant subi un effet de lentille gravitationnelle. La méthode est plus directe que celles utilisées pour déduire du rayonnement fossile la valeur de la constante de Hubble. Elle repose sur moins d'hypothèses et donc de sources d'erreurs possibles à prendre en compte. Elle est donc plus robuste

Il y a de bonnes raisons de penser que les quasars sont en réalité des trous noirs supermassifs rendus très lumineux par l'accrétion d'importantes quantités de matière. Leur luminosité fluctue en raison même de la physique des processus liés à l'accrétion et à la génération de rayonnement. Une galaxie massive qui s'interpose entre ce rayonnement et nous va dévier, en raison de son champ de gravitation, les rayons lumineux de sorte qu'ils ne suivront pas les mêmes chemins et ne parcourront pas les mêmes distances. Qualitativement et quantitativement, les temps de parcours sont affectés par l'expansion de l'univers observable et, au final, l'effet de lentille gravitationnelle va se manifester par des images d'un même quasar qui vont varier en luminosité avec des décalages dans le temps. Il est donc possible de déduire de ces décalages, une vitesse d'expansion et donc, la constante de Hubble.
Au final, on trouve une valeur d'environ 72 km par seconde par mégaparsec (un mégaparsec représente environ 3,3 millions d'années-lumière). Le conflit avec les analyses des mesures du rayonnement fossile est désormais plus aigu car avec les Céphéides, il y a deux méthodes de mesure différentes, donc ne partageant pas les mêmes biais expérimentaux possibles qui aboutissent à un résultat comparable.
S'il n'y a pas d'erreur dans les mesures de Planck, il est possible qu'il faille reconsidérer certaines des hypothèses admises concernant le modèle standard en cosmologie mais aussi, et peut-être surtout, en physique des particules. La constante cosmologique n'est peut-être pas une vraie constante, ce qui a des implications sur la nature de l'énergie noire. Ou peut-être existe-t-il une nouvelle famille de neutrinos, une famille qui pourrait, cette fois, nous renseigner sur la nature de la matière noire.

Lundi 6 Fevrier 2017 Moselle: violent incendie à la centrale nucléaire de Cattenom

Mardi soir à 22h20, précise le Républicain Lorrain, des moyens de lutte contre le feu très importants ont été déployés sur le site de la centrale nucléaire EDF de Cattenom, en Moselle. Les sapeurs-pompiers ont afflué de toute la région pour circonscrire l'incendie vers 22h50. Peu avant minuit, le foyer était totalement maîtrisé et éteint vers 3 heures du matin selon RTL.

Aucune zone sensible de la centrale n'a été touchée par le sinistre, mais quelque 90 préfabriqués destinés aux intervenants extérieurs ont été détruits. L'origine du sinistre n'est pas connue.

Violent #incendie à la centrale #nucleaire de Cattenom (Moselle) la nuit dernière https://t.co/VkixS7o2On pic.twitter.com/EpCVl701Ij
— l'est-éclair (@lesteclair) February 1, 2017

Un incident mineur s'était produit en mai 2015 dans cette même centrale de Moselle. Une vanne s'était ouverte et un réacteur avait été immédiatement arrêté. Cet incident, une fuite de vapeur non radioactive, avait été classé 1 sur l'échelle des incidents nucléaires qui part de zéro et va jusqu'à 7

Lundi 6 Fevrier 2017 Zone Rouge: scandale au goût d’arsenic au cœur de la France

Non, ces images ne proviennent pas d’une quelconque exploitation minière à l’autre bout du monde. Pour la réalisation du documentaire Zone Rouge, Laetitia Moreau et Olivier Dubuquoy se sont rendus dans les Calanques pour s’attaquer de front à la problématique des boues rouges. Pour interpeller les politiques et la population, les deux réalisateurs ont enquêté auprès des industriels et des responsables publics pour découvrir comment les dirigeants de l’usine d’alumine de Gardanne ont pu, pendant 50 ans, mentir à propos des dangers représentés par les boues rouges pour les humains et l’environnement. Les boues rouges, une « désinformation toxique » ?



La problématique des boues rouges divise la France depuis de nombreuses années. Non seulement elle alimente des controverses au sein des acteurs locaux, mais en plus elle met en lumière la manière dont les dirigeant de l’usine d’alumine de Gardanne utilisent tous les moyens qui sont en leur pouvoir pour continuer des activités dont les dégâts écologiques sont pourtant avérés. C’est ce que dénonce l’enquête Zone rouge dont l’objet et de démontrer comment « les industriels qui ont successivement dirigé cette usine se sont ingéniés à inventer bien des astuces, greenwashing et sciencewashing, pour faire accepter tant aux autorités politiques, scientifiques et sanitaires qu’aux populations, l’innocuité des boues toxiques, résidus de la transformation de la bauxite en alumine et valider le choix de leur rejet en Méditerranée ».

Permis de polluer

En plein milieu du Parc national des Calanques, un espace naturel protégé à proximité de Marseille et au bord de la Méditerrané, l’usine de Gardane rejette ses déchets industriels en mer. Depuis quelques années, des enquêtes ont rendu public ce scandale écologique et politique. Si la pollution est difficilement visible pour un public non averti, marins, pêcheurs et scientifiques n’ont pourtant cessé d’alerter les autorités sur les désastres provoqués par le déversement des « boues rouges » en pleine mer. À la suite des protestations, de nouvelles mesures ont été prises. Depuis peu, les « boues rouges » ne peuvent plus être rejetées en mer. Du moins, sur le papier.

Dans les faits, démontre l’enquête, l’usine continue à polluer les environs : les effluents liquides issues de la production d’alumine terminent toujours leur parcours en mer, alors même que leur taux d’arsenic, d’aluminium et de fer dépasse les normes légales. Pourtant, jusqu’à présent, aucune mesure contraignante n’a été prise pour faire cesser concrètement cette pollution. L’usine de Gardanne agirait donc en toute impunité, avec l’aval des administrations compétentes : les autorités politiques ont validé leur choix de rejet dans la Méditerranée. Les images et les recherches menées par les scientifiques sont pourtant sans appel : sur les lieux où sont déversées les boues et dans leurs alentours, la faune et la flore marines sont fortement dégradées. Pourquoi une telle passivité devant ce scandale industriel français d’envergure ?


Mensonges à la pelleteuse

Pourquoi, l’usine de Gardanne peut-elle continuer à polluer sans être inquiétée par les autorités compétentes ? Comment a-t-elle été autorisée a se débarrasser de ses déchets en mer ? Les auteurs du reportage ont enquêté sur la vaste « manipulation » opérée par les dirigeants de l’usine. Car c’est bien à force de mensonges et de pressions que l’usine aurait obtenu et maintenu les permis de polluer. Aujourd’hui, c’est la Commission européenne qui exige des réponses. Ainsi, explique le journal Le Monde, « Bruxelles demande aux autorités françaises les motivations de l’autorisation du rejet en mer de déchets dont la toxicité dépasse les plafonds légaux ».

Le film Zone Rouge retrace les enjeux du scandale et investigue au cœur des manipulations. Le documentaire a été sélectionné en compétition internationale au Festival International du Grand Reportage d’Actualité et du Documentaire de Société, « Les écrans de la réalité » qui se déroulera au Touquet-Paris-Plage du 22 au 26 Mars 2017.

Samedi 4 Fevrier 2017 Ice and Salt Challenge : la gendarmerie met en garde les adolescents

Depuis plusieurs années, des adolescents se défient à garder le plus longtemps possible un glaçon et du sel posés à même la peau. Ce qui provoque d'importantes brûlures.

(CAPTURES INSTAGRAM.)

Du sel et des glaçons pour épater ses relations sur les réseaux sociaux ? La gendarmerie alerte les adolescents. Ce défi peut provoquer de graves brûlures.

Les vidéos de ces adolescents pullulent sur Internet depuis plusieurs années mais la gendarmerie française s'en inquiète aujourd'hui après une recrudescence sur les réseaux sociaux. «#IceAndSalt Challenge. Attention ! Un glaçon + une pincée de sel = brûlure au 2ème degré ! Prévenez vos ados !», tweetait mardi la gendarmerie nationale

Déjà, la semaine dernière, une mère de famille dénonçait ce challenge un peu débile dans un article publié par le journal britannique Hull Daily Mail. Après que son jeune fils s'est plié au défi, cette Galloise a raconté avoir été obligée d'emmener son fils aux urgences pour ce qu'elle croyait être une coupure.



«Les brûlures étaient tellement sérieuses que les médecins se sont demandés s'ils devaient faire une greffe de peau», racontait-elle. Brûlé au troisième degré, son fils a même endommagé ses nerfs. «La brûlure est tellement profonde qu'elle a touché les terminaisons nerveuses (...) Il ne sent plus rien au niveau de la brûlure», a-t-elle décrit.

Ces dernières années, d'autres défis, beaucoup moins dangereux, ont vu le jour sur les réseaux sociaux. On se rappelle du Harlem Shake, du Ice Bucket Challenge ou du Running Man Challenge. Plus récemment, le Mannequin Challenge a fait son apparition, lancé par des étudiants américains puis popularisé notamment par Michelle Obama et de notre côté de l'Atlantique par les concurrentes au titre de Miss France.

leparisien.fr

Samedi 4 Fevrier 2017 L'inquiétante progression de la maladie du "foie gras" humain

cette maladie se caractérisant par une accumulation de graisse dans le foie touche avant tout les pays industrialisés. Elle est devenue la première cause de transplantation du foie aux Etats-Unis.
REUTERS/Regis Duvignau La surconsommation de sucres et de graisses dans les pays développés participe à la progression de la Nash, qui elle-même augmente le risque de cancer du foie. (Photo…

Due à nos régimes alimentaires trop chargés en sucres et en glucides, la maladie Nash progresse de façon inquiétante. Cette surcharge en graisse du foie - nouvelle cause de cirrhoses et de cancers hépatiques - devient en effet de plus en plus fréquente, selon les spécialistes, alors même que des traitements efficaces permettent désormais de guérir la majorité des hépatites virales C.

Liée à l'épidémie d'obésité, de surpoids et de diabète dans le monde, cette maladie surnommée "Nash" est devenue la première cause de transplantation du foie aux Etats-Unis, a souligné le Pr Lawrence Serfaty, à l'occasion du congrès dédié à cet organe "Paris Hepatology Conference", organisé depuis lundi.

Forme avancée du foie gras non alcoolique, cette hépatite ou "stéatohépatite" se caractérise par une accumulation de graisses dans le foie entraînant inflammation, destructions de cellules, et formation de tissu cicatriciel (fibrose). Restée longtemps ignorée, elle est devenue une cause en progression de cancer du foie et concerne aujourd'hui 1% de la population française et 5% aux Etats-Unis.
La perte de poids... ou rien

Or, il n'existe pour l'instant aucun médicament approuvé, aucune pilule miracle, contre la Nash.Actuellement, le meilleur traitement repose sur la perte de poids, qui ne peut intervenir que grâce à un régime hypocalorique -pauvre en sucres à absorption rapide et lente-, accompagné d'une pratique sportive régulière. Une perte de poids de 8 à 10% permet en effet d'améliorer la fonction hépatique et réduit le risque cardiovasculaire, première cause de mortalité chez ces patients.

De son côté, la recherche poursuit son travail. "Une centaine de compagnies, essentiellement américaines, ont des molécules en développement (phases 1 à 3)" explique le Pr Serfaty, qui indique que plus d'une centaine d'essais dans le monde visent plusieurs cibles telles la fibrose, le métabolisme des lipides, du glucose, l'inflammation... Le traitement à la Nash sera probablement une combinaison, ajoute le médecin, citant le nom de deux molécules à venir: l'acide obéticholique et l'elafibranor.
Plus d'un milliard de malades du foie

Dans le monde, les maladies chroniques du foie (virales, alcoolique, métabolique...) touchent près d'un milliard de personnes. Loin derrière les hépatites virales, la Nash représente 10% d'entre elles mais elle pourrait atteindre 25% dans le futur, relève le Pr Patrick Marcellin, président du congrès.

En France, le nombre de Nash devrait augmenter inévitablement, s'inquiètent les spécialistes, compte tenu du tiers d'adultes en surpoids, et dont 15% présentent une obésité.

Samedi 4 Fevrier 2017 Le cristal temporel existe !

Norédine Benazdia, übergizmo (FR)

Le nom « cristal temporel » a l’air tout droit sorti d’un film de SF, et pourtant, il s’agit bien d’une réalité créée en laboratoire par des scientifiques géniaux. Avant d’aller plus loin, je dois tout de même vous prévenir que ces cristaux ne permettent pas de voyager dans le temps. Par contre, leur « découverte » est carrément géniale, et pourrait même mener à un joli prix Nobel.
C’est quoi, un cristal temporel ?

De la même manière qu’un cristal normal a une structure atomique qui se répète régulièrement dans l’espace, les cristaux temporels ont une structure atomique qui se répète aussi dans le temps.

Dans un article publié dans la Physical Review Letter, des chercheurs américains, sous la direction de Norman Yao de l’Université de Californie à Berkeley, expliquent comment fabriquer et mesurer les cristaux temporels.

Les cristaux temporels ont d’abord été fabriqués par des chercheurs de l’Université du Maryland il y a quelques mois. Pour ceux que ça intéresse (sinon, foncez au prochain paragraphe), l’équipe de l’Université du Maryland a créé des cristaux temporels à l’aide d’une chaîne unidimensionnelle d’ions d’ytterbium. Ils les ont frappés plusieurs fois avec deux lasers pour garder les ions hors de l’équilibre. Ils ont remarqué que la chaîne s’était établie dans un modèle stable et répétitif, bien que le matière elle-même était toujours hors de l’équilibre. C’est ainsi qu’est née une nouvelle forme de matière qui ne peut pas se maintenir dans un équilibre sans mouvement comme le diamant.
Une nouvelle forme de matière

« Ce ne serait pas super étrange si vous touchiez de la gelée et que vous constatiez qu’elle ne bouge pas comme elle devrait ? » explique Yao. À Harvard, une autre équipe est parvenue au même résultat en utilisant autre chose qu’une chaine unidimensionnelle d’ytterbium. Ils ont utilisé des centres d’inoccupation de l’azote très denses, en diamant, et sont parvenus aux mêmes résultats. Yao qui était aussi dans ce deuxième groupe de recherche en conclut donc qu’il s’agit d’une « nouvelle phase de la matière… Il s’agit d’un des premiers exemples de matière non-équilibrée. »



Les cristaux temporels ont été prédits en 2012 par Frank Wilczek, le lauréat du prix Nobel de Physique théorique.
Et ça sert à quoi ?

C’est une excellente question ! Parce qu’on en sait rien. Mais pas de panique. Même si les scientifiques n’ont pas encore trouvé d’utilité pour cette nouvelle matière, elle pourrait bien trouver sa place dans des domaines en plein développement comme celui de l’informatique quantique.

Nous sommes tout de même en présence du tout premier exemple de matière non-équilibrée. Et comme le dit Yao : « Au cours du dernier demi-siècle, nous avons exploré la matière en équilibre comme les métaux et les isolants. Nous commençons tout juste à explorer un tout nouveau domaine, celui de la matière non équilibrée ». Pour résumer, le potentiel de cette découverte est énorme, mais nous ne savons pas encore à quel point.

Samedi 4 Fevrier 2017 Le champ magnétique de la Terre va-t-il bientôt s'inverser et tous nous plonger dans le noir ?

Le champ magnétique de la Terre pourrait s’inverser d’ici 2 000 ans, selon deux chercheurs britanniques. Et causer une sacrée pagaille électrique dans le monde.



Entre le 28 août et le 2 septembre 1859, les habitants de Cuba et d’Honolulu ont été spectateurs d’un étrange spectacle : au-dessus de leurs têtes, des aurores boréales avaient envahi le ciel. Oui, oui, celles que l’on trouve normalement aux pôles Nord et Sud de la Terre.

En cause : la tempête solaire Carrington qui avait, l’espace de quelques jours, chamboulé le champ magnétique terrestre au point d’inverser temporairement les pôles Nord et Sud.



La tempête de Carrington n’a pas complètement inversé les pôles magnétiques terrestres, mais le danger est loin d’être derrière nous. Si le dernier retournement complet a eu lieu il y a 780 000 ans, le prochain tour de passe-passe pourrait survenir plus tôt que prévu. En 3 000 ans, le champ magnétique terrestre aurait perdu plus de 30 % de sa force.

Deux professeurs associés en géophysique de l'Université de Leeds ont rédigé un article pour le site The Conversation où ils suggèrent que les pôles magnétiques Sud et Nord pourraient s'inverser d'ici 2 000 ans.


Pourquoi c’est un problème ?



Le champ magnétique terrestre ne sert pas qu’à orienter les boussoles des scouts perdus dans la forêt. Son rôle est primordial dans la protection de la Terre : il crée autour d’elle un bouclier qui la protège des particules cosmiques chargées.

Sans lui, la plupart de nos appareils électriques partiraient en vrille, sans compter que son affaiblissement pourrait provoquer des lésions chez l'homme et affecter la biodiversité. Le coupable de ces sautes d’humeur soudaines et inexpliquées ? Les éruptions solaires, qui viennent perturber la charge du champ magnétique terrestre.

En 2003, une tempête solaire avait provoqué des coupures d’électricité en Suède et en Afrique du Sud et des perturbations du côté des avions et des satellites.


Le champs magnétique de la Terre la protège des particules chargées du soleil. Ian Cuming, Getty Images

La Terre n’est pas passée loin de la catastrophe non plus en 2012 : une éruption solaire de l’ampleur de celle de 1859 avait frôlé la planète, avait reconnu la NASA deux ans plus tard dans un communiqué.

"Si elle nous avait frappés, nous serions encore en train de recoller les morceaux", pouvait-on alors lire dans le communiqué. Selon l’Académie nationale des sciences (NAS), la catastrophe aurait coûté plus de 2 000 milliards de dollars à l’économie mondiale.

La date du prochain évènement géomagnétique ne peut être précisément anticipée, rappellent les scientifiques auteurs de l’article publié sur The Conversation. Mais une chose est sûre : la force du champ magnétique terrestre diminue.

Samedi 4 Fevrier 2017 Maladies inflammatoires et auto-immunes : découverte importante sur le système immunitaire

Une équipe internationale de chercheurs, dont les travaux sont publiés dans la revue Science, ont découvert une interaction insoupçonnée entre le système immunitaire inné et le système immunitaire adaptatif (acquis).

La découverte, estiment-ils, représente une avancée scientifique majeure ouvrant la voie à de nouveaux traitements pour les maladies auto-immunes et inflammatoires telles que les maladies inflammatoires de l'intestin.

La conception classique de l'activation immunitaire est que ces deux systèmes agissent indépendamment : les cellules de l'immunité innée, telles que les macrophages et les cellules dendritiques, reconnaissent les microbes envahisseurs et alertent ensuite les cellules immunitaires adaptatives, telles que les lymphocytes T, pour y répondre.

Claudia Kemper du King’s College London et 21 collaborateurs ont montré que des voies du système immunitaire inné sont également actives dans les lymphocytes T du système adaptatif et orchestrent les réponses immunologiques.

Le système immunitaire adaptatif (acquis) est celui qui produit des anticorps spécifiques contre des agresseurs particuliers (virus, bactéries…). Le système inné est une « "voie très ancienne" », explique Matt Cooper de l'Université de Queensland, coauteur. « "L'immunité innée est si vieille, qu'elle se trouve chez les grenouilles, les poissons et même les insectes" », dit-il.

Elle protège des infections lorsqu'elle s'attaque aux agresseurs étrangers, mais si elle s'active de façon inappropriée, elle peut provoquer des maladies comme l'arthrite, la sclérose en plaques et des maladies inflammatoires de l'intestin comme la colite ulcéreuse.

La découverte, écrivent les auteurs, « "contribue à la compréhension de l'immunobiologie et de l'évolution du système immunitaire." » Et, elle pourrait avoir des implications importantes pour le traitement de diverses maladies auto-immunes et inflammatoires.

« "L'inflammation dans des maladies telles que la colite survient lorsque le système immunitaire est activé de façon inappropriée." » Les traitements actuels ne sont pas toujours efficaces, probablement parce qu'ils ne bloquent que l'une des voies principales et que l'inflammation se poursuit par l'autre voie (la voie connue de la conception classique et la voie nouvellement découverte).

Les chercheurs ont développé deux petites molécules qui, chacune, bloque une voie. « "Nous avons testé ces molécules et les résultats montrent que les deux réduisent l'inflammation lorsqu'elles sont administrées séparément" », dit-il.

« "Ce travail en est encore dans ses premiers stades, mais nous avons bon espoir qu'il conduira à des traitements plus efficaces pour les millions de personnes souffrant de maladies inflammatoires de l'intestin" », dit-il.

Psychomédia avec sources : University of Queensland, Science.

Samedi 4 Fevrier 2017 Étrange et inquiétant : Une fissure géante se forme dans l'État d'Arizona

Dans l'État d'Arizona, une fissure géante s'est formée en plein désert. La cause de ce phénomène naturel demeure pour l'instant inconnue. Une fissure géante, dont la longueur dépasse trois kilomètres, s'est formée aux alentours des monts Tator Hills, dans le comté de Pinal, écrit le journal The Daily Mail.
Concernant la profondeur de cette dernière, les spécialistes d'un service géologique local, l'Arizona Geological Survey (AZGS), ne sont pas encore en mesure de la déterminer avec précision. Quoi qu'il en soit, la vidéo qu'ils ont réussi à tourner dans la foulée grâce à deux drones autoguidés permet d'en évaluer l'envergure.

D'après le journal, bien que les prémices de la fissure soient apparues en mars 2013, elle n'a pris de la profondeur qu'en 2014, une année où les pluies étaient abondantes dans la contrée. Selon Joe Cook, l'un des géologues d'AZGS, c'est la partie sud de la fissure qui s'est formée le plus récemment. Selon lui, il est possible qu'elle puise son origine dans une cavité souterraine, dont les couches supérieures ont été détruites progressivement par les moussons observées en 2016.

De telles fissures, poursuivent les géologues, ne sont pas rares dans l'État d'Arizona: la première d'entre elles a été découverte en 1929. Les fissures représentent un danger pour les amateurs de conduite extrême, ainsi que pour les troupeaux des fermiers locaux.

                                                  Les Derniere infos ( Suite )