Qu’est-ce qu’un séisme ? Depuis le grand tremblement de terre de San Francisco en 1906, on sait qu’il résulte du glissement brutal (rupture) le long d’une faille limitant deux blocs de roche.
À l’origine, les mouvements des plaques tectoniques qui se déplacent de quelques centimètres par an dans des directions différentes engendrent des accumulations de contraintes : elles se concentrent sur des discontinuités mécaniques de la lithosphère (partie de la croûte terrestre). Soit sur une faille, limite entre deux blocs tectoniques qui se déplacent l’un par rapport à l’autre.
Ces blocs ont un déplacement relatif lent et régulier. Si le contact entre les deux blocs (la faille) était « lisse » ou sans résistance, les blocs glisseraient de manière continue. À l’opposé, si le frottement dû à la rugosité du contact empêche ou ralentit ce mouvement, alors la faille ne glisse pas : elle est bloquée.
Insensibles à ce qui se passe près de leurs frontières, les plaques se déplacent toujours à la même vitesse. C’est donc leurs bordures qui vont bouger en accumulant la déformation élastique créée par le contraste entre le déplacement en « champ lointain » (c’est-à-dire à une certaine distance des limites de plaque) et le blocage (total ou partiel) local.
Le matériau élastique constituant la plaque va accumuler la déformation jusqu’à ce qu’elle soit suffisante pour faire « sauter » le blocage sur la faille : c’est le séisme. Par la suite, la faille va de nouveau se bloquer et le cycle accumulation lente – rupture sismique se reproduira à l’infini.
Relâchement des contraintes
La déformation en limite de plaques présentera donc une courbe typique en « dents de scie », alternant de longues périodes de blocage avec accumulation de déformation et de brefs instants de déplacements quasi instantanés correspondant à la rupture et au relâchement des contraintes.
Les modèles les plus simples, établis dans les années 1980, se fondaient sur un cycle régulier avec la répétition de séismes similaires (on parle de séisme caractéristique) à intervalle de temps constant (on parle de récurrence ou de période de retour).
Ce modèle semble fonctionner dans certains cas, mais des situations plus complexes existent. D’une part, le séisme n’absorbe pas forcément toute la déformation accumulée. D’autre part, les lois de friction sur le plan de faille sont suffisamment complexes pour imaginer qu’elles puissent varier au cours des cycles, par exemple en augmentant si le séisme se fait attendre ou au contraire en diminuant s’il a été particulièrement puissant.
Ces mécanisme de rétroaction positive amènent à concevoir l’existence de longues périodes de quiescence (c’est-à-dire que la faille est collée par une friction d’autant plus forte qu’elle se renforce avec le temps) suivies de cascades de séismes de taille variée (la faille rompt d’autant plus facilement qu’elle a rompu il y a peu). Ce n’est qu’au bout d’un temps assez long, cumulant beaucoup de cycles sismiques différents, que le déplacement cumulé sera comparable à la vitesse long terme des plaques tectoniques.
Difficultés de la prévision
Dans ces conditions, comment prévoir la survenue de séismes ? L’exercice se fonde sur la notion de temps de retour. On a une idée des récurrences sismiques via l’histoire (parfois un millénaire, plus fréquemment quelques centaines d’années), mais aussi par des études sur les temps anciens, dites de paléosismicité (plusieurs millénaires).
Dans le cas simple d’une récurrence stable d’un séisme caractéristique établie sur plusieurs cycles, il est envisageable de prévoir que le prochain séisme s’approchera du séisme caractéristique et se produira au terme de la période de retour.
On parle ici de prévision à long terme, loin d’être parfaite. L’exemple de la faille de Parkfield (Californie) montre que des incertitudes larges, aussi longues que la période de retour, sont à envisager.
Dans tous les autres cas, la prévision se bornera à identifier la localisation et la taille de la zone bloquée qui accumule de la déformation, ainsi que la quantité de déformation accumulée au cours du temps sur cette zone, mais ne permettra de formuler aucune hypothèse sur la taille et la date du prochain séisme.
Approche statistique
La récurrence à long terme des séismes peut néanmoins être approchée statistiquement, à l’échelle régionale, sans connaître le cycle sismique de chaque faille. La distribution du nombre de séismes dépassant une magnitude donnée suit en effet une loi statistique dite de Gutenberg-Richter, essentielle au calcul de l’aléa sismique à long terme, qui établit qu’une unité de magnitude supplémentaire divise par 10 le nombre de séismes.
Cette loi permet de prédire théoriquement la probabilité d’occurrence (période de retour) d’événements de forte magnitude (souvent peu documentés), à partir de la connaissance, bien mesurée, des plus petits.
Mais cette distribution est obtenue en supposant que le taux de sismicité est constant et que la magnitude de chaque séisme est indépendante de celle des séismes précédents, ce qui est une approximation très forte, aujourd’hui largement remise en question.
Enfin la définition d’une magnitude maximale pour une région donnée reste très controversée, ce qui est une difficulté majeure pour certaines évaluations d’aléa sismique, notamment les installations à risque spécial en France. Quant à la prévision à court terme (quelques jours), elle reste impossible tant que l’on ne dispose pas des moyens d’identifier et d’observer les mécanismes précédents et déclenchant la rupture.
Répliques et précurseurs
Tout séisme est suivi de répliques, lesquelles sont simplement d’autres séismes de magnitude dans la plupart des cas inférieure à celle du choc initial, affectant des segments ou aspérités épargnés de la faille principale, ou des failles voisines. Elles sont déclenchées par une augmentation des contraintes statiques ou dynamiques et l’affaiblissement transitoire des failles perturbées.
Le taux de sismicité de ces répliques décroît en inverse du temps écoulé après le séisme (loi d’Omori), et la magnitude de la réplique principale est, en moyenne, inférieure d’environ une unité à celle du choc principal.
Comme tout ensemble de séismes, les répliques obéissent à la loi de Gutenberg-Richter. Une fois encore, ces lois statistiques bien connues sur les corrélations spatio-temporelles des séismes permettent des prédictions probabilistes fiables, mais nécessairement très imprécises sur le lieu, la magnitude, et l’instant des plus grosses répliques.
Cascades sismiques
Il est ainsi possible – mais rare – d’observer des répliques de magnitude équivalente à celle du choc principal : il s’agit alors de « cascades » sismiques, comme un effet de domino d’un segment de faille à l’autre. Il peut aussi être observé, encore plus rarement, des répliques de magnitude supérieure : on parle alors (mais après coup !) de précurseur pour caractériser le séisme initial.
Plus généralement, de nombreuses études ont montré, statistiquement, mais aussi de manière déterministe, que l’occurrence d’un essaim sismique (un grand nombre de séismes de magnitude faible à modérée concentrés dans le temps et l’espace) conduit à une augmentation nette de la probabilité d’occurrence d’autres forts séismes à proximité. Probabilité dont la valeur reste cependant inférieure à la dizaine de pour cent pour le mois à venir, et donc délicate à exploiter à des fins d’alerte.
Une meilleure caractérisation de ces essaims, en particulier par la recherche de leur éventuel forçage par des glissements transitoires des failles profondes et/ou la propagation de « pulses » de pressions de fluides, sont les voies de recherche privilégiées, mais difficiles, pour améliorer nos capacités prédictives.
Haute variabilité
Le mécanisme de rupture est donc à haute variabilité, pour de nombreuses raisons liées au processus d’initiation de la rupture (dit nucléation), à la complexité des failles, à l’hétérogénéité des contraintes accumulées, ou aux propriétés frictionnelles de la faille qui varient avec le temps et la vitesse de glissement (régime « durcissant » favorisant le glissement asismique, ou « adoucissant » favorisant la nucléation de séismes).
Par ailleurs, on sait maintenant que le déclenchement de la rupture sismique est très sensible aux sollicitations statiques et dynamiques provenant d’autres séismes, même à grande distance (plusieurs milliers de kilomètres), la notion de « distance de déclenchement » étant relative à la taille de la source.
Ainsi, la notion de séisme caractéristique est maintenant abandonnée au profit de modèles de rupture plus complexes caractérisés par des cycles variables (en durée et en magnitude), en sus desquels s’insèrent éventuellement des méga-séismes (superquakes) sans que l’on sache exactement s’ils s’inscrivent dans la loi de Gutenberg-Richter et font partie d’un super cycle ou non.
Les mesures géodésiques et sismologiques permettent depuis une quinzaine d’années de cartographier le couplage intersismique entre grandes plaques (notamment dans les zones de subduction) et d’évaluer quelles zones sont bloquées (et donc susceptibles de rompre lors d’un futur grand séisme).
Des zones où le couplage est plus faible (voire nul) sont aussi détectées. Elles modifient le bilan de glissement et l’évaluation du cycle et sont aussi importantes à identifier car elles peuvent jouer le rôle de barrière à la propagation de la rupture sismique.
Enfin des épisodes de glissement lent (appelés séismes lents ou slow slip events, plus lent que les séismes classiques, mais plus rapides que le mouvement séculaire des plaques), ont été observés dans plusieurs zones de subduction.
Ces événements sont parfois équivalents à des séismes de magnitude 7.5. Leur contribution au cycle sismique est difficile à estimer en cela qu’elle dépend de leur capacité à relâcher tout ou partie des contraintes accumulées, et ainsi à retarder le prochain séisme ou à en réduire la magnitude, ou au contraire à préparer l’interface là où se produit le glissement lent à une rupture prochaine, ou encore à déclencher une rupture dans un segment adjacent par augmentation des contraintes.
Tout cela rend encore plus difficile la prédiction de l’occurrence de grands séismes à court terme, sauf si l’on arrivait à repérer des phases d’initiation de la rupture sismique pour qu’elles deviennent des marqueurs. C’est difficile, car contrairement aux météorologues qui disposent de mesures diverses et variées dans l’atmosphère (profils de températures, pression, hygrométrie…) qui leur permettent de prévoir le temps, les sismologues ne disposent pas de capteurs positionnés à l’intérieur de la croûte terrestre. Toutes les mesures se font depuis la surface et renseignent les scientifiques sur ce qui se passe en profondeur de manière indirecte.
Christophe Vigny
Directeur de recherches CNRS, laboratoire de Géologie de l’ENS (UMR8538 du CNRS), Département Geosciences, École Normale Supérieure, École Normale Supérieure (ENS) – PSL
Commentaires : des signes précurseurs ?
Philippe Jamel
logged in via Facebook
Pourquoi on ne peut pas les prévoir ? En fait c’est que les capteurs existent, mais les déployer coutent cher, les capteurs sont automatiques mais le fait de surveiller les résultats de ces capteurs et alarmer le public n’est pas automatique. Les sismographes gèrent les secondes avant, la surveillance de la ionosphère et des gazs (radon etc) cela gère un ou deux jours avant. Mais là encore rien n’est automatisé.
L’espoir serait de surveiller et de publier en temps réel la qualité des eaux souterraines d’alimentation (sulfates, chlorides, radons …en augnentation) d’après les chercheurs du Japon : cela permettrait de “voir” arriver les seismes plusieurs jours avant. Bien sur, cela n’est pas encore en place parce qu’ils viennent de découvrir ces faits depuis peu : même si Namazu est une légende, si les poissons silures sont anormalement agités avant les seismes, c’est qu’ils sont tout simplement sensibles à la pollution de l’eau qui précède le tremblement de terre.
Christophe Vigny
Directeur de recherches CNRS, laboratoire de Géologie de l’ENS (UMR8538 du CNRS), Département Geosciences, École Normale Supérieure, École Normale Supérieure (ENS) – PSL
In reply to Philippe Jamel
votre commentaire fait référence à d’éventuels signaux précurseurs (des secondes, des minutes, des heures, des jours, des semaines, des mois, …) avant un séisme. la question au sens large est : y en a t-il ? si oui, quels sont-ils ? et puis y en a t-il toujours (ou est-ce qu’il y a des séismes qui se produisent sans prévenir) ? et dans l’autre sens, est-ce que tous les signaux précurseurs sont suivis de séismes ? et enfin est-ce que les éventuels signaux précurseurs donnent une idée de la magnitude du séisme qui va suivre ? Toutes ces questions sont très importantes si on veut utiliser ces éventuels précurseurs comme signal d’alarme. En effet, difficile de dire à une population “attention, séisme de taille inconnue (d’insignifiant à terriblement destructeur) dans peut être 3 jours, mais peut être pas” ;
alors quels sont ces éventuels signaux précurseurs ?
vous évoquez les émanations de gaz, par exemple radon ; des perturbations électro-magnétiques dans l’ionosphère ; des modifications comportementales d’espèces animales particulièrement sensibles…
première remarque : s’ils existent, tous ces signaux se produisent bien en surface (ou quelques centaines de mètres de profondeur), donc en fait loin de la faille qui va rompre (en général entre 5 et 50 km de profondeur). L’argument du texte “la difficulté vient du fait que l’on n’a pas de capteur dans la croûte terrestre” est bien réel.
Mais sinon, tous les signaux que vous mentionnez ont en effet été rapportés à de nombreuses reprises. On peut d’ailleurs imaginer assez raisonnablement qu’ils sont la conséquence de la même chose : le glissement sur la faille commencerait très très lentement, un certain temps avant la rupture proprement dite. Un peu comme le parapluie posé en équilibre contre le mur, qui tient un certain temps avant de glisser et tomber. en réalité il commence à glisser dès qu’il est posé, mais de manière imperceptible (des microns par seconde ?), et son glissement s’accélère jusqu’à devenir perceptible (des millimètres par seconde) par le bruit du glissement sur le mur, puis enfin le bang de la chute sur le plancher. Le bruit du glissement est bien un précurseur au bang final. Pour revenir à la faille, le glissement pourrait donc commencer avant le séisme. Alors plusieurs choses se produisent : les roches commencent à se fracturer, libérant le gaz qu’elles piègent, ce gaz remontent vers la surface assez vite pour y être détecté avant la rupture, avec un temps qui dépend de la profondeur de la source, de la perméabilité du sol, du flux de gaz, etc…. Des capteurs disposé au sol enregistreraient cela. Autre chose : la fracturation des roches entrainerait de la circulation d’autres fluides (de l’eau en premier lieu) et donc des modification de propriétés electro-magnétique des roches, qui à leur tour se propageraient vers la surface puis dans l’ionosphère (la couche électrique qui enveloppe la Terre au delà de l’atmosphère). des capteurs disposés au sol ou en l’air enregistreraient cela. Puis, les aspérités plus importantes de la faille commenceraient à lâcher les unes après les autres (comme un câble qui casse toron après toron avant de rompre d’un coup), ce qui donnerait lieu à une micro-sismicité (des petits séismes insensibles aux être humains mais parfaitement détectables par des réseaux de sismographes locaux). Enfin, toutes ces perturbations, et en particulier la micro-sismicité et les émanations de gaz, causeraient de l’agitation chez les espèces animales particulièrement sensibles.
Malheureusement, les problèmes demeurent…
Radon : oui des émanations anormales de Radon ont été rapportées dans des centaines de cas, avant des séismes et aussi après (je peux en témoigner moi-même pour l’avoir senti quelques secondes après un séisme au Sud du Chili alors que j’installai des instrument sur la faille même qui allait rompre) . Mais il n’y a pas de corrélation claires : beaucoup de ces séismes se produisant très loin des sources détectées (des centaines voire des milliers de km) ; il n’y a aucun rapport entre la taille de l’émanation de radon et la magnitude du séisme ; les émissions de radon fluctuent beaucoup sans qu’aucun séisme ne se produise ; et surtout, des centaines de séismes se produisent sans qu’on n’ait rien détecté (alors qu’il y avait bien des capteurs)…. bref, il y a peut être une relation de cause à effet dont on ne maitrise pas tous les paramètres, mais surtout beaucoup de fasses alarmes et d’absence d’alarme. bref, un système d’alerte basé sur le radon serait extrêmement peu fiable.
Ionosphère : En effet, des perturbations ionosphériques (mesurées par de satellites portant des magnétomètres ou révélées par des anomalies dans les signaux GPS par exemple) ont été signalées. Le problème (peut être comme pour le radon) est que l’Ionosphère est un milieu très complexe et très agité, dans laquelle des perturbations sont très fréquentes. Donc en réalité, si vous cherchez des signaux avant un séisme, vous en trouvez toujours. Mais la encore : aucune relation entre la taille du signal et la taille du séisme qui suit et une très grande variabilité entre le moment ou la perturbation est signalée et l’instant du séisme, et des perturbations non suivies de séismes et des séismes non précédés de perturbation.. bref, la encore un signal peu fiable, et dans tous les cas extrêmement controversé : pour avoir regardé moi-même les données GPS acquises autour des séismes géants du 21e siècle (Sumatra 2004, Chili 2010 et Japon 2011), je pense que les signaux précurseurs sont en fait des artefacts dus au traitement du signal.
Agitation animale. je ne suis pas biologiste spécialiste du comportement animal, mais il me semble qu’en réalité les animaux sont souvent agités, et pour toutes sortes de bonnes et mauvaises raisons, difficiles à discerner. Alors autant il est relativement facile de se souvenir après coup que les serpents avaient disparus ou que les éléphants étaient inquiets (ce qu’on a dit en Thailande pour le séisme de 2004), autant si on annonçait un séisme à chaque fois, on se tromperait souvent.
micro-sismicité en augmentation. Ce point est très bien documenté. Et en effet, avant certains séismes (en particulier celui d’Izmit en Turquie en 2000, ou celui d’Iquique au Chili en 2014 ) les réseaux de sismographes locaux ont parfaitement detectés une augmentation de la sismicité avant le grand séisme. c’est bien sur aussi le cas du fameux séisme de l’Aquila en Italie en 2009, et de beaucoup d’autres. Mais la encore, le problème est le même que pour tous les autres signaux : Beaucoup de séismes se produisent sans qu’on ait rien mesuré avant. Beaucoup (en fait 98%) de ces crises sismiques (micro sismicité en augmentation) “avortent”, sans qu’un grand séisme se produise. Cela laisse 2% de cas dans lesquels un grand séisme se produit au terme de la crise et c’est déjà une probabilité très élevée par rapport à la situation sans crise sismique, mais qui annule un picnic parce qu’il y a 2% de chance de pluie ? et puis surtout, la crise peu durer quelques jours, quelques semaines ou quelques mois avant de finir, avec ou sans séisme majeur… la encore l’alarme n’est pas très efficace…
Bref, on en revient toujours à la même chose : on sait (on pense savoir) estimer des probabilités qu’un séisme de taille donnée se produise à un endroit donné , dans une certaine fenêtre de temps. Mais d’une part on se débat avec des probabilités faibles (de l’ordre du %), et d’autant plus faibles qu’on la veut sur une fenêtre de temps court, et d’autre part aucun indicateur n’est ni quantitatif ni fiable. Pour prolonger le parallèle avec la météo, prédire un orage ce n’est pas dire “il va pleuvoir, .. bientôt,… peut être ..” c’est bien dire “il va tomber tant de mm d’eau, à tel endroit, de telle heure à telle heure”. Là seulement, on peut agir de manière efficace. Comme disait un grand sismologue “prédire les séismes est un exercice difficile, surtout à l’avance”.