L’Italia è uno dei pochi paesi al mondo ad aver sviluppato un sistema per la previsione probabilistica dei terremoti. Si chiama Operational Earthquake Forecasting-Italy (OEF-Italy) e viene gestito dal Centro di Pericolosità Sismica dell’Istituto Italiano di Geofisica e Vulcanologia (INGV).
Prevedere la data e il luogo esatti in cui si verificherà un terremoto è impossibile. Tuttavia, si possono formulare delle previsioni probabilistiche, sfruttando il fatto che i terremoti tendono a concentrarsi nel tempo e nello spazio. Questa l’idea alla base dell’operational earthquake forecasting, in italiano “previsione probabilistica operativa”. Questo tipo di previsioni funzionano meglio nel breve termine, ovvero riguardo il giorno o la settimana successiva.
Oltre all’Italia anche Stati Uniti, Nuova Zelanda, Cina, Giappone e Germania hanno sviluppato sistemi simili. Tuttavia, secondo una recente rassegna solo in Italia, Stati Uniti e Nuova Zelanda sono maturi abbastanza da poter informare decisioni di interesse pubblico. Per esempio, negli Stati Uniti le previsioni probabilistiche formulate dall’USGS vengono sfruttate dalla Federal Emergency Management Agency (FEMA) per stabilire la durata dello stato di calamità in una certa area.
I modelli inclusi nei sistemi di previsione probabilistica operativa devono essere valutati in modo indipendente e trasparente. Nel sistema italiano, i modelli sono accettati solo se preventivamente sottoposti alla valutazione del Collaboratory for the Study of Earthquake Predictability (CSEP). Il CSEP, stato fondato nel 2006 dall’allora Southern California Earthquake Center (SCEC), coinvolge oggi Stati Uniti, Europa, Giappone e Nuova Zelanda.
Uno dei compiti del CSEP è condurre esperimenti controllati per la valutazioni dei modelli relativi alle diverse aree geografiche. «L’idea è quella di trovare un quadro comune per valutare, confrontare e comprendere i modelli di previsione», spiega Marcus Herrmann, sismologo dell’Università di Napoli, Federico II, che fa parte del CSEP.
In un nuovo studio, Herrmann insieme a Warner Marzocchi, sismologo della Federico II e iniziatore del sistema di previsione probabilistica operativa in Italia, e a un gruppo di statistici dell’Heidelberg Institute for Theoretical Studies, hanno passato al setaccio i test di valutazione adottati dal CSEP, confermandone l’impianto generale ma suggerendo alcuni aggiustamenti. A guidare il gruppo di statistici in questo lavoro era Tilmann Gneiting che ha dedicato la sua carriera alla teoria delle previsioni in diversi campi, dall’economia alla finanza, passando dal meteo e dalle scienze della terra.
Il terremoto de L’Aquila e la nascita del sistema italiano
Il 22 ottobre 2012 sei membri della Commissione Grandi Rischi vennero condannati a sei anni di reclusione per aver rassicurato la popolazione, al termine di una riunione tenutasi il 31 marzo a L’Aquila riguardo la possibilità che scosse più forti e pericolose di quelle registrate in quei giorni potessero verificarsi nel breve termine. Secondo la sentenza, le loro dichiarazioni dissuasero gli abitanti dall’adottare misure di sicurezza preventive causando la morte di 29 di loro e il ferimento di altri quattro.
La condanna, poi ribaltata in appello con l’assoluzione completa, condiziona ancora oggi il rapporto della comunità scientifica con le istituzioni in Italia.
Una conseguenza meno nota di quel processo fu l’istituzione, da parte della Protezione Civile, di una commissione internazionale sulla previsione dei terremoti.
La conclusione a cui giunse la commissione fu che i metodi deterministici, quelli basati sulla ricerca di segnali precursori nei fenomeni più vari (dal radon al comportamento degli animali) non avevano prodotto fino ad allora—e possiamo dire che ancora oggi è così—previsioni affidabili.
La commissione individuava invece una strada promettente nell’approccio probabilistico, e in particolare nell’operational earthquake forecasting, introdotto qualche anno prima da sismologi statunitensi ispirandosi alle previsioni meteorologiche.
All’epoca, diversi paesi, tra cui l’Italia, avevano iniziato a sviluppare simili modelli di previsione ma nessuno era maturo abbastanza da poter essere utilizzato per le decisioni.
Cinque anni dopo il terremoto de L’Aquila, l’Istituto Nazionale di Geofisica e Vulcanologia presentò il primo sistema per la previsione operativa dei terremoti.
Dal 2013 il sistema produce, in tempo reale, previsioni sette giorni in avanti, sfruttando i dati del monitoraggio sismico che vengono man mano accumulati. La previsione consiste nel numero di eventi sismici attesi con una certa magnitudo nei sette giorni successivi in celle di dieci chilometri di lato che coprono l’intero territorio nazionale.

Interfaccia grafica del sistema OEF-Italia. Da: Mizrahi, L., Dallo, I., van der Elst, N. J., Christophersen, A., Spassiani, I., Werner, M. J., et al. (2024). Developing, testing, and communicating earthquake forecasts: Current practices and future directions. Reviews of Geophysics, 62, e2023RG000823. https://doi.org/10.1029/2023RG000823. (CC BY 4.0)
I modelli sfruttati per la previsione sono tre e vengono combinati in un unico modello chiamato ensemble con pesi diversi a seconda della loro performance. Il sistema permette di aggiungere nuovi modelli all’ensemble, purché questi siano stati sottoposti alla valutazione del CSEP.
Le previsioni vengono comunicate al Dipartimento della Protezione Civile e alle Regioni, ma non sono ancora prese in considerazione per la gestione del rischio sismico.
Gli “esperimenti” di previsione
In ciascun esperimento condotto dal CSEP vengono stabilite regole chiare. «Prima dell’esecuzione dell’esperimento, tutto viene specificato: la soglia di magnitudo, l’orizzonte temporale della previsione, la regione, il formato della previsione», spiega Herrmann e aggiunge «una volta che un modello è stato inserito nell’esperimento, non può più essere modificato. È l’organizzazione a gestire i modelli e produrre le previsioni», aggiunge.
Gli esperimenti CSEP possono essere paragonati ad altre competizioni nel mondo della scienza, come CASP per la struttura delle proteine o ImageNet Large Scale Visual Recognition Challenge per la visione artificiale, e servono a stimolare il confronto tra i ricercatori e il miglioramento dei modelli.
Per l’Italia ne sono stati realizzati due. Il primo è cominciato nel 2010 e terminato nel 2020, il secondo è cominciato nel 2024 ed è tuttora in corso.
«L’obiettivo non è solo trovare il modello migliore, cosa che non è sempre possibile, ma anche capire quali approcci sono più promettenti», commenta Herrmann.
Come vengono valutate le previsioni?
CSEP valuta i modelli attraverso diverse metriche che si occupano di aspetti diversi.
La valutazione di più alto livello è effettuata attraverso delle funzioni di penalizzazione calcolate sull’intero insieme di previsioni prodotte dal modello confrontandolo con le osservazioni.
Un esempio è il seguente. Consideriamo un modello che prevede il numero medio di terremoti sopra un certa magnitudo che si verificheranno nell’arco della settimana seguente su una griglia composta da circa 9000 celle che copre l’intero territorio italiano. Ripetiamo questa previsione ogni giorno per un anno. Il risultato saranno circa tre milioni di numeri che possono essere confrontati con il numero di terremoti osservato in ciascuna cella nell’arco dell’anno. Per ogni giorno si assegna al modello una penalità che è tanto più grande quanto più la previsione si discosta dall’osservazione. Sommando le penalità giornaliere si ottiene una valutazione della qualità delle previsioni sull’intero periodo considerato.
Il modo in cui la penalità cresce con la differenza tra previsione e osservazione deve rispettare alcune regole matematiche che ne garantiscono la consistenza, ovvero il fatto che se si potesse formulare una previsione basata sul modello “vero” (quello che descrive l’occorrenza dei terremoti e che noi non conosciamo), quella previsione otterrebbe la minima penalità in assoluto.
Questo tipo di valutazione permette di stabilire una classifica tra i modelli, dal migliore, quello con penalità inferiore, al peggiore, quello con penalità maggiore. Altre valutazioni puntano invece a capire se due modelli producono previsioni statisticamente distinguibili. Un esempio è quello del cosiddetto information gain, ovvero di quanto migliora una previsione se il modello può tenere conto di un terremoto osservato in più.
Cosa cambiare?
Herrmann, Marzocchi, Gneiting e coautori hanno considerato le metriche adottate da CSEP per la valutazione dei modelli di previsione probabilistica e ne hanno studiato i fondamenti statistici.
CSEP, come altri sistemi di valutazione delle previsioni sismiche, usa una funzione di penalizzazione logaritmica. Questa deriva dall’assunzione che il processo che genera i terremoti sia un processo di Poisson, ovvero un processo in cui gli eventi avvengono con un tasso costante nel tempo. Questo tipo di processi sono adatti a descrivere una grande varietà di fenomeni, come il numero di clienti che arriveranno allo sportello bancario in un certo periodo di tempo, le chiamate a un call center, gli incidenti a un incrocio.
L’ipotesi che i terremoti avvengano con un tasso costante nel tempo è tuttavia molto semplificativa e fatica a descrivere, per esempio, gli sciami sismici, in cui la frequenza dei terremoti aumenta nel tempo per poi diminuire.
Herman, Marzocchi e coautori hanno mostrato che una funzione di penalizzazione logaritmica è consistente anche se l’occorrenza dei terremoti non è un processo di Poisson e che esistono però molte altre scelte altrettanto valide. «Nello studio dimostriamo che la scelta del punteggio CSEP è statisticamente fondata, anche se originariamente non era stata derivata in questo modo e che la penalizzazione di Poisson è solo una delle infinite funzioni accettabili», commenta Herrmann. Ognuna di queste scelte restituisce una classifica diversa dei modelli considerati nello studio, che sono cinque tra i 19 inclusi nell’esperimento CSEP per l’Italia.
Gli autori hanno poi considerato il confronto tra coppie di modelli.
In generale, la superiorità di un modello rispetto a un altro si basa sulla definizione di una variabile che segue una distribuzione gaussiana nel caso in cui le previsioni prodotte dai modelli siano statisticamente indistinguibili. Sulla base delle osservazioni, si calcola il valore assunto da questa variabile. Se la probabilità di ottenere quel valore nell’ipotesi gaussiana è molto piccola (convenzionalmente si scelgono valori inferiori all’1% o al 5%) si può concludere che le previsioni non hanno la stessa qualità e che uno dei due modelli è migliore dell’altro. Herrmann e coautori hanno constatato che c’è un errore nella definizione della variabile usata per questo test dal CSEP. «Correggendo questo errore, alcuni modelli che sembravano superiori rispetto ad altri non lo sono più», spiega Herrmann.
«In questo studio abbiamo integrato la sismologia con le più moderne tecniche di valutazione statistica delle previsioni», commenta Herrmann e aggiunge «questi strumenti sono verificati da matematici e statistici che lavorano in altri settori e ora sono a nostra disposizione.»
Secondo il ricercatore una valutazione rigorosa è un prerequisito per una comunicazione responsabile con chi poi prende le decisioni. «Solo dopo aver sottoposto un modello a una valutazione rigorosa si può dire di avere fiducia nei propri risultati e quindi condividerli con i decisori», conclude Herrmann.







