Predicción de sismos, uno de los grandes retos de la tecnología

La historia de la humanidad está llena de ejemplos en los que desastres naturales como los terremotos han causado centenares de muertes y miles de millones en daños materiales. Sin ir más lejos, en España, los últimos casos nos llevan a Lorca, en Murcia, donde el pasado mes de mayo un terremoto de magnitud 5.1 en la escala Richter, causó diez muertos y más de 300 heridos; o a la isla de El Hierro, en el archipiélago canario, que desde el pasado mes de julio ha sufrido más de 10,000 sismos menores (de un máximo de 4.6 de magnitud). Además, hace poco más de un mes se detectaron bocas submarinas en el volcán de El Hierro y, desde entonces, unos 11,000 habitantes viven en alerta ante posibles terremotos y erupciones del volcán. De hecho, a día de hoy, hay unas 650 personas desalojadas, la mayoría al sur de la isla.

Previsión
Cada vez que un desastre de estas características azota al país, surge la pregunta de si podía haberse evitado. ¿Es posible predecir los terremotos de la misma forma que se predicen otras catástrofes naturales como los huracanes o los tsunamis? En concreto, se cuestiona en muchas ocasiones la precisión y rapidez de las previsiones. Por ello, el papel de los geólogos está cambiando y requiere herramientas más adecuadas. Así, para realizar análisis sísmicos más precisos estos profesionales necesitan ser más expertos en formaciones geológicas y también aprender programación de software de bajo nivel con el fin de analizar rápidamente grandes conjuntos de datos, la denominada HPC o informática de alto rendimiento.

Y es que, el primer paso para evitar un desastre natural es poder anticiparse ya que, aunque la mayoría de las catástrofes naturales son inevitables, su daño será menor cuanto más se esfuerce el ser humano en vigilar su evolución y en estar preparado para paliar sus efectos.

De acuerdo con el Instituto Geográfico Nacional, “a pesar de los esfuerzos de muchos hombres y mujeres dedicados al estudio de la Tierra, tanto en España como fuera de nuestras fronteras, por el momento no es posible predecir cuándo y dónde se producirá un terremoto. Sin embargo, los terremotos se seguirán produciendo y con más frecuencia en las regiones donde han sido relativamente comunes en épocas anteriores”.

Es esta última afirmación la clave en la que se basan algunos profesionales para intentar predecir un posible temblor de la tierra. 

Tecnologías
Sin ir más lejos, investigadores de la Universidad Pablo de Olavide (UPO) y la de Sevilla (US) han encontrado patrones de comportamiento que se producen antes de un terremoto en la Península Ibérica. El equipo ha utilizado técnicas matemáticas de agrupamiento (clustering) para predecir movimientos sísmicos de magnitud media o alta (es decir, superiores a 4.4 en la escala Richter, cuando confluyen determinadas circunstancias. La investigación, publicada por la revista “Expert Systems with Applications”, parte de los datos recogidos por el Instituto Geográfico Nacional sobre 4.017 terremotos, de magnitudes entre 3 y 7, ocurridos en la Península Ibérica y mares que la rodean entre 1978 y 2007. Los científicos aplicaron sobre los registros técnicas matemáticas de clustering o agrupamiento, lo que permitía encontrar similitudes entre ellos y descubrir patrones que ayuden a predecir un terremoto, con una probabilidad de acierto del 80%.

Según Juan Nasarre, director de MathWorks, empresa que desarrolla tecnología para este fin, “en los últimos años, la tecnología de predicción de seísmos ha realizado grandes avances y las predicciones son mucho más precisas. Además, estoy convencido de que esta tecnología se irá mejorando en un futuro”.

Los organismos de todo el mundo dedicados a la predicción de seísmos emplean diversas soluciones tecnológicas. “En nuestro caso, -apunta Nasarre, “el entorno MATLAB y sus generadores de código automático, permite a los geólogos concentrarse en los algoritmos y modelos sísmicos y no en la programación a bajo nivel, y escalar sus aplicaciones desde su PC de escritorio a clusters sin necesidad de reescribir el código para determinadas arquitecturas HPC”. Se trata de una evolución de los lenguajes técnicos informáticos y entornos de desarrollo para aprovechar al máximo la velocidad de procesamiento HPC y la escala sin la necesidad de escribir código complejo y arquitectura de hardware específicos, explica.

Un ejemplo de aplicación de este enfoque es el Consortium for Research in Elastic Wave Exploration Seismology (CREWES), un grupo de geofísicos de investigación aplicada que se concentra en la adquisición, análisis e interpretación de datos sísmicos de componentes múltiples. El CREWES está dirigido por el Profesor Gary Margrave de la Universidad de Calgary y desarrolla la biblioteca de rutinas de análisis numéricos geofísicos con MATLAB, la cual se orienta a la investigación y la enseñanza de la sismología de exploración. Se trata de un consorcio de más de 25 empresas de energía y producción, así como grupos sin fines de lucro en todo el mundo académico usan este software. 

El MareNostrum colabora en las predicciones para el volcán de El Hierro
El Barcelona Supercomputing Center (BSC) está colaborando con el Instituto Geográfico Nacional en el pronóstico de una eventual dispersión de cenizas que se podría producir durante la erupción en la isla canaria de El Hierro. Gracias al uso del superordenador MareNostrum, los expertos tienen a su disposición pronósticos de viento y de caída de cenizas que les ayudarían a mitigar el impacto en caso de producirse una erupción explosiva. “El MareNostrum permite disponer de pronósticos meteorológicos diarios a alta resolución espaciotemporal así como considerar distintos escenarios eruptivos que serían muy útiles a científicos y autoridades del Plan Especial de Protección Civil y Atención de Emergencias por Riesgo Volcánico en la Comunidad Autónoma de Canarias (PEVOLCA) para anticipar la respuesta”, explica Arnau Folch, vulcanólogo e investigador del BSC.

Estas previsiones son una realidad gracias a las sinergias entre los departamentos de Aplicaciones Computacionales en Ciencia e Ingeniería (CASE, en sus siglas en inglés) y de Ciencias de la Tierra del BSC, que están combinando modelos meteorológicos y de transporte atmosférico de cenizas. Así, para predecir la trayectoria de una eventual nube de cenizas (que podría afectar al tráfico aéreo a nivel local) y la cantidad de material que se depositaría en el suelo, se consideran campos de viento a alta resolución (2 km.) y diferentes escenarios eruptivos. En definitiva, según Folch, “la supercomputación nos permite resolver problemas muy grandes, o muchos problemas no tan grandes muy rápidamente, es decir, considerar múltiples escenarios distintos”.

-IDC News