El cambio climático II: lo que (no) sabemos
Anterior artículo:
Uno de los grandes problemas que encontramos a la hora de enfrentarnos al desafío del calentamiento global es que se apoya en modelos climáticos que, por muy sofisticados que sean, presentan limitaciones importantes. Tanto es así que hoy sabemos que dichos modelos están errando por sobreestimación. El siguiente gráfico nos muestra la relación entre las anomalías de temperatura pronosticadas por los modelos climáticos con las anomalías de temperatura medidas en la realidad:
La línea gris es la media de anomalías de temperatura pronosticadas por los modelos, mientras que la línea roja es la media de anomalías de temperatura pronosticadas por los modelos quitando aquellos que más calentamiento predicen. La franja gris y la franja rosa muestran los rangos máximos y mínimos de ambos grupos de modelos. Por su parte, la línea negra son las anomalías de temperatura medidas realmente: como puede comprobarse, en todos los casos las temperaturas reales se sitúan por debajo de la media prevista.
Este desfase no es extraño si se considera que, pese al enorme avance computacional desde la década de 1970, los modelos climáticos actuales siguen siendo imprecisos y con un gran margen de incertidumbre. Un ejemplo es la llamada sensibilidad climática (el aumento de temperatura al doblarse la concentración de CO2), cuyo rango estimado oscila todavía en más de 3 grados.
Además, dichos modelos se construyen en función de una serie de parámetros preestablecidos, y para que sus predicciones fueran correctas, o al menos cercanas a la realidad, sería necesario conocer suficientemente todos los factores que intervienen en el clima, y aún los desconocemos en gran medida. Ni siquiera se tiene claro cómo influyen en él las variaciones orbitales o la actividad solar, y si ya resulta complicado pronosticar el tiempo atmosférico más allá de tres días, mucho más lo es realizar proyecciones a diez, veinte o treinta años vista, sin saber cuántos factores, datos e información faltan para poder llevar a cabo una predicción mínimamente razonable, ni cuánto puede influir el sesgo con el que el investigador esté distorsionando involuntariamente el modelo en cuestión.
Tampoco se conoce con exactitud el funcionamiento de los diferentes ciclos climáticos que sufre la Tierra ni cómo interactúan entre sí, desde la alternancia entre glaciaciones y períodos interglaciares de decenas de miles de años hasta los ciclos de Bond de unos 1.500 años, pasando por los ciclos astronómicos de Milankovitch, la actividad volcánica y su relación con el efecto invernadero o las variaciones en las corrientes oceánicas. Por no conocer, ni siquiera se comprende del todo el ciclo del carbono. Los océanos absorben gran parte del CO2 atmosférico y al mismo tiempo lo liberan cuando se calientan, lo que complica determinar si el actual aumento de CO2 es por entero causa del calentamiento o si el calentamiento lo incrementa. Estudios recientes muestran, además, que la capacidad de absorción de CO2 por parte de bosques y océanos ha crecido a un ritmo similar al de las emisiones durante las últimas seis décadas. Esto abre importantes interrogantes: ¿hasta qué punto el CO2 adicional proviene de la actividad humana? ¿Es siempre el aumento del CO2 la causa del calentamiento, o en ocasiones es el efecto?
Lo que sí sabemos
Es cierto que hay algo que sabemos con seguridad: que el CO2, junto con el metano y otros gases de efecto invernadero, provoca un calentamiento del clima y permanece en la atmósfera durante siglos. Pero aquí es donde entra un problema conceptual clave: el del ceteris paribus. Este principio significa mantener constantes todas las demás variables, de tal manera que si se proyecta un desequilibrio sin que haya cambios en el resto de condiciones, ese desequilibrio, sea de frío o calor, conducirá inevitablemente a un extremo. Sin embargo, en el mundo real no existen escenarios ceteris paribus: las constantes son dinámicas, y ello convierte las proyecciones en simples escenarios hipotéticos, no en predicciones. La climatología, disciplina relativamente reciente, trabaja con bases de datos históricas limitadas, recurre a proyecciones a partir de registros muy antiguos para aplicarlas a periodos cortos en el futuro, y analiza sistemas extremadamente complejos con múltiples variables, muchas de ellas desconocidas o impredecibles: no existen modelos plenamente fiables del comportamiento del Sol; se desconoce en gran parte la influencia cósmica externa sobre el clima; y no hay certeza sobre cómo, cuándo ni con qué intensidad actuarán los volcanes, que han sido determinantes en cambios climáticos radicales a lo largo de la historia. Un ejemplo claro: una proyección realizada sobre la industria altamente contaminante de la posguerra predecía escenarios glaciales y atmósferas irrespirables, mientras que una proyección sobre la situación actual anticipa calentamiento global, costas inundadas y deshielo de los polos.
Para evaluar correctamente cualquier proyección, además, es indispensable conocer la calidad y extensión de los datos con los que se alimenta. En este sentido, el registro sistemático de temperaturas globales solo comenzó en la década de 1880, en pleno auge de la revolución industrial. Las mediciones anteriores al siglo XIX eran muy inexactas, cuando existían, y siempre limitadas al hemisferio norte, lo que impide saber hasta qué punto la tendencia al calentamiento comenzó realmente entonces o si se originó antes por causas naturales que luego se vieron agravadas.
Finalmente, y para añadir más complejidad, la concordancia entre el calentamiento global y la actividad industrial humana no es lineal. Durante la década de 1930, el calentamiento se agudizó en plena crisis industrial (con emisiones en descenso a causa de la gran depresión), mientras que en las décadas de 1950 y 1960, cuando las emisiones crecieron notablemente con la recuperación económica de la posguerra, el calentamiento se ralentizó.
Revisando datos
A ello se suma que las series históricas de datos han sido objeto de revisiones significativas. Y es que curiosamente, cuando las mediciones no encajan bien con las teorías vigentes, en lugar de reformular la teoría lo que se hace es modificar los datos. Por ejemplo, entre 1998 y 2012 todas las series registraron un “parón” en el calentamiento global (la llamada “pausa”), y el shock fue tan grande que el informe del IPCC de 2013 dedicó varias páginas a este fenómeno sin explicarlo de manera convincente. Poco después hallaron la explicación: en el Ártico (donde hay muy pocas estaciones de medición) estaban infraestimando el calentamiento, mientras se estaba sobreestimando en los océanos. La conclusión fue que en realidad no había ninguna “pausa”, sino sólo una mera ralentización suave. Hoy, esa “pausa” ha desaparecido de las series globales y nadie habla de ella.
Pero aún quedaba otro gran problema por explicar: aproximadamente entre 1910 y 1945, la temperatura global, según todas las series de registros, se había incrementado más de 0,6º C, aumento que el ínfimo incremento de concentración de CO2 en aquellos años no podía explicar. En 2022, y sin demasiadas explicaciones, la NOAA suavizó algo ese incremento de temperatura: resultó que estaban infraestimados los años más fríos alrededor de 1910 (supuestamente había hecho menos frío del que creíamos) y al mismo tiempo se habían sobreestimado las temperaturas de los años más cálidos de la década de 1940 (en realidad había hecho menos calor del que pensábamos).
Por si fuera poco, recientemente se acaba de descubrir que las mediciones de temperatura de los océanos de la primera mitad del siglo XX fueron una chapuza y estaban sesgadas a la baja, corrigiéndose ahora mediante datos proxy (indicadores indirectos).
El resultado de todo ello, claro está, es que la serie global de temperaturas tiene por fin el aspecto que debería tener: calentamiento constante desde 1850-1900, y cada vez más acelerado. Y resulta curioso que únicamente no nos fiemos de los datos de 1900 a 1950, y que al mismo tiempo no tengamos ningún problema con los datos de 1850 a 1900.
Es posible que todas estas revisiones puedan estar justificadas (pese a lo oportuno de las mismas), pero el hecho de que no nos fiemos de los datos medidos y estemos permanentemente cambiándolos no añade demasiada confianza hacia una ciencia en virtud de la cual se están tomando medidas políticas, económicas y sociales de gran envergadura e impacto.
Como vemos, la climatología comparte problemas con disciplinas como la economía: ambas estudian sistemas complejos, con variables difíciles de medir y pronosticar… y ambas pueden ser influidas por intereses políticos o económicos. Desde que el cambio climático entró en la agenda política, sus conclusiones están sirviendo como coartada para decisiones estratégicas y para la generación de grandes negocios. Pero la relativización del problema no implica su desaparición: el riesgo permanece, y la utilidad de ponerlo en perspectiva radica en poder analizarlo de forma racional, evitando aproximaciones viscerales, dogmáticas o cuasi religiosas, que han contaminado el debate sobre el cambio climático en los últimos años. Sería deseable (aunque difícil, dada la politización y los intereses económicos implicados) que este debate se desarrollara con serenidad, evitando tanto las teorías conspirativas como las acusaciones simplistas de “negacionismo”, y centrándose en lo que realmente se sabe y en lo que parece más razonable hacer. Y para ello es imprescindible tratar de averiguar cómo nos ha afectado hasta ahora el calentamiento, y cómo lo hará en el futuro... que es lo que se analizará en el próximo artículo.
(Siguiente artículo: El cambio climático III: pasado, presente y futuro).
©JRGA

Comentarios
Publicar un comentario
¡Hola! Si tu comentario es lo suficientemente respetuoso y educado se publicará, si no lo es... ni lo intentes.