Un blog de ciencia para entender el funcionamiento del planeta y su relación con la historia de la humanidad
|
En la pasada entrada vimos lo complicado que puede ser el cálculo de las variables armónicas de las mareas en una región en particular sin unas buenas observaciones de datos. En esta ocasión vamos a ver las dificultades que puede haber para entender las variaciones de la marea en un puerto aún teniendo un buen registro de datos. La bahía de San Francisco tiene la serie de tiempo de nivel del mar más antigua de todo el Pacífico Americano, sin embargo hasta hace poco no se ha resuelto uno de esos pequeños misterios de la ciencia que la hace tan entretenida. Los primeros datos del nivel del mar en San Francisco son de 1850, mucho antes de cualquier ciudad del pacífico americano a pesar de que la colonización fue anterior en otras regiones con puertos importantes, como Lima en Perú. Incluso conociendo la indiferencia hispana por la ciencia, no deja de sorprender que un pueblo tan marinero no tuviese interés en mediciones del nivel del mar en los puertos de su territorio. Las mediciones de nivel del mar de San Francisco mostraban unas variaciones en dos constituyentes de las mareas anómalas respecto de otros puertos cercanos, en concreto en las variables K1 y M2 que está relacionadas con la influencia de la luna. (Aquí los diferentes constituyentes de la marea en San Francisco). De arriba a abajo: Descarga del rio Sacramento-SanJoaquín en mtros cúbicos por segundo. Admitancia de la M2. Puede observarse la influencia de la descarga en la admitancia. La tendencia clara que se observa hasta los años 80 era una de las cosas del registro de nivel del mar sin explicación. De Rodriguez-Padilla & Ortiz, 2017 Entre las influencias por las que se puede producir estos cambios están las variaciones en los aportes de agua desde los ríos o cambios en la temperatura de agua de mar. En la siguiente animación, pueden ver cómo éstas dos variables puede afectar al nivel del mar. Si medimos el nivel del mar justo debajo del famoso puente de San Francisco, vemos cómo la presencia de agua proveniente de la descarga de los ríos hace que suba el nivel del mar, ya que el agua dulce (o fresca) es más boyante que el agua de mar y flota sobre ésta. Por otra parte, el aumento de temperatura en el agua de mar hace que ésta disminuya su densidad “expandiéndose” y registrando un mayor nivel del mar. Aunque lo cierto es que en San Francisco la presencia de agua cálida suele estar relacionada con cambios en la circulación marina que, igualmente, producen una subida en el nivel del mar. Si combinamos estos dos factores, podemos ver cómo un mar con temperaturas cálidas y alta descarga de los ríos producen los niveles de mar más elevados. Éstas, por ejemplo, son las condiciones típicas que produce el fenómeno de El Niño en esta región. Al contrario, los niveles de mar más bajos se producen durante eventos de La Niña, cuando el agua está más fría y generalmente existen condiciones de sequía. De hecho, en la siguiente gráfica puede verse muy claramente cómo el nivel del mar subió durante muchos de los eventos de El Niño. Sin embargo, por mucho que se especuló sobre cómo estas variaciones podrían estar detrás de las anomalías del registro de nivel del mar en San Francisco, nunca se pudo confirmar. En un reciente estudio, al Dr. Modesto Ortiz y a su estudiante de maestría en CICESE Isaac Rodríguez Padilla, se les ocurrió incluir una nueva variable; el sedimento. Revisando los mapas de batimetría de la bocana y el canal de entrada de la bahía observaron cómo había ido cambiando a lo largo del siglo XX. Para entender estos cambios necesitaron investigar la historia de la región y se encontraron con algunos hechos que sin duda influyeron en la disposición del sedimento.
La misma fiebre del oro terminó produciendo un incremento poblacional que cada vez requería más recursos para mantenerse. El incremento de la población hizo necesaria la creación de embalses para surtir de agua a la recién instalada civilización. En 1933 el Proyecto de Agua del Valle Central (Central Valley Water Project), comenzó la construcción de embalses en los principales ríos que llegan a la bahía. Pero los embalses no sólo reducen la llegada de agua, sino también de sedimento. Así, la disminución de la erosión por el fin de la fiebre del oro hacia 1880 y el aumento de la retención de sedimentos por los embalses, hizo disminuir paulatinamente la rugosidad en el canal de la bahía de San Francisco.
Referencias Rodríguez-Padilla & Ortiz, 2017 On the secular changes in the tidal constituents in San Francisco Bay. Journal of Geophysical Research Fotos de wikipedia, daguerrotipos e ilustraciones de la Library of the Congres https://en.wikipedia.org/wiki/California_Gold_Rush
0 Comentarios
6 de junio de 1944 las barcazas de los aliados cargadas de soldados se acercan a las playas de Normandía. El fuego enemigo no cesa. Las estructuras ideadas por Rommel para evitar la llegada a la parte alta de la playa obliga a los aliados a desembarcar a sus soldados a cientos de metros de tierra. El teniente da la orden y todos salen en tromba sin pensarlo. Los soldados caen al agua, no hacen pie, tratan de nadar pero el peso de las municiones les hunde. La mayoría mueren ahogados, los alemanes sólo tienen que rematar a los que llegan moribundos a la playa después de tragar litros de agua. Alemania gana la guerra. Todos sabemos que esto no ocurrió así. Pero un pequeño error en el cálculo de las mareas de ese día podría haber cambiado el curso de la historia. Por suerte los cálculos de marea realizados por Arthur Doodson, 6 mujeres “calculadoras” del Instituto de Liverpool de Mareas y las máquinas que ideó Lord Kelvin, permitieron un desembarco en la hora con la marea adecuada. Un error de una hora en sus cálculos y todo habría sido diferente. Hoy me voy a salir un poco de la parte paleo y aprovechar este capítulo de la historia para explicarles la importancia de la medición del nivel del mar y de las mareas, para en próximas entradas analizarlo con otra perspectiva “más paleo”.
Las mareas han sido calculadas desde hace miles de años, siendo probablemente el primer registro oceanográfico las tabulaciones del Golfo Pérsico por el matemático Griego Seleuco. Probablemente su estudio de las mareas fue lo que le convirtió en un firme defensor de la teoría Heliocéntrica propuesta por Aristarco, ya que no se puede calcular de forma precisa las mareas en un modelo Geocéntrico. Por supuesto las mareas no eran calculadas en base a la física Newtoniana, sino de una manera más cruda basada en correlaciones con las fases lunares, pero su cálculo era suficiente para asegurar la seguridad de las actividades portuarias. No se pudo haber un cálculo preciso de las mareas hasta que Newton definió su teoría de la gravitación universal y todavía se tardó un siglo más hasta que Laplace escribió las ecuaciones de marea, la primera verdadera aplicación de la física al océano. Sin embargo el resultado no deja de ser aproximado con estas ecuaciones, y fue William Thomson (Lord Kelvin) quien utilizando los métodos de Fourier, desarrolló el análisis armónico de las mareas. ¿Lo qué? No es tan complicado como suena. En simples palabras, es difícil calcular la marea, pero es fácil a partir de observaciones saber las diferentes frecuencias que influyen en la marea de un sitio en particular. Así tenemos que; Esta señal de marea se propaga como una gran ola, y la forma de los continentes y la profundidad del océano influyen en cómo llega esa ola a una región. Hay zonas que son el centro de esta onda donde no hay variación en la altura. En la imagen de abajo son las zonas azules con lineas blancas irradiando. La ola de la marea circula alrededor de estas zonas, denominadas puntos anfidrómicos, y la ola se amplifica al chocar con otras olas o con los continentes.
Así, a partir de las observaciones de un sitio determinado, se extrae la señal de cómo interaccionan los diferentes forzamientos con las características del sitio. Lo que se llama variables armónicas de la marea. Una vez conocidas es sencillo predecir las mareas futuras. Cuanto más tiempo de observaciones, mejor se puede predecir la marea porque se es capaz de identificar más fuentes de variación, más variables armónicas. Estas variaciones de marea debidas a la influencia de los astros es lo que llamamos mareas astronómicas, pero no es lo único de lo que depende el nivel del mar. Hay que sumarle otras influencias como los vientos, la temperatura del agua, la presencia de agua dulce, etc. Pero eso es otra historia que contaremos en la siguiente entrada. El genio de Lord Kelvin fue construir una computadora mecánica para hacer estos cálculos y poder estimar las mareas de un sitio. La maquina más avanzada de Lord Kelvin consideraba 26 variables armónicas y en 1943 Doodson tenía dos de estas máquinas de su propia creación, en dos sitios diferentes por si los bombardeos destruían alguna de ellas (podéis ver más abajo una de estas máquinas funcionando). Pero Doodson y su equipo no podían calcular con precisión las mareas por la sencilla razón de que las playas en las que los generales querían desembarcar no tenían observaciones de mareas y las aproximaciones a partir de datos de puertos cercanos podían no ser lo suficientemente precisas para que los soldados no se ahogasen. Los militares aliados desecharon la opción de invadir en marea alta en cuanto vieron que Rommel había instalado filas y filas de obstáculos, algunas con explosivos. Sin obstáculos habría sido mucho más fácil, ya que la barca llega lo más arriba que puede y el cálculo de la marea no es tan definitorio, sólo para determinar el día y hora en el que los soldados tendrían que caminar menos y las barcazas no quedarse atascadas. Pero los obstáculos lo cambiaban todo. Ahora tenían que llegar una primer desembarque justo pasado la marea baja para que tropas con explosivos abriesen un corredor. La marea tenía que estar en creciente, para que las embarcaciones no se quedaran encalladas. Además, las fuerzas navales querían pasar de noche pero la artillería naval necesitaban luz, así que tenían que coincidir la marea indicada con el amanecer. Todos estos condicionamientos reducían las posibilidades a los días 5, 6 y 7 de junio de 1944. Pero seguían sin observaciones de las 5 playas que abarcaban una región de 100 Km, y una hora de error podía ser fatal. Las mareas avanzan como una ola gigante y 100 km de separación significan una hora de diferencia en las mareas. Además con rangos de marea de 6 metros que hay en la región significa que la marea subiría un metro por hora. Demasiado fácil equivocarse en una hora sin más datos que los de puertos cercanos. Alguien tenía que tomar mediciones en las playas y darle las constantes armónicas a Doodson. Y por supuesto todo con nombres cifrados, porque Doodson no podía saber el mayor secreto de la Segunda Guerra Mundial; dónde sería el desembarco aliado. El Almirante Farquharson era el encargado de mareas de la marina y usando submarinos mandó pequeños equipos de soldados en botes a tomar mediciones de altura y corrientes de marea en las mismas narices de los alemanes. Los datos desde luego debieron ser insuficientes, pero Farquharson se las debió ingeniar para mezclar esas mediciones con los datos del puerto más cercano (Le Havre) y dar a Doodson 11 variables armónicas que fueron suficientes para un desembarco exitoso. La decisión de que fuese el 6 de junio fue debida a las condiciones meteorológicas, y eso es otra apasionante historia que pueden leer aquí. Sólo decir que los ingleses acertaron que el 6 habría un breve descanso dentro de la tormenta que barrería la región esos días. Algo que no supieron predecir los alemanes por lo que Rommel se fue tranquilamente a Berlín a pasar el día pensando que las condiciones meteorológicas eran defensa suficiente. El desembarco fue un éxito,... en el que murieron cientos de miles de personas. No puedo dejar pasar las tristes noticias de cómo Europa vuelve a polarizarse y los fascistas regresan de las sombras. Esperemos que en esto también baje la marea. Referencias
The tide predictions for D-Day, Bruce Parker [PDF] Si sabes inglés, no dejes de leerlo https://fluyendolibremente.wordpress.com/2013/01/11/analisis-de-armonicos-de-marea-astronomica-con-t_tide/
Su hipótesis, hoy ampliamente aceptada, era que el abandono de los campos agrícolas por la masiva mortandad propició el recrecimiento del bosque que capturó ingentes cantidades de CO2 de la atmósfera. De aquí se deduce que factores biológicos pueden convertirse en un forzamiento que altera el funcionamiento del planeta. Pero ¿cuántas personas tuvieron que morir para alcanzar esa disminución de CO2?, o dicho de otra manera, ¿cuántas personas había antes de la llegada de Colón en América?
Hernando de Soto desembarcó en 1539 en la Bahía de Tampa, Florida, con 600 soldados, 200 caballos y 300 cerdos en busca de riquezas y territorios que apropiarse. Recorrieron todo el sudeste de la actual Estados Unidos y se encontró con grandes ciudades resguardadas con muros. De Soto terminó muriendo por unas fiebres y el valle del Misisipi no volvió a ser recorrido por un europeo hasta más de un siglo después por el francés René Robert Cavelier de La Salle quien encontró un territorio desierto. De las 50 populosas ciudades que encontró de Soto quedaban a lo mucho 10. Aunque de Soto y sus hombres no tuvieron nunca intención de ser amigos de los nativos, por decirlo suavemente, todo parece indicar que el peor enemigo de los nativos no fueron los soldados, sino los cerdos y caballos que les acompañaban. Mientras que los europeos estaban acostumbrados desde niños a las enfermedades producidas por microbios que saltaban del ganado a los humanos, los indígenas no tenían un sistema inmunitario preparado para semejante festín microbiano. La viruela, el sarampión, la gripe, antrax, brucelosis, tuberculosis, … todas estas enfermedades hicieron estragos en los cuerpos inmaculados (microbiologicamente hablando) de los nativos americanos. Los cálculos ponen la disminución poblacional entre el 50 y el 95% de la población original, un margen demasiado amplio que, por ejemplo, para la población precolombina de Mesoamérica (actual México) supondría una variación de entre 2 y 30 millones de personas. Según el antropólogo Ubelaker, el punto más bajo de la población indígena arriba del rio Grande fue de medio millón de personas en el año 1900. Si consideramos un 95% de mortandad significaría unos 10 millones de personas antes del contacto europeo. El problema es que con porcentajes altos, pequeños ajustes en la mortandad conducen a grandes diferencias. Si aumentamos solo un punto la mortandad, el 96%, entonces tendríamos 12.5 millones de personas. Y eso cuando tenemos un punto de inicio de los cálculos más o menos claro, pero los censos de siglos anteriores de los territorios españoles en los que se basan los cálculos de Mesoamérica o Sudamérica estaban lejos de ser perfectos. Muchas de las cifras originales dadas por los conquistadores y evangelizadores se piensan estaban infladas, ya que era mejor decir que habían derrotado/evangelizado a diez mil que a mil. En cualquier caso, ¿es posible que las enfermedades pudieran matar hasta el 95% de la población? Aunque muchos son muy críticos con estos grandes números, los estudiosos de enfermedades infecciosas dan buenas razones para considerar estos estragos poblacionales como una posibilidad real. Primero, la escasa diversidad genética de la población nativa. Aunque todavía con muchas dudas de cómo fue la conquista americana hace unos 15000 años, lo que sí parece claro es que los números originales de inmigrantes fueron relativamente pequeños. De hecho, una de las consecuencias todavía es observable; la diversidad de antígenos leucocitarios en indígenas americanos es aproximadamente la mitad que el de asiáticos, africanos o europeos. Para que lo entiendan, si tienen una baja diversidad de estos antígenos, sólo podrás combatir unas pocas enfermedades infecciosas, mientras que si es alta, estarás mejor protegido ante mayor variedad de enfermedades infecciosas. Además, un tercio de la población indígena actual tienen exactamente el mismo perfil de antígenos leucocitarios, cosa que solo ocurre, por ejemplo, en el uno por ciento de la población africana. También existen otras células del sistema inmunitario que nos defienden de estas agresiones, las células o linfocitos T. Existen 3 tipo de linfocito-T, uno de estos tipos son las “T-colaboradoras” que ayudan a reconocer objetos extraños para que sean atacados por los otros tipos de linfocitos. Según algunos investigadores en las poblaciones americanas estas T-colaboradoras habrían evolucionado por miles de años para reconocer parásitos como nemátodos y otros “gusanos”, muy comunes en América, pero podrían haber sido realmente malas reconociendo microbios, lo que les daba una clara ventaja a éstos para invadir un cuerpo que se daría cuenta demasiado tarde del ataque. Estas características biológicas de los indígenas americanos son compartidas con sus ancestros, las tribus siberianas. De hecho, en 1768 una plaga de viruela golpeó Siberia y mató al 80% de la población indígena, según el testimonio de pobladores rusos. El 80%. En un sólo golpe. De una única enfermedad. Cuando el Capitán Cook llegó a Kamchatka, encontró numerosas poblaciones completamente desiertas que apenas conservaban los cimientos de las casas. No parece tan descabellado, por tanto, mortandades del 95% tras el impacto de diferentes enfermedades infecciosas y la práctica desaparición de las principales construcciones de adobe y madera que utilizaban mayoritariamente los pobladores de Norteamérica en un par de siglos. De hecho en Baja California apenas quedan "cuatro piedras" de las Misiones religiosas españolas más norteñas, realizadas en adobe y abandonadas hace apenas 150 años. Lo cierto es que los europeos nunca fueron capaces de conquistar ni un solo territorio hasta que las enfermedades no hicieron estragos en las poblaciones nativas. Hernán Cortes sobrevivió de milagro a la llamada “Noche Triste” (que debió ser una verdadera fiesta para los Mexicas) y sólo cuando la viruela empezó a diezmar la población pudo doblegar el poderío azteca en alianza con otros nativos. Bartolomé de Las Casas dejó escrito que entre la brutalidad y las enfermedades pudieron morir millones de personas. Porque esa fue otra, un cuerpo sano podría haber resistido mucho mejor a las enfermedades que un cuerpo debilitado a base de latigazos, violaciones y el trabajo esclavo al que fueron sometidos los nativos. De hecho, la pérdida de los elevados estándares higiénicos que tenían la población nativa antes de la llegada europea pudo empeorar las cosas y estar relacionada con la alta mortandad que la Salmonella provocó hacia 1545 según un reciente estudio.
Las enormes poblaciones de bisontes (40 a 60 millones) que había en el siglo XVIII en Norteamérica parece que pudieron estar relacionadas con la desaparición de su principal depredador, los humanos. Así, según algunos historiadores como William Cronon, los nativos debían mantener a los bisontes como una especie de ganado asilvestrado a modo de despensa en números mucho menores y, al reducirse la población humana, los bisontes proliferaron sin depredadores importantes por 200 años. La visión que se ha tenido por mucho tiempo de las tribus americanas como atrasadas y esencialmente nómadas no ha sido más que una consecuencia del colapso de sus sociedades. Es difícil dar cifras, pero desde luego están lejos los estudios de los años 30 que suponían poblaciones en Norteamérica de 1 millón de habitantes y de 8 millones para toda América. Por ejemplo, poblaciones por encima de 20 millones parecen mucho más plausibles para Mesoamérica. Para que se hagan una idea, España y Portugal en aquella época no superaban los 10 millones, y la población de México no superó los 20 millones hasta los años 50 del siglo XX. Hay quien defiende que el altiplano mexicano podría ser la región más densamente poblada del mundo en aquel entonces, por encima de China o India, y el continente entero podría superar los 100 millones de personas. Es decir, el 12 de octubre de 1492, cuando Colón pisó América, había más gente viviendo en América que en Europa, y la caída en la concentración de CO2 de la que hablábamos al principio estuvo relacionada con la muerte de una de cada cinco personas en el mundo. Mañana 12 de octubre muchos hablarán del genocidio americano. Yo no voy a entrar en esa discusión porque precisamente los intereses políticos no han ayudado a establecer unas cifras más fiables. Tradicionalmente ingleses y holandeses utilizaron las cifras de Fray Bartolomé de Las Casas para dejar a España como un imperio sin escrúpulos. Otros dicen que de las Casas infló los números para llamar la atención y concienciar a los reyes de que promulgaran leyes en favor de los indígenas, como así ocurrió. Hoy sigue ocurriendo algo parecido pero con otros protagonistas.. Sea como fuere, lo cierto es que el colapso demográfico habría pasado bajo cualquier circunstancia. Ya hubieran sido españoles, africanos, ingleses o chinos, con ánimos de guerrear o de hacer el amor y no la guerra, el colapso poblacional americano era inevitable en cuanto el viejo y el nuevo mundo entraran en contacto.
Otras referencias y/o enlaces de interés
Artículo en wikipedia con esta misma pregunta: https://es.wikipedia.org/wiki/Poblaci%C3%B3n_de_Am%C3%A9rica_precolombina Libro Bartolomé de las casas: http://www.rae.es/sites/default/files/HOJEAR_Brevisima_relacion_de_la_destruicion_de_las_Indias.pdf http://science.sciencemag.org/content/321/5893/1148 https://www.sciencedaily.com/releases/2017/02/170207092752.htm http://www.nature.com/news/collapse-of-aztec-society-linked-to-catastrophic-salmonella-outbreak-1.21485?WT.mc_id=FBK_NatureNews http://blogs.plos.org/publichealth/2013/07/30/guest-post-what-killed-the-aztecs/ http://www.abc.es/espana/20150428/abci-mito-genocidio-america-201504271956.html http://web.aldeeu.org/2014/08/14/las-enfermedades-infecciosas-y-la-conquista-espanola-de-america/ La historia industrial del viejo mundo a través del contenido de plomo en los glaciares del mundo6/12/2017
Como comprenderán, para que haya residuos de metales en el hielo, éstos deben provenir de una manufactura a gran escala, por lo que no tenemos evidencias de los primeros metales que se trabajaron en la prehistoria. Así, aunque en Europa, Asia y África hubo una edad del cobre (calcolítico – hace unos 5000-6000 años) y una edad del bronce (hace unos 4000 años) antes de la edad del hierro (hace unos 3000 años, ya en la historia escrita), sólo hay evidencias de esta última en los glaciares del mundo. Y aunque las fechas de estos periodos varían de unas regiones a otras, en general en las grandes civilizaciones fue en el primer milenio antes de cristo cuando empezó la metalurgia a una mayor escala, seguramente relacionado con una población creciente con mayor intercambio comercial y también conflictos territoriales que demandaban más armamento.
De hecho todavía recuerdo cómo se cambiaron las tuberías de casa de mis padres cuando era niño, cambiando el plomo por el cobre. Curiosamente en zonas "más romanas" como España (fontanero) e Italia (idraulico) se ha perdido esa acepción. Pero además de tuberías, también daban un tono dulce a sus vinos al meterlos en recipientes de plomo por lo que además de disfrutar del vino se iban envenenando poco a poco, pues el plomo es un potente neurotóxico. Hay quien defiende que el plomo está detrás de la locura de algunos emperadores y de la dificultad de los aristócratas para tener hijos (también causa infertilidad) y que de alguna manera pudo influir en el colapso de la civilización romana.
Tras el colapso del imperio romano occidental, la contaminación por plomo disminuyó, aunque en realidad siempre hubo una industria que seguía contaminando. Bueno, casi siempre. Recientemente se ha publicado un estudio que muestra cómo el uso de plomo y otros metales sí disminuyó de forma abrupta en Europa cuando la peste negra arrasó con la mitad de la población alrededor del año 1350. Traten de imaginarse por un momento que en la población donde viven mueren la mitad de las personas y cómo afectaría eso a los flujos comerciales, al acceso a los alimentos, y claro a las actividades industriales. Este estudio, de hecho, ha puesto en duda lo que hasta ahora se consideraba la concentración natural de plomo en la atmósfera y tal vez debamos revisar qué concentraciones son admisibles de un metal tan perjudicial para la salud. Con la revolución industrial su uso nuevamente se incrementó debido a su uso en la fabricación de pinturas, lo que afectó enormemente en la salud de los trabajadores de esas fábricas. Lejos de prohibirse por sus conocidos efectos, su uso se incrementó todavía más en los años 20 del siglo XX cuando el químico Thomas Midley (denominado "el organismo más dañino de la Tierra") descubrió que poniendo plomo a la gasolina la eficiencia de los motores aumentaba. Aunque las evidencias de muertes por plomo fueron claras en los años 20, se siguió permitiendo su uso a concentraciones bajas.
Un caso particular es el de Rusia, ya que influyó la caída de la URSS en los años 80 y no tanto el quitar el plomo a la gasolina. El colapso de su industria también puede verse en la concentración de otros metales en glaciares Siberianos (Figura abajo). Referencias More et al., 2017. Next generation ice core technology reveals true minimum natural levels of lead (Pb) in the atmosphere: insights from the Black Death Rosman et al., 1997. Lead from Carthaginian and Roman Spanish Mines Isotopically Identified in Greenland Ice Dated from 600 B.C. to 300 A.D. Eichler et al., 2014 Ice-Core Based Assessment of Historical Anthropogenic Heavy Metal (Cd, Cu, Sb, Zn) Emissions in the Soviet Union Hong et al., 1994. Greenland Ice Evidence of Hemispheric Lead Pollution Two Millennia Ago by Greek and Roman Civilizations Eichler et al., 2012.Three Centuries of Eastern European and Altai Lead Emissions Recorded in a Belukha Ice Core La atracción fatal del plomo (BBC) La Antártida empieza a preocupar entre los climatólogos. El Ártico como quien dice se da por perdido, dentro de poco parece que no habrá hielo a nivel del mar. Por otra parte, Groenlandia puede empezar a descongelarse de forma acelerada, pero eso no es nada si se le suma un deshielo en la Antártida. Y ahora no se ve como algo imposible como ocurría hace relativamente poco. El deshielo de estos dos almacenes de hielo produciría unos cambios de los que es poco menos imposible regresar en poco tiempo. Todo se debe a la altitud que tiene el hielo en estas regiones. Veamos cómo. A principios del siglo XIX Humboldt, gracias a su afición a subir montañas, dio con la clave de cómo altitud y latitud está relacionados. Una montaña en zonas tropicales puede tener en su cima una vegetación similar a la que se puede encontrar en zonas muy al norte del planeta. De hecho, las crecientes temperaturas está provocando que especies vegetales se muevan hacia los polos y hacia altitudes superiores en las montañas, tratando de encontrar ese clima ideal que necesita cada especie. De la misma forma, la cota de nieve es cada vez a mayor altitud en una montaña. Esto también es cierto en las zonas polares, donde no sólo hace frío a nivel del mar, sino que el hielo ha creado auténticas montañas de 3000 y 4000 metros de altitud en Groenlandia y Antártida respectivamente. En un futuro cercano, el hielo en el mar de los polos no va a sobrevivir la época de verano. Es algo que ya está pasando, especialmente en el Ártico. Pero la nieve sigue cayendo en las montañas polares por lo que se sigue alimentando al hielo polar desde arriba. Si el planeta se sigue calentando, que parece lo más probable, y la cota de nieve sube, digamos hasta 1000 metros en Groenlandia, desde luego habrá mucho deshielo, pero nuevamente la nieve que cae en la parte superior de la montaña de hielo, evitará males mayores. Si vuelve el frío y la cota baja esos 1000 metros, el hielo se recuperará fácilmente para cubrir toda la isla. Si subimos a 2000 metros nuevamente habría deshielo pero una bajada de 500 o 1000 metros volvería a acumular hielo Pero ahora imaginemos algo más drástico, que la cota de nieve sube otros 1000 metros, y durante el verano se deshiela en las mayores altitudes que son de 3000 metros. Ese deshielo haría que la máxima altitud pasase de los casi 3000 metros que hay hoy día gracias a la acumulación de hielo, a los menos de 1000 metros que corresponden a la roca. Por lo tanto, bajo estas condiciones el hielo no se recuperaría con un enfriamiento que disminuya la cota de nieve en 500 o 1000 metros, sino que sería necesario que disminuyese 2000 metros para encontrar un terreno donde se pueda acumular la nieve y el hielo. Ya no puedes regresar por el mismo camino, porque ese camino ya no existe, has pasado un punto de no retorno. En la siguiente figura lo ejemplifico. Con la Antártida ocurre algo similar, en la parte central se alcanzan los 4000 metros, pero en realidad la roca no llega a los 2000 metros. La zona Oeste es mucho más sensible por su menor altitud y también porque la Antártida tiene otro problema añadido. Al contrario que Groenlandia, no es una masa de tierra continua, es un archipiélago y se está viendo que el calentamiento del océano, y no de la atmósfera, está jugando un rol mucho más importante de lo anteriormente previsto. Bajo este nuevo escenario, el deshielo del casquete Oeste de la Antártida podría estar mucho más cerca de lo que se creía, ya que un calentamiento del planeta además produciría un incremento en el nivel del mar. Este tipo de cambios drásticos se observan comúnmente en los paleoregistros. Sin ir más lejos, en la alternancia entre periodos glaciales e interglaciales se observa cómo los periodos de calentamiento son súbitos, mientras que los enfriamientos ocurren poco a poco. Eso indica que el sistema pasó por un punto de inflexión (tipping point en la literatura especializada). Como pueden observar en la figura anterior hay otros periodos interglaciares que han sido más cálidos que el actual. Una de las grandes preguntas que hay entre los paleoclimatólogos hoy día es qué nivel de deshielo hubo en estos periodos. ¿Se descongeló la Antártida hace 130000 años?, ¿tal vez sólo Groenlandia? Últimas noticias relacionadas
Especial del New York Times AQUÍ Reportaje de Rolling Stones AQUÍ (tono sensacionalista pero buena infografía del mecanismo de deshielo). La Antártida cada vez más verde La Antártida se calienta menos que el Ártico por la altitud |
Archivos
Noviembre 2017
Categorías
Todos
|