domingo, 17 de noviembre del 2019 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Hay que ir más allá del Modelo Estándar

Autor por Emilio Silvera    ~    Archivo Clasificado en El Modelo Estánfar    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Gordon Kane (en 2003), un físico teórico de la Universidad de Michigan, decía: “… el Modelo Estándar es, en la historia, la más sofisticada teoría matemática sobre la naturaleza. A pesar de la palabra “modelo” en su nombre, el Modelo Estándar es una teoría comprensiva que identifica las partículas básicas y especifica cómo interactúan. Todo lo que pasa en nuestro mundo (excepto los efectos de la gravedad) es resultado de las partículas del Modelo Estándar interactuando de acuerdo con sus reglas y ecuaciones”.

De acuerdo con el Modelo Estándar, leptones y quarks son partículas verdaderamente elementales, en el sentido de que no poseen estructura interna. Las partículas que tienen estructura interna se llaman hadrones; están constituidas por quarks: bariones cuando están formadas por tres quarks o tres antiquarks, o mesones cuando están constituidas por un quark y un antiquark.

Nuevos datos del experimento BaBar, una colaboración internacional que tiene su sede en California, Estados Unidos, fueron analizados recientemente y los resultados obtenidos parecen indicar que existen posibles fallos en el Modelo Estándar de la Física de Partículas, teoría que hasta el momento es la que explica mejor cómo funciona el universo a escalas subatómicas.

Claro que, ya estamos acostumbrados a que el imparable avance del conocimiento de la física, a medida que se van descubriendo nuevas tecnologías, también nos posibilite para poder avanzar más y más profundamente en los modelos y teorías que manejamos y, lo que podemos ir viendo en los nuevos descubrimientos nos ayudan a mejorar los modelos y teorías actuales para ir adaptando la física a la realidad que la Naturaleza nos muestra.

Sin embargo, y a pesar de ello, lo cierto es que, el llamado Modelo Estándar (en lineas generales) nos ha servido bien como una teoría coherente y de extraordinario éxito en relación a las interacciones que operan en el Universo. De hecho, el Modelo Estándar incorpora las teorías relativistas y cuánticas de interacciones fuertes, electromagnéticas y débiles (dejando fuera la Gravedad) que ha superado todas las pruebas con la evidencia experimental, desde las energías más pequeñas hasta los millones de millones de electrón-voltios que se han alcanzado en los Laboratorios del Fermilab en Illinois; desde la precisión de las medidas de masas de estados ligados o de momentos magnéticos, a baja energía, hasta las fabulosas del acelerador LEP en el CERN y ahora del LHC los dos en Ginebra.

http://upload.wikimedia.org/wikipedia/commons/5/5d/Modelo_Estandar.png?uselang=es

Un átomo de Helio 4 según el modelo estándar, se muestra de color rojo las interacciones electromagnéticas y de color naranja las Fuertes. Entrar en este “universo” de lo muy pequeño resulta verdaderamente fascinante. Ahí podemos ver cosas que, en la vida cotidiana están ausentes y, nos puede parecer habernos transportado a otro mundo donde las cosas funcionan de otra manera.

Según el Modelo Estándar, la gran cantidad de partículas elementales hasta hoy detectadas, cerca de 300, en aceleradores/colisionadores de partículas o en rayos cósmicos, puede ser agrupada en leptones, quarks y hadrones o en leptones y hadrones, ya que los quarks son constituyentes de los hadrones o, también, en leptones, bariones y mesones, pues los hadrones pueden ser divididos en bariones y mesones.

Las interacciones fundamentales tienen lugar como si las partículas que interactúan “intercambiasen” otras partículas entre sí. Esas partículas mediadoras serían los fotones en la interacción electromagnética, los gluones en la interacción fuerte, las partículas W y Z en la interacción débil y los gravitones (aún no detectados) en la interacción gravitacional. Es decir, partículas eléctricamente cargadas interactuarían intercambiando fotones, partículas con carga color interactuarían intercambiando gluones, partículas con carga débil intercambiarían partículas W y Z, mientras que partículas con masa intercambiarían gravitones.

Las partículas mediadoras pueden no tener masa, pero tienen energía, o sea, son pulsos de energía. Por eso, se llaman virtuales. De los cuatro tipos de partículas mediadoras, las del tipo W y Z tienen masa, pero es común que todas sean llamadas partículas virtuales.

Entonces, se podría decir que las partículas de materia o partículas reales (leptones, quarks y hadrones) interactúan intercambiando partículas virtuales (fotones, gluones, W y Z, y gravitones). Aquí hay que tener en cuenta que las partículas de materia pueden tener más de una carga, de modo que experimentarían varias interacciones y fuerzas, pero el ámbito de la interacción puede variar mucho, de tal manera que en un determinado dominio una cierta interacción puede ser irrelevante. La fuerza gravitacional, por ejemplo, puede ser despreciada en el dominio subatómico. Es decir, aunque existan cuatro interacciones fundamentales, cuatro cargas y cuatro fuerzas, eso no quiere decir que todas las partículas tengan las cuatro cargas y experimenten las cuatro interacciones. a Gravedad en este ámbito, es tan pequeña que, pasa desapercibida para nuestros actuales instrumentos.


                                    

       Yoichiro Nambu                                       Toshihide Maskawa                                     Makoto Kobayashi

¿Por qué hay algo en vez de nada? ¿Por qué hay tantas partículas elementales diferentes? Los señores que arriba vemos fueron premiados con el Nobel de Física por sus ideas teóricas que suministraron una comprensión más profunda de lo que sucede en el interior de los bloques más pequeños que forman la materia.

La naturaleza de las leyes de simetría se encuentran en el corazón de este asunto. O más bien, la ruptura de las simetrías, tanto las que parecen haber existido en nuestro universo desde el principio como aquellas que han perdido su simetría original en alguna parte del camino.

De hecho, todos somos hijos de la simetría rota. Ello debió ocurrir inmediatamente después del Big Bang, hace unos 14.000 millones de años cuando fueron creadas la materia y la antimateria. El contacto de materia y antimateria es fatal para ambas, se aniquilan mutuamente y se transforman en radiación. Es evidente que la materia, al final, ganó la partida a la antimateria, de otra manera nosotros no estaríamos aquí. Pero estamos, y una pequeña desviación de la simetría perfecta parece que ha sido suficiente –un exceso de una partícula de materia por cada diez mil millones de partículas de antimateria fueron suficientes para hacer que nuestro mundo exista-. Este exceso de la materia fue la semilla de nuestro universo, lleno de galaxias, estrellas y planetas y, eventualmente, de vida. Pero lo que hay detrás de esta violación de la simetría en el cosmos es aún un gran misterio y un activo campo de investigación.

La teoría de las partículas elementales considera tres formas básicas de simetría: simetría especular, simetría de carga y simetría temporal (en el lenguaje de la física la simetría especular es denominada P, de paridad; la simetría de carga, C y la simetría temporal,T).

En la simetría especular todos los sucesos ocurren exactamente igual si son observados directamente o reflejados en un espejo. Ello implica que no existe ninguna diferencia entre izquierda y derecha y nadie sería capaz de distinguir su propio mundo de otro reflejado en un espejo. La simetría de carga predice que las partículas cargadas se comportarán exactamente igual que sus antipartículas, las cuales tiene exactamente las mismas propiedades pero carga opuesta. Y de acuerdo con la simetría temporal, las cosas sucederían exactamente igual con independencia de que el tiempo transcurra hacia delante o hacia atrás.

                           Cotidianidad o simetría temporal

El Modelo Estandar es una síntesis de todas las ideas que la física de partículas ha generado durante más de un siglo. Se asienta sobre la base teórica de los principios de simetría de la física cuántica y la teoría de la relatividad y ha resistido a innumerables pruebas. No obstante, varias crisis se sucedieron poniendo en peligro el bien construido edificio del modelo. Estas crisis tuvieron lugar porque los físicos asumían que las leyes de la simetría eran aplicables al micromundo de las partículas elementales. Pero esto no era totalmente  cierto.

La primera sorpresa surgió en 1956 cuando dos físicos teóricos chino-americanos, Tsung Dao Lee y Chen Ning Yang (galardonados con el Premio Nobel al año siguiente, en 1967) comprobaron que la simetría especular (simetría P) era violada por la fuerza  débil.

Una nueva violación de las leyes de la simetría tenía lugar en la desintegración de una extraña partícula llamada kaón (Premio Nobel concedido a James Cronin y Val Fitch en 1980). Una pequeña fracción de los kaones no seguían las leyes de la simetría especular y de carga; se rompía la simetría CP y se desafiaba la estructura misma de la teoría.

Como ya se ha explicado el Modelo Estándar comprende todas las partículas elementales conocidas y tres de las cuatro fuerzas fundamentales. Pero, ¿por qué son estas fuerzas tan diferentes?. ¿Y por qué las partículas tienen masas tan diferentes?. La más pesada, el quark top, es más de tres mil cien veces más pesado que el electrón. ¿Por qué tienen todas masa? La fuerza débil destaca en este aspecto una vez más: sus portadores, las partículas Z y W son muy pesadas, mientras que el fotón, que transmite la fuerza electromagnética, carece de masa.

La mayoría de los físicos piensa que el llamado mecanismo de Higgs es el responsable de que la simetría original entre fuerzas fuera destruido dando a las partículas sus masas en las primeras etapas del universo.

El camino hacia ese descubrimiento fue trazado por Yoichiro Nambu quien, en 1960, fue el primero en introducir la violación espontánea de la simetría en la física de partículas. Es por este descubrimiento por el que se le concede el Premio Nobel de Física.

Tenemos algunos ejemplos banales de violación espontánea de la simetría en la vida diaria. Un lápiz en equilibrio sobre su punta lleva una existencia totalmente simétrica en la cual todas las direcciones son equivalentes. Pero esta simetría se pierde cuando cae -ahora sólo una dirección cuenta-. Por otro lado su condición es ahora más estable, el lápiz no puede volver a caer, ha llegado a su nivel más bajo de energía.

Resultado de imagen de El vacío tiene el nivel de energía más bajo posible en el cosmos

El vacío de Boötes es uno de los mayores del Universo. El Gran Vacío, Vacío Boötes o Vacío del Boyero es una región enorme y casi esférica del espacio, …

El vacío tiene el nivel de energía más bajo posible en el cosmos. En efecto, un vacío en física es precisamente un estado con la menor energía posible. Sin embargo, no está totalmente vacío. Desde la llegada de la física cuántica, el vacío está lleno de una burbujeante sopa de partículas que aparecen e inmediatamente desaparecen en invisibles y ubicuos campos cuánticos. Estamos rodeados por campos cuánticos que se extienden por el espacio; las cuatro fuerzas fundamentales de la naturaleza también son descritas como campos. Uno de ellos, el gravitacional, es conocido por todos nosotros. Es el que nos mantiene pegados a la tierra y determina la dirección arriba-abajo.

Nambu indicó que las propiedades del vacío son de gran interés para el estudio de la rotura espontánea de la simetría. Un vacío, que es el estado más bajo de energía, no se corresponde con el estado de mayor simetría. Tan pronto como el lápiz se cae, la simetría del campo cuántico queda rota y sólo una de las muchas direcciones posibles es elegida. En las últimas décadas los métodos de Nambus para tratar la violación de la simetría espontánea en el Modelo Estandar han sido refinados y son frecuentemente usados hoy para calcular los efectos de la fuerza fuerte.

Hablar de todo esto nos lleva hacia caminos amplios y de un largo recorrido.

¡Pero faltan los campos! Los cuatro campos. Sabemos que un cuerpo con masa crea alrededor de sí un campo gravitacional, un campo de fuerza que ejerce una fuerza sobre otro cuerpo masivo y viceversa. Análogamente, un cuerpo cargado eléctricamente, crea un campo electromagnético (si está en reposo, se percibe sólo su componente eléctrico, si está en movimiento se manifiesta también el componente magnético) y ejerce una fuerza electromagnética sobre otro cuerpo electrizado y viceversa.

Imagen relacionada

La fuerza nuclear fuerte es la responsable de mantener a los quarks unidos creando a los hadrones. Esta fuerza es mucho más compleja y también, más potente que las otras tres fuerzas.

Resultado de imagen de El campo de la fuerza fuerte y de la fuerza débil

De la misma manera, está el campo de la fuerza fuerte y el campo de la fuerza débil. O sea, hay cuatro campos fundamentales: el electromagnético, el fuerte, el débil y el gravitacional. Las  partículas mediadoras son los quantos de los campos correspondientes: los fotones son los quantos del campo electromagnético, los gluones son los quantos del campo fuerte, las partículas W y Z del campo débil y los gravitones serían los quantos del campo gravitatorio.

En otras palabras, los cuatro campos fundamentales son el campo de fotones (electromagnético), el de gluones (fuerte), el de partículas W y Z (débil) y el de gravitones (gravitacional). El problema en esa bella simetría de cuatro cargas, cuatro interacciones, cuatro fuerzas, cuatro tipos de partículas mediadoras y cuatro campos es que aún no fue detectado ningún gravitón y la gravedad, en sí, no encaja bien en esa teoría llamada Modelo Estándar y, por eso precisamente, se dice que es incompleto y que necesitamosm una teoría cuántica de la Gravedad. En ese aspecto, yo, no las tengo todas conmigo, dado que la fuerza de Gravedad parece una teoría aparte y no quiere mezclarse con las otras. Sin embargo, dicen los de la teoría de cuerdas que allí, sí encajan las cuatro fuerzas.

d

Mucho, muchísimo nos queda por explicar en relación al Modelo estándar y a todo lo que en él está unido. Sin embargo, en física se avanza poco a poco, vamos conociendo cositas que unidas a otras cositas finalmente forman un todo en el que podemos contemplar una perspectiva más amplia y general y, a veces, hasta puede llegar a enseñarnos la belleza que encierram esos cuadros que pinta la Naturaleza y que nosotros, osados, tratamos de descubrir.

emilio silvera

La frontera K-T. Hablemos de eso.

Autor por Emilio Silvera    ~    Archivo Clasificado en Catástrofes Naturales    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

http://www.espacial.org/images/jpg2/continentes_cretacico.jpg

Situación de los continentes a finales del Cretácico. El cráter de Chicxulub está señalado en el centro de la imagen. Los fantásticos dinasaurios que, si no tuviéramos la evidencia fósil


La teoría más extendida de todas las que intentan explicar la extinción del 65% de las especies que habitaban la Tierra hace 65 millones de años, se refiere al impacto de un gran meteorito en Chicxulub que formó un cráter de 180 kilómetros de diámetro. La prueba esgrimida como definitiva fue el hallazgo de esférulas  derivadas del impacto inmediatamente debajo del límite estratigráfico entre el Cretácico y el Terciario, junto con la detección de una anomalía de iridio coincidente con la extinción masiva de foraminíferos marinos, y el descubrimiento y datación del propio cráter de Chicxulub.

Pero para entender de qué hablamos señalemos cuestiones sencillas que todos entendemos como, por ejemplo, la muerte de los dinosaurios que se extinguieron (según todos los indicios) hace ahora 65 millones de años, como parte de una extinción masiva de la vida en la Tierra, algo tan claramente reflejado en el registro fósil que se utiliza para marcar el final de un período de tiempo geológico, el cretáceo, y el comienzo de otro, el terciario.

File:KT boundary 054.jpg

La huella dejada por aquel acontecimiento en el todo el mundo, no deja lugar a dudas para los geólogos. La señal, les habla del pasado.

Puesto que la “C” ya se ha utilizado como inicial en un contexto similar en relación con el período Cámbrico, este marcador se suele denominar Frontera K-T, con una “K” de Kreide,  que es el nombre del Cretáceo en alemán. No fueron sólos los dinosaurios los que resultaron afectados (aunque por sus características son los que siempre aparecen con mayor protagonismo en el suceso). Alrededor del 70 por ciento de todas las especies que vivían en la Tierra a finales del Cretáceo habían desaparecido al principio del Terciario, lo cual nos indica que se trató realmente de una “extinción en masa” y explica por qué los geólogos y los paleontólogos utilizan la frontera K – T como un marcador importante en el registro fósil.

Dadas las dificultades que plantean unas pruebas de tiempos tan remotos, y la lentitud con la que se acumulan los estratos geológicos, todo lo que podemos decir sobre la velocidad a la que se priodujo aquella extinción es que sucedió en menos de unas pocas decenas de miles de años o en unos cien mil años; sin embargo, esto se considera un cambio brusco en relación con la escala de tiempo utilizada en geología.

File:Chicxulub radar topography.jpg

La hipótesis propone que un asteroide de 15 kilómetros de diámetro impactó en algún lugar de la Tierra (después se identificó con un cráter en las inmediaciones de la península del Yucatán, el llamado cráter de Chicxulub), levantando millones de toneladas de corteza continental volatilizada a la atmósfera. Posteriormente, tras unas prospecciones petrolíferas se encontró la posible huella del evento buscado, como se puede observar en la siguiente imagen:

Resultado de imagen de El Asteroide que hace 65 millones de años cayó en el Yucatán

El impacto que creó un cráter de 180 kilómetros de diámetro ocasionó que millones de toneladas de plataforma continental fueran volatilizadas y enviadas a decenas de kilómetros de altura ocasionando una nube de polvo muy densa que persistió durante años llevando al mundo a un enfriamiento global siendo aquel el mayor invierno nuclear que ha visto la Tierra, que sepamos.

Las preguntas obvias que todo esto planteason las mismas que surgen tras un gran terremoto: ¿por qué sucedió? ¿podría suceder de nuevo? y, en ese caso, ¿cuándo? En el caso del suceso K – T, tenemos un candidato muy cualificado para que fuera el desencadenante que hizo que aquella extinción se produjera hacer 65 millones de años, en vez de suceder por ejemplo, hace 60 o 55 millones de años. Los restos de ese enorme cráter de arriba que data justo de entonces ha sido descubierto bajo lo que actualmente es la península de Jucatán, en Mejico, y por todo el mundo se ha encontrado estratos de hace 65 millones de años que contienen restos de Iridio, un metal abundante en el centro de la Tierra pero, muy escaso en la superficie, del que sabemos que es un componente de los meteoritos de cierto tipo.

Lutetia: el asteroide más grande visitado

Si alguno de estos cayera sobre la Tierra, la Historia se podría repetir y, en algún caso, ni sería seguro que algo vivo pudiera seguir existiendo con la caida de un enorme “monstruo” pétro venido del espacio interestelar a velocidades alucinantes que no podríamos frenar ni destruir. La Tierra, a pesar de su mucha y avanzada tecnología, no está preparada para solucionar estos problemas.

Resultado de imagen de El fin de los Dinosaurios

                       Un enorme meteoro provocó el cráter de Chicxulub, en México
No es difícil explicar por qué pudo suceder todo aquello que provocó el enorme impacto. La energía cinética contenida en tal impacto sería equivalente a la explosión de mil millones de megatoneladas de TNT y arrojaría al espacio unos detritos en forma de grandes bloques que se desplazarina siguiendo trayectorias balísticas (como las de los misiles intercontinentales) y volverían a entrar en la atmósfera por todo el globo terráqueo, difundiendo calor y aumentando la temperaturta de todas las zonas. Se produciría un efecto de calentamiento de 10 kilowatios por cada metro cuadrado de la superficie de la Tierra durante varias horas, un fenímeno que ha sido descrito gráficamente por especialistas.
A continuación, unas diminutas partículas de polvo lanzadas al interior de la parte superior de la atmósfera se extendería alrededor del todo el planeta y, combinadas con el humo de todos los incendios desencadenado por el “asado a la parrilla”, bloquearían el paso de la luz de del Sol, causando la muerte de todas las plantas que depend´çian de la fotosíntesis y congelando temporalmente el planeta.
Imagen relacionada
                              Claro que no estamos a salvo, mirad arriba
Resultado de imagen de El asteroide Se llama 2005YU55
                                Esta vez estuvimos cerca de nuevo

Se llama 2005 YU55 y no es la primera vez que tenemos noticias de él. Este asteroide de 400 metros de diámetro (el tamaño de un portaaviones) calificado en su día como potencialmente peligroso para la Tierra, se acercó el pasado 8 de noviembre a 324.600 kilómetros de nuestro planeta, una distancia inferior a la que está la Luna. En términos astronómicos, significa una arriesgada caricia en la cara. Observatorios de todo el mundo no perdieron detalle de la visita. En concreto, científicos de la NASA siguieron la trayectoria de la roca espacial desde radiotelescopios de Goldstone, California, y Arecibo, en Puerto Rico. Ante la sensación que causó la cercanía del cometa Elenin, la agencia espacial ha querido adelantarse a los más aprensivos: “el asteroide no ejercerá ninguna influencia sobre las placas tectónicas o la gravedad de la Tierra. No se notará efecto alguno.”

La trayectoria del 2005 YU55, descubierto en 2005 por astrónomos de la Universidad de Arizona, es bien conocida. En su punto máximo de aproximación llegará a 324.600 kilómetros de la Tierra (0,85 de la distancia a la Luna). Aunque 2005 YU55 visita regularmente la vecindad de la Tierra, Venus y Marte, debido a su trayectoria, el encuentro de 2011 fue el más cercano que esta roca espacial ha realizado durante los últimos 200 años. ¿Quién nos garantiza que la próxima vez será el viaje tan pacífico? Cualquier suceso podría variar su trauectoria con resultados funestos para nosotros.

El suceso K – T es en realidad sólo una entre cinco catástrofes similares (en la medida en que afectó en aquella época a la vida de la Tierra) a las que los geólogos denominan en conjunto “las cinco grandes” -y no es en absoluto la mayor-. Cada una de ellas se utiliza como marcadores entre períodos geológicos y todas han sucedido durante los últimos 600 millones de años. La razón por la que nos centramos en este pasado geológico relativamente reciente es que fue en esa época cuando los seres vivos desarrolloron por primera vez algunas características, tales como las conchas, que podían focilizarse fácilmente, ejando rastros que pueden reconocerse en los estratos que se estudian en la actualidad.
Antes de aquella época (durante la larga era feológica conocida como Precambrico) había florecido la vida en los océanos durante casi cuatro mil millones de años en forma de criaturas de una sola célula que no ha dejado rastro alguno al diluirse con el medio y desaparecer cualquier vestigio de su existencia. Sin embargo, hace alrededor de 600-590 millones de años, al comienzo del período geológico conocido como cámbrico, hubo una explosión de vida que dio lugar a diferentes variedades de formas multicelulares, y luego a criaturas vivas poco más evolucionadas. Obviamente, cuanto más nos acercamos a la actualidad, conocemos cada vez más sobre las pautas cambiantes de la Tierra, y el tipo de conocimiento que nos interesa aquí, que abarca grandes extinciones de vida, no empieza a verse claro hasta después de concluir el Precámbrico.
Resultado de imagen de Las grandes extinciones del Precámbrico
Tomándolas cronológicamente, las cinco grandes extinciones se produjeron hace unos 440 millones de años (que marcaron la frontera entre los períodos …
Tomándolas cronológicamente, las cinco grandes extinciones se produjeron hace unos 440 millones de años (que marcaron la frontera entre los períodos ordovícico y silúrico), hace 360 millones de años (entre el devónico y el carbonífero), 250 millones de años (entre el pérmico y el triásico), 215 millones de años (en la frontera entre el triásico  y el jurásico) y 65 millones de años (en la frontera K – T).
Lógicamente han habido muchas otras extinciones en el registro fósil, y también se utilizan a menudo como marcadores en el “calendario geológico” -por ejemplo, la frontera entre el jurásico y el cretácico, hace 145 millones de años, se define también mediante una extinción.
Pero las cinco extinciones que hemos mencionado son las más importantes. La más espectacular de todas ellas fue el suceso que tuvo lugar  hace unos 250 millones de años, al final del pérmico. Barrió al menos el 80 por ciento y muy posiblemente hasta el 95 por ciento , de todas las especies que vivían en nuestro planeta en aquellos tiempos, tanto en la Tierra como en los océanos, y lo hizo durante un intervalo de menos de 10.000 años. En conjunto se calcula que más de un tercio de todas las especies que han vivido siempre en la Tierra han desaparecido en extinciones masivas. Sin embargo, dado que también se calcula que el 99 por ciento de todas las especies que han vivido en la Tierra se han extinguido, esto significa que son el doble las que han desaparecido en sucesos de “menor importancia”, o, al menos, menos llamativos.
La cuestión que nos intriga es si las extinciones en masa son en realidad acontecimientos especiales, de carácter diferente al de las extinciones de “menor importancia” y que, según todos los datos en la mano, tienen en su haber más muertes que aquellas que más han sonado en la Historia de la Tierra. ¿Son acaso las extinciones de vida en la Tierra unos hechos cuya naturaleza es independiente de su magnitud, como los terremotos causados (entre otras causas) por los movimientos de las placas tectónicas como las erupciones volcánicas y todos los demás fenómenos sabemos ocurren periódicamente en nuestro planeta.
Y, a todo ello, no no dejaría atrás, ni perdería de vista, el resultado que tendría aquí en la Tierra, la explosión supernova de alguna que otra estrella más o menos cercana a nuestro Sistema Solar y que, según creo, podría ser devastador y de consecuencias incalculables en bienes y vidas. Y, digo esto porque, bien pensado, no parece que podamos adjudicar todas esas extinciones a la caída de  grandes meteoritos provenientes del espacio sobre nuestro planeta. Lo que parece estar diciéndonos el registro fósil es que las extinciones se producen en todas las escalas, todos los tiempos, y que, (como el caso de los terremotos) puede producir una extinción de cualquier magnitud y en cualquier época, sucesos impredecibles para los que, nosotros, aún no estamos preparados ni podemos evitar.
 
Hace 444 millones de años, en la transición entre los períodos Ordovícico y Silúrico, ocurrieron dos extinciones masivas llamadas extinciones masivas del Ordovícico-Silúrico. Su causa probable fue el período glaciar. El primer evento ocurrió cuando los hábitats marinos cambiaron drásticamente al descender el nivel del mar. El segundo ocurrió entre quinientos mil y un millón de años más tarde, al crecer el nivel del mar rápidamente.
Como decíamos antes, hace 65 millones de años en la extinción masiva del Cretácico-Terciario, desaparecieron cerca del 50% de todas las especies, incluyendo los dinosaurios.
Durante el cretácico tardío, el nivel del mar subió en todo el mundo, inundando casi un tercio de la superficie terrestre actual.
Así, el calor del sol pudo distribuirse más hacia el norte gracias a las corrientes marinas, dando lugar a un clima global cálido y suave, con polos sin casquete de hielo y una temperatura en las aguas del Ártico de 14° C o más.

En un clima así, los reptiles de sangre fría podían proliferar incluso en latitudes boreales, mientras que los fósiles de helechos y cicas encontrados en rocas del cretácico a latitudes árticas son similares a las plantas de hoy en los bosques húmedos subtropicales.

A finales del cretácico, la flora había adoptado ya una apariencia moderna e incluía muchos de los géneros actuales de árboles, como el roble, el haya y el arce.
A pesar de la benignidad de las condiciones ambientales a finales del periodo se produjeron varias extinciones en masa.
Se extinguieron cinco grandes grupos de reptiles —dinosaurios, pterosaurios, ictiosaurios, plesiosaurios y mosasaurios— que hasta entonces habían sido dominantes.
Una teoría reciente señala que su extinción se debió a la colisión de la Tierra con un cometa o un pequeño asteroide, que lanzó polvo a la atmósfera como para bloquear parte de la radiación solar incidente y reducir la temperatura en todo el mundo, produciendo efectos devastadores sobre las algas, la vegetación y los pequeños animales de los que dependían los grandes reptiles para alimentarse.
Seguirá…
emilio silvera

Incertidumbre, Orden, Caos, Entropía…Vida.

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo y la Entropía    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

http://lamemoriacelular.com/blog/wp-content/uploads/2010/04/celula.png

          Moléculas, átomos y conexiones para formar pensamientos

Imaginemos una mente inteligente que, en todo momento, pudiera tener conocimiento de todas las fuerzas que controlan la Naturaleza y también, de las condiciones en que se encuentran en cada momento todas las unidades de que consta ésta. Si esta mente tuviera una inteligencia suficiente para analizar todos estos datos, podría abarcar en una sola fórmula los movimientos de los cuerpos de mayor tamaño del universo y los de los átomos más ligeros; para ella nada sería incierto; el futuro y el pasado estarían ambos presentes ante sus ojos.

Imagen relacionada

                                Esto sería Inteligencia Artificial

El equivalente moderno de esta mente sería un superordenador que conociera todas las posiciones y las velocidades de todas las partículas del universo, y pudiera utilizar las leyes de Newton y las que describen las fuerzas de la naturaleza (como la gravedad y el electromagnetismo), no solo para predecir la trayectoria futura de cada partícula, sino para averiguar toda la historia de su procedencia –porque en las leyes de Newton no hay nada que nos revele la dirección del tiempo y funcionan de la misma manera si éste transcurre en sentido contrario, como podemos ver fácilmente si nos imaginamos el proceso inverso del choque entre dos bolas de billar, o si invertimos el movimiento orbital de todos los planetas del Sistema Solar-.

No hay una flecha del tiempo en las leyes de Newton y, según Laplace y muchos otros, estas leyes parecen describir un mundo completamente determinista en el cual el pasado y el futuro están fijados de una manera rígida y no hay lugar para el libre albedrío.

Lo que ninguno de estos científicos parece haber observado es que el argumento fundamental se desploma si, en cualquier momento y lugar del universo, se produce una colisión simultánea entre tres partículas –aunque la valoración de si esto sería suficiente para restablecer el libre albedrío es una cuestión cuya discusión prefiero dejar a la filosofía.

    El tiempo y la entropía destructora

En la física del movimiento y sus causas -Dinámica- las leyes de la naturaleza funcionan tanto si el tiempo transcurre “hacia adelante” como también si lo hiciera “hacia atrás”, es decir que son simétricas y reversibles en el tiempo. Si filmamos un choque entre dos partículas, o la órbita de un planeta entorno a su sol, y pasamos la película al revés, notaremos que las trayectorias están invertidas, lo cual es totalmente coherente para la física: no hay nada que nos indique que el tiempo está trascurriendo en sentido contrario. Si las leyes de la naturaleza no distinguen entre el pasado y el futuro, entonces ¿por qué notamos que el tiempo fluye en un sentido y no en otro? ¿De dónde sale esa asimetría del tiempo? ¿Por qué recordamos el pasado pero no el futuro?

Este mismo problema relativo al tiempo se planteó a partir de uno de los mayores triunfos de la física del siglo XIX: la investigación de la naturaleza de la luz y de otras formas de radiación electromagnética, que tuvo su momento culminante en la obra del escocés James Clerk Maxwell (1831-1879). La explicación dada por Maxwell sobre la radiación electromagnética se basa en la obra de Michael Faraday, que vivió entre 1791 y 1867, y propuso la definición de los “campos” eléctrico y magnético que surgen en torno a los objetos que poseen una carga eléctrica.

Fue Faraday el primero en sugerir que la luz podría estar producida por algún tipo de vibración de las líneas de fuerza asociadas con imágenes y partículas “cargadas”, que vibrarían como lo hacen las cuerdas de un violín al ser pulsadas. El problema estaba en que, Faraday, carecía de los conocimientos matemáticos necesarios para desarrollar la idea de maneta tal que se desarrollara un modelo perfectamente configurado. Así, en la década de 1860, llegó Maxwell para rematar el trabajo de Faraday con sus maravillosas ecuaciones vectoriales para demostrar que todos los fenómenos eléctricos y magnéticos conocidos en aquella época, incluido el comportamiento de la luz, podía ser descrito mediante un conjunto de sólo cuatro ecuaciones, que actualmente se denominan ecuaciones de Maxwell.

Resultado de imagen de Statue of J. Clerk Maxwell

                     Statue of J. Clerk Maxwell

Newton y Maxwell, dieron al mundo el conjunto de herramientas matemáticas necesarias para controlar todo lo que la física conocía a mediados del siglo XIX. Por otra parte, lo más maravilloso de las ecuaciones de Maxwell era que, sin que se hubiera pedido, proporcionaban una descripción de la luz –las ecuaciones se crearon para describir otros fenómenos electromagnéticos, pero incluían en sí misma una solución que describía las ondas electromagnéticas que se desplazaban por el espacio a cierta velocidad- Esta velocidad es exactamente la de la luz (que ya había quedado bien determinada en la década de 1860 y pronto podría medirse con una precisión aún mayor), no dejando lugar a dudas de que la luz se desplaza como una onda electromagnética.

Las ecuaciones de Maxwell tienen dos características curiosas: una de ellas pronto tendría un profundo impacto en la física, y la otra fue considerada hasta tiempos muy recientes sólo como una rareza de menor importancia. La primera característica innovadora de estas ecuaciones es que dan la velocidad de la luz como un valor constante, independientemente de cómo se mueva su fuente con respecto a la persona o al aparato que mida su velocidad (Einstein lo supo ver con claridad cuando lo incorporó a su teoría de la relatividad especial).

La Flecha del Tiempo en el Universo…siempre hacia el futuro



Claro que, como todo, también las ecuaciones de Maxwell tenían sus limitaciones, especialmente en la descripción de fenómenos que se producen a escalas muy pequeñas, tales como el comportamiento de los átomos y de las partículas que los componen. En este caso, es preciso modificar tanto la descripción clásica de las descripciones electromagnéticas (Maxwell), como la descripción clásica de las interacciones entre partículas (Newton), fenómenos en los cuales se cumplen las reglas de la física cuántica. Así, las ecuaciones de Maxwell, como las de Newton, tampoco contienen la flecha del tiempo.

Lo que fue durante mucho tiempo la explicación habitual la razón por la que vemos una dirección predominante del tiempo surgió a partir de otro gran triunfo de la física del siglo XIX: la descripción de la relación entre calor y movimiento (termodinámica). Esto tuvo una importancia práctica fundamental en el mundo industrial cuando se utilizaba la fuerza de las máquinas de vapor.

Lo cierto es que, la importancia de la termodinámica reside en que permite a los físicos explicar el comportamiento de gran número de objetos –en especial, partículas de gas- que, en cierto sentido, funcionan juntos en un sistema complejo. Esto incluye el uso de promedios y estadísticas, pero se basa en gran medida en la idea de que un gas está constituido por una cantidad innumerable de partículas diminutas (átomos y moléculas) que no cesan de rebotar y chocar entre sí y con las paredes del recipiente que las contiene, cumpliendo las leyes del movimiento de Newton. Esta teoría cinética de los gases fue un ejemplo importante del modo en que las leyes universales de la física ponían orden en el caos.

Ludwing Boltzmann (1844-1906)
       Ludwig Boltzmann (1844-1906)

La palabra “gas” fue acuñada por el físico flamenco Joannes van Helmont a partir de la palabra griega que significa “caos”; este término apareció impreso por primera vez en el libro de van Helmont titulado Ortus medicinae, publicado cuatro años después del fallecimiento de Joannes, en 1648. La idea de que los gases eran como un caos se consideró acertada durante trescientos años, hasta que Maxwell desde Gran Bretaña, y su contemporáneo Ludwig Boltzmann, desde Viena, consolidaron la teoría cinética (que hasta entonces había sido sólo una especulación), dándole una firme base científica fundamentada en las leyes de Newton.

Lo que actualmente se conoce como segundo principio de la termodinámica se puede expresar de muchas formas diferentes, pero su primer enunciado se debe al físico británico William Thomson (quien fuera posteriormente lord Kelvin) en 1852. La cuestión principal sobre la que Thomson llamó la atención era la idea de la disipación –que, aunque el modo en que funciona el mundo natural se puede describir como un gran motor que convierte el calor en trabajo (o en movimiento, que viene a ser lo mismo), debe haber siempre algo de calor que se disipa durante el proceso, aunque realmente no se pierde, sino que se propaga por todo el universo, haciendo que la temperatura global suba una pizca, una cantidad imperceptible-Esto va más allá del principio, o ley, de la conservación de la energía (el primer principio de la termodinámica), porque en este caso, aunque la cantidad total de energía del mundo (expresión con la que los victorianos se referían a lo que actualmente llamaríamos el universo) se mantiene siempre igual, la cantidad de energía útil siempre está disminuyendo. Esto implica que los físicos necesitaban un método para cuantificar la cantidad de energía útil existente en un sistema cerrado, o en el mundo (el universo en toda su amplitud), de tal manera que pudiera tenerla en cuenta y manejarla en sus ecuaciones. Esto indujo a Rudolf Clausius a proponer el concepto de entropía, lo cual hizo en Alemania a mediados de la década de 1860.

Resultado de imagen de La entropía a partir del Orden

La entropía mide la cantidad de orden que hay en un sistema y, si el desorden aumenta, también lo hace la entropía. Sabiendo que en el mundo real el desorden crece en todo sistema cerrado (las cosas se desgastan) a medida que pasa el tiempo, el inevitable aumento de la entropía define una dirección del tiempo, una flecha que parte del pasado ordenado y apunta hacia el futuro desordenado. Dado que este proceso parecía inevitable y universal, los especialistas en termodinámica de la era victoriana preveían un destino último del universo en el que toda la energía útil se habría convertido en calor y todo sería una mezcla templada de materia a temperatura uniforme, una situación desoladora que llamaban la “muerte térmica” del universo.

La vida, por supuesto, parece desafiar este proceso creando orden y estructuras a partir de materiales desordenados (o, en todo caso, menos desordenados). No parece más que, el Universo, actúa como si tuviera una consciencia y, hubiera creado la vida para que, a través de ella, pudiera evitar ese final. Una planta, por ejemplo, construye su estructura, y puede fabricar flores de gran belleza, a partir del dióxido de carbono, agua y unos pocos restos de otros productos químicos. Pero sólo puede hacerlo con la ayuda de la luz solar, es decir, con energía procedente de una fuente externa. La Tierra, y en particular la vida que se desarrolla en ella, no es un sistema cerrado. Es posible demostrar, utilizando las ecuaciones desarrolladas por Thomson, Clausius y sus contemporáneos, que, en cualquier lugar del Universo donde aparece un foco de orden, esto se hace a costa de que se produzca más desorden en otro lugar.

Resultado de imagen de La explosión Supernova

Una explosión Supernova de una estrella masiva nunca podrá volver a su estado original. La estrella como sistema cerrado, llegó al Caos total con el paso del Tiempo y explotó para transformarse en una cosa distinta de la que fue.

A escala macroscópica, según unas leyes deducidas a partir de experimentos y observación siguiendo procedimientos científicos aprobados, ensayados y comprobados, el universo actúa de un modo irreversible. Nunca se puede hacer que las cosas vuelvan a ser como solían, todo lo que surge, aunque nos parezca igual, no lo es. Todo lo nuevo que surge a partir de lo que había, está más evolucionado y, de alguna manera, es diferente. Pero precisamente en nuestro sencillo y clásico ejemplo de irreversibilidad termodinámica, la entropía y la flecha del tiempo podemos observar con claridad la dicotomía aparente entre el mundo macroscópico y el mundo microscópico. A nivel de los átomos y las moléculas que componen el gas (en realidad un nivel sub-microscópico, pero nadie lo tiene en cuenta), toda colisión es, según las leyes de Newton, perfectamente reversible y, en ese modelo del movimiento inverso no habría nada que estuviera prohibido por las leyes de Newton. Obedeciendo ciegamente esas leyes, los átomos y las moléculas recorrerían su camino inverso para volver a quedarse en su posición original, con independencia del número de sucesos e interacciones que pudieran haber sufrido durante el proceso. Sin embargo, en el mundo real, nunca vemos que los sistemas actúen de esa manera. Las civilizaciones pasan y llegan otras nuevas, aquellas que se fueron, nunca volverán. De la misma manera, cuando una estrella, al final de su vida, explota como supernova y deja sembrado el espacio interestelar de una hermosa Nebulosa de la que, mucho más tarde, surgirán nuevas estrellas, éstas, serán de otra generación, más complejas y, aunque seguirán siendo estrellas, estarán clasificadas como diferentes, más complejas y evolucionadas que aquellas en las que tienen su origen.

Resultado de imagen de El Caos surge a partir del Orden

                                La belleza del caos en todo su esplendor!

Me proponía al comenzar este trabajo a exponer muchas más cosas pero, como siempre pasa, el espacio y el tiempo no dan para tanto en este lugar y, dejo pendiente explicar cómo surge el Caos a partir del Orden y el Orden a partir del Caos, cómo podemos llegar al borde del Caos y qué transiciones de fase tienen que producirse para que, la normalidad y la simetría vuelva a reinar a partir de ese desorden que, en un principio, podría parecer irreversible.

De todo lo que aquí hemos hablado, se puede tomar razón y llegar a tener una razonada conciencia en el estudio de una galaxia espiral que, con sus millones de estrellas brillantes en los brazos espirales y sus estrellas rojas y más viejas en el centro galáctico, nos hablan claramente de la flecha del tiempo y de la entropía al considerar, la galaxia, como el sistema cerrado que, poco a poco, va tornándose más y más compleja en la composición de la materia que la conforma que, de manera irreversible va sufriendo transformaciones de todo tipo que, finalmente, la llevará a un estado crítico que hasta se podría transformar en un inmenso agujero negro como resultado final del proceso.

Resultado de imagen de La Especie Humana se presenta en el UNiverso hace muy poco tiempo

Lo cierto es que llegamos, como aquel que dice, antes de ayer, y, nos creemos los dueños del Universo, cuando en realidad,, somo menos que un grano de arena en la inmensa playa, o, de una gota de Agua del inmenso Océano… Pero, así somos: Engreidos y fatuos, ególatras y poco humildes. Claro que, la realidad nos hará cambiar.

Mucho es lo que nos queda por saber, lo que sabemos, reconociendo que no es poco para el exiguo tiempo que llevamos aquí (en la medida del reloj del universo), es aún insuficiente para lo que la Humanidad necesita saber. Nuestra ignorancia es grande, muy grande…, casi infinita, si la contraponemos con todo aquellos que nos queda por descubrir de los secretos de la Naturaleza. Nunca podremos acabar ese aprendizaje que se pierde en la lejanía de la flecha del tiempo en ese infinito que llamamos futuro.

emilio silvera

Los Misterios de la Tierra

Autor por Emilio Silvera    ~    Archivo Clasificado en Ciencias de la Tierra    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Encuentros espaciales

La más destructiva intensificación temporal de los normalmente suaves flujos de energía geotectónica – erupciones volcánicas o terremotos extraordinariamente potentes – o de energía atmosférica – vientos o lluvias anormalmente intensas –, parecen irrelevantes cuando se comparan con las repetidas colisiones del planeta con cuerpos extraterrestres relativamente grandes.

Existen simulaciones de lo que puede ser el choque del meteorito en la Tierra y, desde luego, no quisiera estar aquí cuando suceda. La Tierra está siendo bombardeada continuamente por invisibles partículas microscópicas de polvo muy abundantes en todo el Sistema Solar, y cada treinta segundos se produce un choque con partículas de 1 mm de diámetro, que dejan un rastro luminoso al autodestruirse en la atmósfera. También son relativamente frecuentes los choques con meteoritos de 1 metro de diámetro, que se producen con una frecuencia de, al menos, uno al año.

Pero los impactos, incluso con meteoritos mayores, producen solamente efectos locales. Esto es debido a que los meteoritos que deambulan por la región de asteroides localizada entre Marte y Júpiter están girando alrededor del Sol en el mismo sentido que la Tierra, de manera que la velocidad de impacto es inferior a 15 Km/s.

Entre Marte y Júpiter hay cientos de miles de cuerpos pequeños que orbitan alrededor del Sol llamados asteroides. También podemoas encontrarlos más allá de Plutón, llamado cinturón de Kuiper, y que en este caso reciben el nombre de objetos transneptunianos y que están hecho de hielo. Ceres es el asteroide más grande y tiene 913 km de diámetro.

http://1.bp.blogspot.com/-SwuAJK5Bz2U/TV76KPZo_lI/AAAAAAAACQc/JZfFb_Du7kE/s1600/crater_c%255B2%255D.jpg

El cráter de Arizona, casi perfectamente simétrico, se formó hace 25.000 años por el impacto de un meteorito que iba a una velocidad de 11 Km/s, lo que representa una potencia cercana a 700 PW. Estas gigantescas liberaciones de energías palidecen cuando se comparan con un choque frontal con un cometa típico. Su masa (al menos de 500 millones de toneladas) y su velocidad relativa (hasta 70 Km/s) elevan su energía cinética hasta 1022 J. Aunque se perdiera un diez por ciento de esta energía en la atmósfera, el impacto sería equivalente a una explosión de unas 2.500 bombas de hidrógeno de 100 megatones. Está claro que un fenómeno de estas características produciría impresionantes alteraciones climatológicas. Sin embargo, no es seguro y sí discutible que un impacto parecido fuese la causa de la extinción masiva del cretácico, siendo lo más probable, si tenemos en cuenta el periodo relativamente largo en que se produjo, que se podría explicar por la intensa actividad volcánica de aquel tiempo.

La frecuencia de impactos sobre la Tierra disminuye exponencialmente con el tamaño del objeto. Muchas toneladas son las que recibimos cada año de pequeños fragmentos de todo tipo pero, cuando estos van aumentando de tamaño, los sucesos de espacian de manera sustancial

Aproximadamente, cada cincuenta o sesenta millones de años se produce una colisión con un cometa, lo que significaría que la biosfera, que ha evolucionado durante cuatro mil millones de años, ha debido superar unos cuarenta impactos de este tipo. Está claro que ha salido airosa de estas colisiones, ya que aunque haya sido modificada, no ha sido aniquilada.

Supernova 1994D (SN1994D) en la galaxia NGC 4526. La supernova es el punto brillante abajo a la izquierda. Pueden llegar a brillar más que toda la galaxia completa durante un breve período de tiempo. (Crédito: NASA). Ahí, en esa explosión sin igual, se gesta la “fabricación” de materiales muy complejos como el oro y el platino…entre otros.

Igualmente, la evolución de la biosfera ha sobrevivido a las explosiones altamente energéticas de las supernovas más “cercanas”. Dado que en nuestra galaxia se produce por término medio la explosión de una supernova cada 50 años, el Sistema Solar se encuentra a una distancia de 100 parsecs de la explosión cada dos millones de años y a una distancia menor de 10 parsecs cada dos mil millones de años. En este último caso, la parte alta de la atmósfera se vería inundada por un flujo de rayos X y UV de muy corta longitud de onda, diez mil veces mayor que el flujo habitual de radiación solar, lo que implica que la Tierra recibiría, en unas pocas horas, una dosis de radiación ionizante igual a la que recibe anualmente. Exposiciones de 500 roentgens son setales para la mayoría de los vertebrados y, sin embargo, los diez episodios de esta magnitud que se han podido producir en los últimos 500 millones de años no han dejado ninguna consecuencia observable en la evolución de la biosfera.

          La imagen de arriba corresponde a un suceso que ninguno quisiéramos que ocurriera

Si suponemos que una civilización avanzada podría preparar refugios para la población durante el año que transcurre ente la llegada de la luz y la llegada de la radiación cósmica, se encontraría con la inevitable dosis de 500 roentgens cada mil millones de años, tiempo suficiente para permitir el desarrollo de una sociedad cuyo conocimiento le sirviera para defenderse de un flujo tan extraordinario y de consecuencias letales.

La fotosíntesis

Todo el Oxígeno de la Atmósfera terrestre procede del oxígeno que desprenden los organismos autótrofos durante la fotosíntesis.

          La fotosíntesis es el principal proceso bioquímico que consigue pasar materiales desde el biotopo hasta la biocenosis de un ecosistema. Una vez incorporados como parte de los organismos autótrofos, los heterótrofos (por ejemplo, los animales) solo tienen que aprovecharse de aquellos; con la existencia de pequeñas cantidades de agua, todo está preparado para que el ecosistema entero comience a funcionar. Además, siempre habrá animales depredadores, carnívoros, que seguirán aprovechando los materiales de otros.

La conocida ecuación básica que describe la reacción endotérmica por la cual se sintetiza una molécula de glucosa a partir de sus seis moléculas de CO2 y H2O, y 2’8 MJ de radiación solar, es una simplificadísima caja negra. Una caja negra más realista sería la siguiente:

106 CO2 + 90 H2O + 16 NO3 + PO4 + nutrientes minerales + 5’4 MJ de radiación = 3’258 g de protoplasma (106 C, 180 H, 46 O, 16 N, 1 P y 815 g de cenizas minerales) + 154 O2 + 5’35 MJ de calor disipado.

Sin macronutrientes ni micronutrientes no se puede producir fitomasa, que está compuesta por los nutrientes básicos necesarios para todos los seres heterótrofos: azúcares complejos, ácidos grasos y proteínas.

Para entender esta caja negra hay que comenzar por destacar la acción de unos pigmentos sensibles a la luz entre los cuales destacan las clorofilas. Éstas absorben la luz en dos bandas estrechas, una entre 420 y 450 nm, y la otra entre 630 y 690 nm. Así, la energía necesaria para la fotosíntesis sólo procede de la radiación azul y roja a la que corresponde menos de la mitad de la energía total de la insolación. Esta parte de la radiación fotosintéticamente activa (RFA) no se utiliza en reducir CO2, sino en la regeneración de compuestos consumidos durante la fijación del gas.

La síntesis de fitomasa en el ciclo reductor del fosfato pentosa (RPP) – un proceso con varios pasos de carboxilación por catálisis enzimática, reducción y regeneración – tiene que empezar con la formación de trifosfato de adenosina (ATP) y nicotinamida adenina dinucleótido fosfato (NADP), que son los dos compuestos que suministran energía a todas las reacciones biosintéticas. La síntesis de las tres moléculas de ATP y las dos de NADP que se necesitan para reducir cada molécula de CO2 requiere de diez cuantos de radiación solar con longitud de onda próxima al pico rojo de absorción de la clorofila (680 nm). El carbono procedente del CO2, combinado con el hidrógeno del agua y con los micronutrientes, dará lugar a nueva fitomasa que contiene 465 KJ/mol.

La cantidad de energía de un cuanto de luz roja es de 2’92×10-19 J (el producto de la constante de Planck, 6’62×10-34 por la frecuencia de la luz, que a su vez es el cociente entre la velocidad de la luz y la longitud de onda).

Un einstein (definido como un mol o número de Avogadro, 6’02×1023) de fotones rojos tiene una energía aproximadamente igual a 17 Kg. Suponiendo que la RFA es el 45% de la luz directa, la eficiencia global de la fotosíntesis es del 11%, que equivale a 456/(1.760/0’43). Esta eficiencia se reduce por lo menos en una décima parte más si tenemos en cuenta la reflexión de la luz en las hojas y la pérdida que supone atravesar la cubierta vegetal. Ninguna planta, sin embargo, se acerca siquiera a esta eficiencia teórica, porque parte de la luz absorbida por las clorofilas (generalmente, el 20 – 25 por ciento) vuelve a ser emitida en forma de calor, debido a que los pigmentos no pueden almacenar la luz y las reacciones enzimáticas no se producen con suficiente velocidad como para utilizar completamente el flujo de energía incidente. En la respiración se cede el carbono fijado en el metabolismo de la planta y en el mantenimiento de las estructuras que la soportan.

Mosaico: bienvenido al planeta Tierra

                  Mosaico de nuestro planeta Tierra que recibe una fracción de la energía solar

Para cada especie, la tasa con la que se pierde carbono está determinada principalmente por el tipo de fotosíntesis. Así, existen diferencias sustanciales entre las plantas C3 y C4. La respiración a escala de una comunidad o ecosistema depende del estado de crecimiento, y varía entre menos del 20 por ciento en plantas jóvenes en rápido crecimiento, hasta más del 90 por ciento en bosques maduros.

Con una pérdida del 25 por ciento para la reacción, y otro tanto para la respiración, la eficiencia fotosintética es ligeramente superior al 5 por ciento. En este punto, las estimaciones teóricas y los valores reales coinciden, ya que el valor medio de fotosíntesis neta en plantas muy productivas y en condiciones óptimas y durante cortos periodos de tiempo, oscila entre el 4 y el 5 por ciento. La mayoría de las plantas rinden en función de los nutrientes, especialmente nitrógeno y agua, o por las bajas temperaturas en las regiones de mayor altura y latitud. Los mejores rendimientos en sistemas naturales muy productivos, como los humedales y los cultivos, están entre el 2 y el 3 por ciento. En otros ecosistemas, como los pantanos tropicales templados y los bosques templados, el rendimiento de la transformación es del 1’5 por ciento, y en las praderas muy áridas sólo del 0’1 por ciento. Globalmente, la producción anual es, al menos, de 100.000 millones de toneladas de fitomasa, que se sintetizan con un rendimiento medio del 0’6 por ciento.

Resultado de imagen de La fotosíntesis en los océanos, muy afectada por la escasez de nutrientesResultado de imagen de La fotosíntesis en los océanos, muy afectada por la escasez de nutrientes

                             Mapa de clorofila en los océanos

La fotosíntesis en los océanos, muy afectada por la escasez de nutrientes, es incluso menos eficiente. La productividad medie es de poco más de 3 MJ/m2 y se realiza con un rendimiento fotosintético del 0’06 por ciento. La media ponderada total es 0’2 por ciento, es decir, que sólo uno de cada 500 cuantos de energía solar que llega a la superficie de la Tierra se transforma en energía de biomasa en forma de tejido vegetal.

La mayor parte de esta energía se almacena en forma de azúcares simples, que contienen más energía, y que sólo se encuentran en las semillas.

La mayor parte de la fitomasa está en los bosques. En los océanos, los principales productores son los organismos que componen el fitoplancton, que son muy pequeños y flotan libres. Su tamaño varía entre algo menos de 2 y 200 μm de diámetro y están formados por cantidades variables de bacterias y protoctistas eucarióticos. Las cianobacterias cocoides son tan abundantes en algunas aguas oligotrópicas que pueden ser las responsables de la mayor parte de la producción de fitoplancton.

http://www.conciencianatural.com/wp-content/uploads/2011/08/plani.jpg

Los protoctistas fotosintetizadores varían entre los más pequeños flagelados pigmentados (como las criptomonas y crisofitos), hasta las diatomeas y dinoflagelados, que son mayores (más de 10 mm) y generalmente dominantes. Las diatomeas están formadas por células sin flagelos, con paredes de silicio amorfo mezclados con otros compuestos orgánicos. Presentan una sorprendente y amplia variedad de diseño, desde las que tienen simetría central (las de forma radial son las dominantes en el océano), a las pennadas (simetría lateral), y otras forman largas cadenas.

La productividad de fitoplancton está controlada por la temperatura del agua y por la disponibilidad de radiación solar y nutrientes. La temperatura no es determinante, porque muchas especies son muy adaptables y consiguen una productividad similar en distintos ambientes. Aunque es frecuente la adaptación a diferentes condiciones lumínicas, tanto el volumen como en contenido en clorofila de las diatomeas aumenta con la intensidad de la luz. En el mar abierto, la mayor limitación es la cantidad de nutrientes disponibles.

Entre las carencias que más limitan la producción de fitoplancton está la de nitrógeno, el macronutriniente más importante, la de fósforo, y la de algunos otros micronutrientes clave como el hierro y el silicio.

http://www.conciencianatural.com/wp-content/uploads/2011/08/plancton-.jpg

Los medios menos productivos de la Tierra están en la capa superficial y la capa inmediatamente inferior de los océanos. En el mar abierto, las concentraciones más altas de nutrientes se encuentran entre los 500 y los 1.000 metros, a bastante más profundidad que la zona eufórica, capa en la que penetra la luz solar y que se extiende a unos 100 metros en las aguas transparentes.

El pequeñísimo tamaño de los productores dominantes es una adaptación eficaz a la escasez de nutrientes, ya que cuanto mayor sea el cociente entre la superficie y el volumen, y más lento el hundimiento de las células de fitoplancton en la capa eufórica, mayor es la tasa de absorción de nutrientes.

Cuando las corrientes elevan a la superficie las aguas frías y cargadas de nutrientes, la producción de fitoplancton aumenta sustancialmente. Las aguas costeras de Perú, California, noroeste y sudoeste de África, y de la India occidental son ejemplos destacados de ascensión costera de aguas frías. También se dan casos de ascensión mar adentro en la mitad del Pacífico, cerca del ecuador y en las aguas que rodean la Antártida. Otras zonas altamente productivas se encuentran en las aguas poco profundas cercanas a la costa que están enriquecidas por el aporte continental de nutrientes. Este enriquecimiento, con una proporción N/P muy descompensada, es especialmente elevados en los estuarios adonde van a parar grandes cantidades de aguas residuales y fertilizantes.

 

Las diferentes medidas de la productividad en las aguas oligotróficas de los mares subtropicales y de las aguas eutróficas con corrientes ascensionales, varían entre menos de 50 gC/m2 y 1 gC/m2, más de un orden de magnitud. Las estimaciones de la producción global de fitoplancton están comprendidas entre 80.000 y 100.000 millones de toneladas, que representan entre dos tercios y cuatro quintos de la fitomasa total terrestre. Contrasta con el resultado anterior el hecho de que, dado el corto periodo de vida del fitoplancton (1 – 5 días), la fitomasa marina represente sólo una pequeña fracción de todo el almacenamiento terrestre.

La distribución espacial del fitoplancton muestra zonas delimitadas que se extienden a escala local y global. La exploración desde los satélites es, con gran diferencia, la que permite detectar con mayor precisión las concentraciones de clorofila y la que ha posibilitado obtener las pautas de la distribución de fitoplancton. En las aguas que rodean la Antártida se observa claramente una distribución asimétrica en dos bandas casi concéntricas. La mejor distribución se explica por el hecho de que se deba a corrientes circumpolares y a la abundancia de ácido silicílico. Pero las zonas de mayor riqueza de fitoplancton se encuentran cerca de los continentes donde los ríos arrastran abundantes nutrientes disueltos.

Figura 4-3 > Ejemplo de cadena trófica” width=”484″ height=”383″ border=”1″ /></p>
<p style=La vida necesita un aporte continuo de energía que llega a la Tierra desde el Sol y pasa de unos organismos a otros a través de la cadena trófica.

El fitoplancton es la base energética de las intrincadas pirámides tróficas. Las cadenas alimenticias en el océano, generalmente, son redes complicadas. Una gran parte de la fitomasa disponible no la consumen directamente los herbívoros, sino que primero se almacena en depósitos de materia muerta que, transformada por bacterias, se convertirá en alimento para otros seres heterótrofos.

La gran producción de fitoplancton puede alimentar grandes cantidades de zoomasa. El kril, pequeños crustáceos parecidos a las quisquillas que se alimentan de diatomeas, son los organismos más abundantes en la superficie del mar; sus densas acumulaciones pueden contener hasta mil millones de individuos y su producción anual de zoomasa quizá llegue hasta los 1.300 millones de toneladas. Esta prodigiosa cantidad de zoomasa sirve de alimento a focas, calamares y peces, así como a los mayores carnívoros de la biosfera, las especies de ballenas con barbas que se alimentan filtrando el agua.

emilio silvera