lunes, 23 de septiembre del 2019 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Conocer mejor el planeta Tierra

Autor por Emilio Silvera    ~    Archivo Clasificado en La Tierra y su energía    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

http://1.bp.blogspot.com/-tDP9Ys9IIaw/ULPHEhtfJlI/AAAAAAAAAEo/2DkkmYkbdwk/s1600/planeta-tierra.jpg

Esta es nuestra casa y, debemos procurar mantenerla limpia, no por si viene una visita sino que, es vital para nosotros y para vida en general. No siempre somos conscientes del daño que muchas de nuestras actividades pueden hacer al planeta que nos cobija. Pero veámos algunos detalles que definen a este planeta único en nuestro entorno espacial.

Las fuerzas que actúan sobre la Tierra, como planeta en el espacio, tiene profundas implicaciones energéticas. La gravitación ordena y orienta, y obstaculiza y facilita los flujos de energía cinética. La rotación genera la fuerza centrífuga y la de Coriolis: la primera achata el planeta por los polos ensanchándolo por el ecuador, y la segunda desvía los vientos y las corrientes de los océanos (a la derecha del hemisferio norte y a la izquierda en el hemisferio sur). La rotación es también la causa de los ritmos diarios de las plantas y animales, y de la desaceleración de la Tierra, que alarga el día un promedio de 1’5 ms cada siglo, lo que representa una pérdida de tres teravatios por fricción de mareas.

Pero ni la gravitación ni la rotación (fricción) hacen de la Tierra un planeta único entre los cuerpos celestes de nuestro entorno. Su exclusividad procede de sus propiedades térmicas internas, que causan los ciclos geotectónicos que modifican la superficie, y de su atmósfera, océanos y plantas que transforman la radiación solar que reciben. Los orígenes de estos procesos no están claros.

Podemos fijar la edad de la Tierra en algo más de los 4.000 millones de años por la desintegración de los isótopos radiactivos, pero poco podemos asegurar sobre la formación del planeta o sobre la energética de la Tierra primitiva. Sobre el tema circulan varias teorías, y es muy plausible que el origen del Sistema Solar planetario fuera una nube interestelar densa en la que el Sol se formó por una inestabilidad gravitatoria y que la posterior aglomeración del resto de esta materia dispersa, que giraba a distintas distancias, a su alrededor, diera lugar a los planetas. No está claro si al principio la Tierra estaba extremadamente caliente o relativamente fría. Me inclino por lo primero y estimo que el enfriamiento fue gradual con los cambios de atmósferas y la creación de los océanos.

Río de lava

           Esta de arriba podría ser una imagen cotidiana en la Tierra primitiva

Las incertidumbres geológicas básicas se extienden hasta el presente. Diferentes respuestas a cuestiones como la cantidad de 40K en el núcleo terrestre o sobre la convección del magma en el manto (hay una o dos celdas) dan lugar a diferentes explicaciones para el flujo de calor y la geotectónica de la Tierra. Lo que sí está claro es que el flujo interno de calor, menos de 100 mW/m2, tiene un efecto pequeño comparado con la reflexión, absorción y emisión de la radiación solar.

El balance de la radiación terrestre (Rp) en la capa alta de la atmósfera es la suma de la radiancia extraterrestre (la constante sola Q0) reducida por el albedo planetario y el flujo saliente de larga longitud de onda (Qi): Rp = Q0(1-ap) + Qi = 0. El flujo emitido es igual a la suma de la radiación atmosférica y la terrestre: Qi = Qea + Qes. Los balances de la radiación en la atmósfera (Ra) y en la superficie de la Tierra (Rs) son iguales, respectivamente, a la diferencia entre la correspondiente absorción y emisión: Ra = Qaa + Qea y Rs = Qas + Qes, de manera que Rp = Ra + Rs = 0. Hay que continuar explicando la radiación saliente con los flujos irradiados y emitidos por la superficie terrestre, el flujo de radiación medio absorbida, etc., etc., etc., con una ingente reseña de símbolos y tedioso esquemas que, a mi parecer, no son legibles para el lector normal y no versado en estos conocimientos. Así que, aunque sea mutilar el trabajo, desisto de continuar por ese camino y prosigo por senderos más amenos y sugestivos para el lector.

http://notaspampeanas.com/wp-content/uploads/2012/07/cinturonradiacion.jpg

El impacto de la radiación solar en la atmósfera terrestre, en una gran tormenta solar de 2003. (Crédito: NASA / Goddard

La fuente más importante del calentamiento atmosférico proviene de la radiación terrestre de longitud de onda larga, porque el flujo de calor latente es una contribución secundaria y el flujo de calor sensible sólo es importante en las regiones áridas donde no hay suficiente agua para la evaporación. Los océanos y los continentes también reciben indirectamente, irradiadas por la atmósfera, la mayor parte de su calor en forma de emisiones de longitudes de onda larga (4 – 50 μm). En este flujo de radiación reenviado hacia la superficie terrestre por los gases invernadero, domina a la radiación del vapor de agua, que con una concentración variable, emite entre 150 y 300 W/m2, y al que también contribuye el CO2 con unos 75 W/m2.

El intercambio de radiación de longitud de onda larga entre la superficie y la atmósfera sólo retrasa temporalmente las emisiones de calor terrestre, pero controla la temperatura de la biosfera. Su máximo es casi 400 W/m2 en los trópicos nubosos, pero es importante en todas las estaciones y presenta significativas variaciones diarias. El simple paso de una nube puede aumentar el flujo en 25 W/m2. Las mayores emisiones antropogénicas de gases invernadero han aumentado este flujo en cerca de un 2’5 W/m2 desde finales del siglo XIX.

Como era de esperar, las observaciones de los satélites confirman que el balance de energía de la Tierra está en fase con la radiación solar incidente (Q0), pero la radiación media saliente (Qi) está desfasada con la irradiancia, alcanzando el máximo durante el verano en el hemisferio norte. La distribución asimétrica de los continentes y el mar explica este fenómeno. En el hemisferio norte, debido a la mayor proporción de masa terrestre, se experimentan mayores cambios estacionales que dominan el flujo global de la radiación saliente.

Quizás el resultado más sorprendente que se deriva de las observaciones por satélite sea que, estacionalmente, se observan cierto déficit y superávit de radiación y el balance de la radiación en el planeta no es igual a cero, pero sin embargo, en cada hemisferio la radiación anual está en equilibrio con el espacio exterior. Además, la contribución atmosférica por transporte de energía hacia los polos es asimétrica respecto al ecuador con valores extremos de unos 3 PW cerca de los 45º N, y -3 PW cerca de 40º S.

Podría continuar hablando sobre los vientos, los terremotos, las lluvias y otros fenómenos atmosféricos, sin embargo, no creo que, por ser estos fenómenos naturales muy conocidos de todos, pudieran tener gran interés. Pasemos pues a comentar sobre los océanos.

                                           El agua de la vida

Agua, mejor que Tierra, habría sido el nombre adecuado para el tercer planeta, puesto que los océanos cubren más del 70 por ciento de la superficie terrestre, con una profundidad media de 3’8 Km. Debido a las especiales propiedades térmicas del agua, éstas constituyen un extraordinario regulador del balance energético del planeta.

Este líquido tiene cinco ventajas termodinámicas importantes: un punto de ebullición inusualmente alto, debido a su capacidad para formar enlaces de hidrógeno intermoleculares; un calor específico de 2’5 a 3’3 veces más elevado que el del suelo; una capacidad calorífica (calor específico por unidad de volumen) aproximadamente seis veces mayor que la tierra seca; un altísimo calor de vaporización que le permite transportar una gran cantidad de calor latente; y su relativamente baja viscosidad, que le convierte en un eficiente transportador de calor en los océanos mediante miríadas de remolinos y caudalosas corrientes.

       Los océanos de la Tierra vistos desde el espacio

No es sorprendente, pues, que los océanos, que tienen cerca del 94 por ciento de toda el agua, sean determinantes en el balance energético del planeta. Cuatro quintas partes de la radiación solar que llega a la Tierra entra en la atmósfera que cubre los océanos, los cuales con un albedo superior al 6% absorben la energía con una tasa cercana a 65 PW, casi el doble de la absorción atmosférica total y cuatro veces mayor que la continental. Inevitablemente, los océanos también absorben la mayor parte, casi dos tercios, del calor rerradioirradiado hacia abajo por la atmósfera elevando su ritmo de calentamiento a los 175 PW.

Salvo en los océanos menos profundos, la interacción aire-mar no afecta directamente a las aguas profundas. Las oscuras y frías aguas de las profundidades marinas están aisladas de la atmósfera por la capa mixta, una capa de poca profundidad que va de pocos metros a pocos cientos de metros y que está afectada por los vientos y el oleaje.

A pesar de que el alto calor específico del agua limita el rango de variación, las temperaturas de esta capa sufren importantes fluctuaciones diarias y estacionales. Sin embargo, variaciones relativamente pequeñas de la temperatura de la superficie de los océanos tienen importantes consecuencias climáticas: quizás el mejor ejemplo de esta teleconexión climática sea el fenómeno del Niño, que consiste en una extensión en forma de lengua de las aguas superficiales calientes hacia el este, cuyos efectos se extienden desde Canadá hasta África del sur.

En esta “coreografía” acuática, también tiene un papel significativo el Estrecho de Dinamarca, que se alimentan de las aguas más profundas de la AMOC y las devuelve al sur a través de brechas en la cordillera de Groenlandia y Escocia. En este sentido, los científicos explican que, durante años, se ha pensado que el estrecho danés, que ha aumentado considerablemente su capacidad como consecuencia del deshielo, se abastecía de una corriente adyacente a Groenlandia.

Debido a que la conductividad térmica del agua es muy baja, la transferencia de energía de la capa mixta hacia las profundidades se realiza fundamentalmente mediante corrientes convectivas. Estas corrientes compensan la extremadamente baja fuerza ascensional de las aguas profundas, más calientes, que son desplazadas por el movimiento hacia el ecuador de las corrientes frías provenientes de los polos. En contraste con el gradual ascenso general de las aguas oceánicas, la convección hacia abajo se produce en corrientes bien delimitadas que forman gigantescas cataratas oceánicas. Seguramente la mayor es la que fluye hacia el sur bajo el estrecho de Dinamarca, entre Islandia y Groenlandia, y se sumerge unos 3’5 Km transportando 5 millones de m3/s, un caudal veinte veces mayor que el del Amazonas.

Miríadas de corrientes oceánicas, que a menudo viajan cientos de kilómetros a diferentes profundidades, transportan considerables cantidades de energía y sal. Quizás el ejemplo más importante de estas combinaciones de transportes sea la corriente de agua caliente y salada que sale del Mediterráneo a través del estrecho de Gibraltar. Este flujo caliente pero denso desciende sobre la pendiente de la plataforma continental hasta alcanzar el equilibrio entre el peso y el empuje ascensional a unos mil metros de profundidad. Aquí se separa en dos celdas lenticulares que se mueven durante siete años hacia el este y hacia el sur, respectivamente, hasta que decaen o chocan contra alguna elevación marina.

File:Strait of gibraltar.jpg

Si el Estrecho de Gibraltar pudiera contar su historia…

Un mapa global de los flujos de calor desde la superficie oceánica hasta las capas profundas muestra claramente máximos longitudinales a lo largo del ecuador y a lo largo de aproximadamente 45º S en los océanos Atlántico e Índico. Esta transferencia es también importante en algunas áreas costeras donde se producen intensos flujos convectivos ascendentes que intercambian calor entre las aguas superficiales y las profundas, como ocurre en la costa de California y al oeste de África. Un flujo en dirección contraria, que calienta la atmósfera, se produce en las dos mayores corrientes oceánicas calientes, la corriente del Golfo en el Atlántico y la de Kuroshio en el Pacífico oriental.

Todas la regiones donde se produce este ascenso de aguas calientes (a lo largo de las costas del continente americano, África, India y la zona ecuatorial del Pacífico occidental) se distinguen fácilmente por los elevados niveles de producción de fitoplancton, causados por un importante enriquecimiento de nutrientes, comparados con los que, de otra manera, corresponderían normalmente a las aguas superficiales oligotrópicas.

La radiación transporta la mayor parte (casi 4/5) de la energía que fluye desde la capa mixta hasta la atmósfera, y el resto del flujo calorífico se produce por calor latente en forma de vapor de agua y lluvias.

http://www.atrativoweb.com/wp-content/uploads/2012/04/mapa-do-oceano-atlantico.jpg

                                                              Océano Atrlántico

Aún no se ha realizado una valoración cuantitativa del transporte total para cada latitud, pero en el océano Atlántico hay transferencia de calor hacia el norte a lo largo de toda su extensión, alcanzando en el trópico un valor aproximado de 1 PW, flujo equivalente al que se produce en el Pacífico norte. En el Pacífico sur, el flujo de calor hacia el polo a través del trópico es de 0’2 PW. La parte occidental del Pacífico sur puede constituir la mayor reserva de calor del Atlántico sur, de igual modo que es probable que el océano Índico sur constituya una reserva del Pacífico.

Ahora tocaría comentar algo sobre los ríos del planeta, sin embargo, lo obvio y me dirijo directamente a comentar sobre el calor de la Tierra.

Aunque la Tierra se formara inicialmente a partir de materia fría (material cósmico) que se contrajo por acción de la gravedad, durante la formación posterior del núcleo líquido y en los periodos de intensa actividad volcánica se ha liberado una enorme cantidad de calor. Los frecuentes impactos de objetos pesados también han contribuido al calentamiento de la superficie. Hay mucha incertidumbre sobre la historia térmica de la Tierra de los últimos 3.000 millones de años, durante los cuales el planeta se ha ido enfriando y una gran parte de este flujo de calor ha alimentado los movimientos geotectónicos globales, creando nueva corteza en las dorsales oceánicas; un proceso que ha ido acompañado de terremotos recurrentes y erupciones volcánicas de lava, cenizas y agua caliente.

Solamente hay dos posibles fuentes de calor terrestre, pero la importancia relativa de las respectivas contribuciones no está aún muy clara. El calor basal, liberado por un lento enfriamiento del núcleo terrestre debe representar una gran parte del flujo total, si bien cálculos basados en la desintegración radiactiva del U235, U238, Th232 y K40 sugieren que éste representa al menos la mitad y quizás hasta nueve décimos del flujo total de calor del planeta. Esta disparidad obedece a la incertidumbre en la concentración de K40 en la corteza terrestre. Pero sea cual sea la proporción, el flujo total, basado en miles de medidas realizadas desde los años cincuenta, está próximo a los 40 TW.

Aunque inicialmente se pensó que los flujos continentales y oceánicos eran aproximadamente iguales, en realidad difieren de forma sustancial. Las regiones del fondo oceánico más recientes contribuyen con más de 250 mW/m2, cantidad que supera hasta tres veces las zonas continentales más recientes. El flujo medio para todo el fondo marino es aproximadamente igual a 95 mW/m2, lo que representa un 70% más que el correspondiente a la corteza continental. El flujo  medio global es de 80 mW/m2, unos tres órdenes de magnitud inferior al valor medio del flujo de calor de la radiación solar global.

Publica: emilio silvera

La fuente del presente trabajo, aunque variada en texto e imágenes, en su mayor parte está en una guía ilustrada de la biosfera y la civilización de Vaclav Smil.

¡La Física! Una llave para saber

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

“Un nuevo experimento desarrollado en el LHCb del Gran Colisionador de Hadrones (LHC) de Ginebra ha puesto uno de los límites más restrictivos del Modelo Estándar de la Física de Partículas, una teoría ampliamente contrastada que da cuenta solamente del 4% del Universo visible.


Se necesita una nueva física para explicar el 90% restante y los últimos resultados de LHCb, que restringen la tasa de desintegración de los mesones Bs, señala la nueva física que podemos esperar.”

Como muchos otros modelos que los científicos han creado para expresar éste o aquél apartado de la Naturaleza, también en la física del partículas y de las interacciones fundamentales se ha creado el Modelo estándar que, no podemos negarlo, ha sido y sigue siendo una extraordinaria herramienta para los físicos pero, está incompleto al no incluir la fuerza de Gravedad y, además, es feo y tiene en su construcción, algunos parámetros, que no podemos explicar. Sobre todo, choca que, cuando tratamos de univer el modelo con la teoría de la relatividad general, el resultado es incomprensible.

Sí, es feo y complicado:

File:Quarks.gif

  1. 36 quarks, que se presentan en 6 “sabores” y 3 “colores” y sus réplicas en antimateria para describir las interacciones fuertes.
  2. 8 campos de Yang-Mills para describir los gluones, que ligan los quarks.
  3. 4 campos de Yang-Mills para describir las fuerzas débiles y electromagnéticas.
  4. 6 tipos de leptones para describir las interacciones débiles.
  5. Un gran número de misteriosas partículas de “Higgs” necesarias para ajustar las masas y las constantes que describen a las partículas.
  6. Al menos 19 constantes arbitrarias que describen las masas de las partículas y las intensidades de las diversas interacciones.  Estas diecinueve constantes deben ser introducidas a la fuerza; no están determinadas en modo alguno por la teoría (actualmente, las 19 han sido elevadas a 26).

 

Partículas y campos, clásicos y cuánticos. Las nociones clásicas de partícula y campo comparadas con su contrapartida cuántica. Una partícula cuántica está deslocalizada: su posición se reparte en una distribución de probabilidad. Un campo cuántico es equivalente a un colectivo de partículas cuánticas.

 

Así las cosas, está claro que hay que buscar otro modelo.

La fealdad del Modelo Estándar puede contrastarse con la simplicidad de las ecuaciones de Einstein, en las que todo se deducía de primeros principios. Para comprender el contraste estético entre el Modelo Estándar y la teoría de la relatividad general de Einstein debemos comprender que, cuando los físicos hablan de “belleza” en sus teorías, realmente quieren decir que estas “bellas” teorías deben poseer al menos dos características esenciales:

  1. Una simetría unificadora.
  2. La capacidad de explicar grandes cantidades de datos experimentales con las expresiones matemáticas más económicas y, si atendemos la fórmula de Einstein E = mc2 , decir más, con menos, parece imposible.

 

El Modelo Estándar falla en ambos aspectos, mientras que la relatividad general los exhibe, ambos, de manera bien patente. Nunca una teoría dijo tanto con tan poco; su sencillez es asombrosa y su profundidad increíble.  De hecho, desde que se publicó en 1.915, no ha dejado de dar frutas, y aún no se han obtenido de ella todos los mensajes que contiene.

Al contrario de la relatividad general, la simetría del Modelo Estándar, está realmente formada empalmando tres simetrías más pequeñas, una por cada una de las fuerzas; el modelo es espeso e incómodo en su forma. Ciertamente no es económica en modo alguno. Por ejemplo, las ecuaciones de Einstein, escritas en su totalidad, sólo ocupan unos centímetros y ni siquiera llenaría una línea de esta página. A partir de esta escasa línea de ecuaciones, podemos ir más allá de las leyes de Newton y derivar la distorsión del espacio, el Big Bang y otros fenómenos astronómicos importantes como los agujeros negros. Por el contrario, sólo escribir el Modelo Estándar en su totalidad requeriría, siendo escueto, un par de páginas de esta libreta y parecería un galimatías de símbolos complejos sólo entendibles por expertos.

Los científicos quieren creer que la naturaleza prefiere la economía en sus creaciones y que siempre parece evitar redundancias innecesarias al crear estructuras físicas, biológicas y químicas.

El matemático francés Henri Poincaré lo expresó de forma aún más franca cuando escribió: “El científico no estudia la Naturaleza porque es útil; la estudia porque disfruta con ello, y disfruta con ello porque es bella”.

                         Rutherford

E. Rutherford, quien descubrió el núcleo del átomo (entre otras muchas cosas), dijo una vez: “Toda ciencia es o física o coleccionar sello”.  Se refería a la enorme importancia que tiene la física para la ciencia, aunque se le olvidó mencionar que la física está sostenida por las matemáticas que la explica.

Pero, a pesar de todos sus inconvenientes, el Modelo Estándar, desde su implantación, ha cosechado un éxito tras otro, con sus inconvenientes y sus diecinueve parámetros aleatorios, lo cierto es que es lo mejor que tenemos por el momento para explicar las familias de partículas que conforman la materia y cómo actúan las fuerzas de la naturaleza, todas las fuerzas menos la gravedad; esa nos la explica a la perfección y sin fisuras las ecuaciones de Einstein de la relatividad general.

      Llegan nuevas creencias que tienen origen en el pasado cercano

Hace tiempo que los físicos tratan de mejorar el Modelo Estándar con otras teorías más avanzadas y modernas que puedan explicar la materia y el espacio-tiempo con mayor amplitud y, sobre todo, incluyendo la gravedad.  Así que retomando la teoría de Kaluza de la quinta dimensión, se propuso la teoría de supergravedad en 1.976 por los físicos Daniel Freedman, Sergio Ferrara y Peter van Nieuwenhuizen, de la Universidad del Estado de Nueva York en Stoney Brook que desarrollaron esta nueva teoría en un espacio de once dimensiones.

Después de mucho trabajo, mucho tiempo y mucho presupuesto, por fín, llegó el LHC que, cuando comience sus experimentos nos dirá como mejorar el ME actual y, seguramente, alguna cosa más.

emilio silvera

¡Objetos misteriosos!

Autor por Emilio Silvera    ~    Archivo Clasificado en Agujeros negros    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Kip Thorne, especialista en Agujeros Negros nos cuenta en uno de sus libros, cómo algunos científicos especializados como él, pudieron despejar muchas de las incógnitas escondidas en los misteriosos objetos.  La idea de que Agujeros negros gigantes podían activar los cuásares y las radiogalaxias fue concebida por Edwin Salpeter y Yakov Borisovich Zel´dovich en 1964. Esta idea era una aplicación obvia del descubrimiento de dichos personajes de que las corrientes de gas, cayendo hacia un agujero negro, colisionarían y radiarían.

Una descripción más completa y realista de la caída de corriente de gas hacia un agujero negro fue imaginada en 1969 por Donald Lynden-Bell, un astrofísico británico en Cambridge. Él argumentó convincentemente, que tras la colisión de las corrientes de gas, estas se fundirían, y entonces las fuerzas centrífugas las harían moverse en espiral dando muchas vueltas en torno al agujero antes de caer dentro; y a medida que se movieran en espiral, formarían un objeto en forma de disco, muy parecidos a los anillos que rodean el planeta Saturno: Un disco de Acreción lo llamó Lynden-Bell puesto que el agujero está acreciendo (todos hemos visto la recreación de figuras de agujeros negros con su disco de acreción).

En Cygnus X-1, en el centro galáctico, tenemos un Agujero Negro modesto que, sin embargo, nos envía sus ondas electromagnéticas de rayos X. En el disco de acreción, las corrientes de gas adyacentes rozarán entre sí, y la intensa fricción de dicho roce calentará el disco a altas temperaturas.

En los años ochenta, los astrofísicos advirtieron que el objeto emisor de luz brillante en el centro de 3C273, el objeto de un tamaño de 1 mes-luz o menor, era probablemente el disco de acreción calentado por la fricción de Lynden-Bell.

Fue en 1963 cuando M. Schmidt identificó por primera vez al quasar 3C 273

Normalmente pensamos que la fricción es una pobre fuente de calor. Sin embargo, puesto que la energía gravitatoria es enorme, mucho mayor que la energía nuclear, la fricción puede realizar fácilmente la tarea de calentar el disco y hacer que brille con un brillo 100 veces mayor que la galaxia más luminosa.

¿Cómo puede un agujero negro actuar como un giróscopo? James Bardeen y Jacobus Petterson de la Universidad de Yale comprendieron la respuesta en 1975: si el agujero negro gira rápidamente, entonces se comporta precisamente como un giróscopo. La dirección del eje del giro permanece siempre firme fijo e inalterado, y el remolino creado por el giro en el espacio próximo al agujero permanece siempre firmemente orientado en la misma dirección.

Bardeen y Petterson demostraron mediante un cálculo matemático que este remolino en el espacio próximo al agujero debe agarrar la parte interna del disco de acreción y mantenerlo firmemente en el plano ecuatorial del agujero; y debe hacerlo así independientemente de cómo esté orientado el disco lejos del agujero.

A medida que se captura nuevo gas del espacio interestelar en la parte del disco distante del agujero, el gas puede cambiar la dirección del disco en dicha región, pero nunca puede cambiar la orientación del disco cerca del agujero. La acción giroscópica del agujero lo impide. Cerca del agujero el disco sigue y permanece siempre en el plano ecuatorial del mismo.

Sin la solución de Kerr a la ecuación de campo de Einstein, esta acción giroscópica hubiera sido desconocida y habría sido imposible explicar los cuásares. Con la solución de Kerr a mano, los astrofísicos de mitad de los años setenta estaban llegando a una explicación clara y elegante. Por primera vez, el concepto de un agujero negro como un cuerpo dinámico, más que un simple “agujero en el espacio”, estaba jugando un papel central en la explicación de las observaciones de los astrónomos.

¿Qué intensidad tendrá el remolino del espacio cerca de un agujero gigante? En otras palabras, ¿cuál es la velocidad de rotación de los agujeros gigantes? James Bardeen dedujo la respuesta: demostró matemáticamente que la acreción de gas por el agujero debería hacer que el agujero girase cada vez más rápido. Cuando el agujero hubiera engullido suficiente gas en espiral para duplicar su masa, el agujero debería estar girando casi a su velocidad máxima posible, la velocidad más allá de la cual las fuerzas centrífugas impiden cualquier aceleración adicional. De este modo, los agujeros negros gigantes deberían tener típicamente momentos angulares próximos a su valor máximo.

En las imágenes podemos contemplar galaxias que se fusionarán y, sus agujeros negros centrales se harán gigantes

¿Cómo puede un agujero negro y su Disco dar lugar a dos chorros que apuntan en direcciones opuestas? De una forma sorprendentemente fácil, reconocieron Blandford, Rees y Lynden-Bell en la Universidad de Cambridge a mediados de los setenta. Hay cuatro formas posibles de producir chorros; cualquiera de ellas funcionaria, y, aquí, donde se explica para el no versado en estos objetos cosmológicos, sólo explicaré el cuarto método por ser el más interesante:

El Agujero es atravesado por la línea de campo magnético. Cuando el agujero gira, arrastra líneas de campo que le rodean, haciendo que desvíen el plasma hacia arriba y hacia abajo. Los chorros apuntan a lo largo del eje de giro del agujero y su dirección está así firmemente anclada a la rotación giroscópica del agujero. El método fue concebido por Blandford poco después de que recibiera el doctorado de física en Cambridge, junto con un estudiante graduado de Cambridge, Roman Znajek, y es por ello llamado el proceso Blandford-Znajet.

Algunos dicen que en los agujeros negros está la puerta hacia la quinta dimensión

Este proceso es muy interesante porque la energía que va a los chorros procede de la enorme energía rotacional del agujero (esto debería parecer obvio porque es la rotación del agujero la que provoca el remolino en el espacio, y es el remolino del espacio el que provoca la rotación de las líneas de campo y, a su vez, es la rotación de las líneas de campo la que desvía el plasma hacia fuera.)

¿Cómo es posible, en este proceso Blandford-Znajet, que el horizonte del agujero sea atravesado por líneas de campo magnético? tales líneas de campo serían una forma de “pelo” que puede convertirse en radiación electromagnética y radiada hacia fuera, y por consiguiente, según el teorema de Price, deben ser radiadas hacia fuera. En realidad, el teorema de Price solo es correcto si el agujero está aislado, lejos de cualquier otro objeto.

Pero el agujero que estamos discutiendo no está aislado, está rodeado de un disco de acreción. Así que las líneas de campo que surgen del agujero, del hemisferio norte y las que salen del hemisferio sur se doblarán para empalmarse y ser una continuación una de otra, y la única forma de que estas líneas puedan entonces escapar es abriendo su camino a través del gas caliente del disco de acreción. Pero el gas caliente no permitirá que las líneas de campo lo atraviesen; las confina firmemente en la región del espacio en la cara interna del disco, y puesto que la mayor parte de dicha región está ocupada por el agujero, la mayoría de las líneas de campo confinadas atravesarán el agujero.

¿De donde proceden esas líneas de campo magnético? Del propio disco.

Cualquier gas en el Universo está magnetizado, al menos un poco, y el gas del disco no es una excepción. Conforme el agujero acrece, poco a poco, gas del disco, el gas lleva con él líneas de campo magnético. Cada pequeña cantidad de gas que se aproxima al agujero arrastra sus líneas de campo magnético y, al cruzar el horizonte, deja las líneas de campo detrás, sobresaliendo del horizonte y enroscándose. Estas líneas de campo enroscadas, firmemente confinadas por el disco circundante, extraerían entonces la energía rotacional del agujero mediante el proceso de Blandford-Znajet.

Los métodos de producir chorros (orificios en una nube de gas, viento de un embudo, líneas de campo arremolinadas ancladas en el disco, y el proceso Blandford-Znajet) actúan probablemente, en grados diversos, en los cuásares, en las radiogalaxias y en los núcleos característicos de algunos otros tipos de galaxias (núcleos que se denominan núcleos galácticos activos).

Si los cuásares y las radiogalaxias están activados por el mismo tipo de máquina de agujero negro, ¿qué hace que parezcan tan diferentes? ¿Por qué la luz de un cuásar aparece como si procediera de un objeto similar a una estrella, intensamente luminoso y de un tamaño de 1 mes-luz o menos, mientras que la luz de radiogalaxias procede de un agregado de estrellas similar a la Vía Láctea, de un tamaño de 100.000 años-luz?

Parece casi seguro que los cuásares no son diferentes de las radiogalaxias; sus máquinas centrales también están rodeadas de una galaxia se estrellas de un tamaño de 100.000 a.l. Sin embargo, en un cuásar el agujero negro central está alimentado a un ritmo especialmente elevado por el gas de acreción y, consiguientemente, el calentamiento friccional del disco es también elevado. Este calentamiento del disco hace que brille tan fuertemente que su brillo óptico es cientos o miles de veces que el de todas las estrellas de la galaxia circundante juntas.

Los astrónomos, cegados por el brillo del disco, no pueden ver las estrellas de la galaxia, y por ello el objeto parece “cuasi estelar” (es decir, similar a una estrella; como un minúsculo punto luminoso intenso) en lugar de parecer una galaxia.

La región más interna del disco es tan caliente que emite rayos X; un poco más lejos el disco está más frío y emite radiación ultravioleta; aún más lejos está más frío todavía y emite radiación óptica (luz); en su región mas externa está incluso más frío y emite radiación infrarroja. La región emisora de luz tiene típicamente un tamaño de aproximadamente un año-luz, aunque en algunos casos, tales como 3C273, puede ser de un mes luz o más pequeña.

Estas explicaciones para los cuásares y las radiogalaxias basadas en agujeros negros son tan satisfactorias que es tentador asegurar que deben ser correctas.

Está claro que hemos podido acceder a muchos conocimientos que no hace mucho tiempo eran impensables pero, las teorías de Einstein y Planck, deben ser sobrepasadas y debemos ir mucho más lejos, allí donde residen esas respuestas que hasta el momento nadie ha sabido dar y que responderán a preguntas que fueron posibles formular, gracias a Einstein y Planck, ya que, sin los conocimientos que ellos nos hicieron llegar, no podríamos intuir que hay muchas cosas que están más allá de sus postulados.

emilio silvera

Os hablaré de REMS, una estación meteorológica especial

Autor por Emilio Silvera    ~    Archivo Clasificado en exploración del espacio    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Javier Gómez-Elvira, investigador del CAB (INTA-CSIC): “REMS registrará seis parámetros atmosféricos distintos”

jgb

23/11/2011

(infoespacial.com) Madrid.- Javier Gómez-Elvira, ingeniero en robótica del Centro de Astrobiología (CAB) del INTA-CSIC, e investigador principal del REMS (Rover Environmental Monitoring Station), explica que el instrumento desarrollado en España para Curiosity registrará seis parámetros atmosféricos: dirección y velocidad del viento, presión, humedad relativa, temperatura del aire, temperatura del terreno y radiación ultravioleta. (por cierto, se ha detectado que la atmósfera de Marte está saturada de vapor de agua?

Todos los sensores están localizados en torno a tres elementos: dos brazos unidos al Mástil de Teledetección (RSM), el sensor ultravioleta (UVS) situado en la cubierta superior del rover, y la Unidad de Control de Instrumentos (ICU) integrada dentro del vehículo.

“Los brazos son de aproximadamente de 1.5 metros por encima del nivel del suelo. La longitud de los mismos es similar al diámetro del RSM, y por lo tanto, la perturbación del flujo de viento por el RSM puede alcanzar la punta del brazo donde está ubicado el sensor de viento”, señala el investigador.

El rover Curiosity de la misión Mars Science Laboratory (MSL) de la NASA despega este sábado desde Cabo Cañaveral, en EE UU, rumbo a Marte. El vehículo incorpora dos instrumentos con tecnología española: la estación de monitorización medioambiental REMS y una antena de alta ganancia para enviar datos a la Tierra. El objetivo de la misión es determinar la habitabilidad del planeta rojo.
“El aspecto más importante del Mars Science Laboratory es que, a diferencia de otras misiones a Marte en la que los geólogos solo nos pudieron decir la composición de las rocas y si había habido agua, ahora se van a desarrollar estudios de química orgánica para buscar moléculas o procesos que se asocian con la vida”, explica a SINC Ashley Stroupe, ingeniera robótica en el JPL de la NASA y participante en este proyecto.
“También se observarán muchos otros aspectos del entorno marciano para determinar si pudo haber sido habitable alguna vez –añade la científica–, aportando nuevos enfoques sobre la historia de este planeta y la posibilidad de que la vida apareciera allí, o incluso que todavía exista oculta en alguna parte”.

El Rover Environmental Monitoring Station (REMS) es un instrumento desarrollado en el Centro de Astrobiología (INTA-CSIC) para explorar el medio ambiente en la superficie de Marte a borde del Mars SciencieLaboratory (MSL) de la Agencia Espacial de los EE UU (NASA). El MSL bautizado para el gran público como Curiosity es un vehículo que estudiará la habitabilidad del planeta y valorará si Marte fue o es todavía entorno adecuado para poder sostener la vida microbiana.

En su operación nominal a lo largo de un período mínimo de dos años terrestres (un año marciano, aproximadamente), REMS registrará durante un intervalo de cinco minutos cada hora, la temperatura del aire, la presión, la humedad relativa, la temperatura del suelo, la velocidad y dirección del viento y la radiación ultravioleta (UV).

El registro sistemático de dichas variables medioambientales permitirá caracterizar, entre otros fenómenos, la dinámica de capa límite de la atmósfera marciana, ciclos del agua y del polvo, y los niveles de radiación UV, contribuyendo de este modo a los objetivos fundamentales de la misión MSL.

La construcción, calibrado y prueba del instrumento REMS ha sido dirigida por el Centro de Astrobiología /CAB, CSIC-INTA), en colaboración con la Empresa EADS/Crisa, la Universidad Politécnica de Cataluña, el Instituto Meteorológico Finlandés (FMI), la Universidad de Alcalá de Henares y diversas instituciones norteamericanas.

Curiosity con REMS a bordo , fue lanzado con éxito por un cohete Atlas V el pasado 26 de noviembre de 2011 desde Kennedy Space Center, en Cabo Cañaveral (cerca de Orlando, Florida, USA). En la actualidad viaja sin mayor novedad hacia Marte, donde se espera que llegue en Agosto de este mismo año. Todas las pruebas hechas después del lanzamiento han confirmado que todos los sistemas (incluyendo REMS), funcionan según lo esperado.

A lo largo de la Historia de la exploración espacial, las Agencias de la Unión Soviética, Estados Unidos, Europa y Japón, han enviado a Marte varias decenas de plataformas espaciales. El motor de esta búsqueda es el afán de alcanzar nuevas fronteras del conocimiento, explorar entornos desconocidos y superar desafíos tecnológicos. Aproximadamente dos terceras partes de estas misiones, han fallado de una u otra manera antes del comienzo de la misión.

La mayor parte de las misiones científicas de exploración de Marte se han desarrollado en satélites que orbitan alrededor del planeta y utilizan técnicas de detección remota (teledetección) para caracterizar la superficie y el subsuelo del planeta, la geología y la mineralogía, Actualmente continúan en operación, investigando la superficie y la atmósfera de Marte, los orbitadores:

                                             Mars Reconnaissance Orbiter (desde 2006)

 

 

                                    Mars Express (de la ESA, desde 2003), y

 

 

                                          Mars Odyssei (desde 2001),

Y como vehículo de superficie, de los Mars Exploratión Rovers (MER)…el

Recientemente ha llegado a su fin con éxito dos misiones muy fructíferas, un orbitador, el Mars GlobalSurveyor (1997-2006)

 

 

y el otro vehículo de los MER, el Spirit rover (2004-2010).

Las técnicas de detección remota han sido explotadas hasta la fecha con gran éxito. Se han utilizado: espectrómetros (tanto en rango visible, como en el infrarrojo o en el ultravioleta), cámaras con capacidad para tomar imágenes de alta resolución, rádares para el estudio del subsuelo, detectores de campo magnético, detectores de neutrones, etc. No obstante la detección remota tiene ciertas limitaciones a la hora de caracterizar los fenómenos de superficie. Por un lado cada punto del planeta es observado a distintas horas del día y en distintas estaciones por lo que no es posible adquirir una secuencia sistemática de procesos locales que varíen en escalas de tiempos pequeñas.

En fin, que todas las misiones encaminadas a explorar el exterior, siempre resultarán muy complejas y, Marte, es como una pieza de toque, un laboratorio en el que ensayar para mayores proyectos.

Esperemos que, ahora que está bien asentada en aquel planeta, Curiosity nos pueda enviar buenas nuevas y buenas noticias. Imágenes ya nos facilita algunas pero… ¡queremos más! Además… ¡De la vida ni rastro!

emilio silvera

¡La curiosidad! que está con nosotros

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo, ¡La Curiosidad!    ~    Comentarios Comments (6)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

hubble2

Me ha venido a la memoria escenas y hechos que, en la última charla que pude dar en un Centro Educativo,  en el apartado de Ciencia, para chavales de 2º de Bachillerato, comencé la sesión ilustrándola con la Imagen de arriba, de la que di una breve explicación antes de entrar en materia que, en realidad era: Nacimiento, Vida y Muerte de las estrellas y, de lo que hacían durante eseos largos períodos de tiempo y, en qué se convertían al final de sus vidas como estrellas.

El caso fue que, comencé con las explicaciones y, de entre el auditorio de jóvenes llenos de energía y revoltosos, algunos, no prestaban atención y, además, con sus bromas y risas, no dejaban que los demás, se pudieran interesar en lo que allí se trataba.

Aquella actitud de algunos, me obligó a parar la esposición y, mirándo seriamente a los alborotadores, les dije: Chicos, si el tema no os interesa, y queréis salir de aquí siendo un poco más “burros”, sois libres de hacerlo. Sin embargo, os ruego que, si finalmente decidías seguir con nosotros, y al final ser un poco mñás “sabios”, dejéis de alborotar.

Como ya son “hombrecitos y mujeres”, la repimenda tuvo su efecto y, a partir de aquel momento, todos estuvieron atentos a mis palabras con las que fui desgranan, despacio y con palabras sencillas, lo que era una explosión de supernova y cómo dejaba regada una amplia región del espacio interestelar por una hermosa e inmensa nebulosa de cuyos materiales, vuelven a nacer nuevas estrellas y nuevos mundos.

Imagen de la formación de una estrella tomada por un nuevo telescopio. (Foto: ESA).

Apoyaba mis palabras con imágenes  como la de arriba.  La fotografía combina diferentes radiaciones, como rayos X, infrarojos o luz visible, y genera una amalgama de colores que aportan información importante para entender cómo llega una estrella a ser una estrella. Esta imagen ofrece una interesante mirada hacia el interior de la región activa de estrellas en ciernes llamada NGC 346. Los científicos responsables del telescopio aseguran que revela información nueva sobre cómo se forman las estrellas en el Universo.

La NASA publicó un video (1/09/2011) donde se aprecia el proceso de nacimiento estelar. Con grandes chorros de gas incandescente nacen las estrellas a millones de años luz, algo que ahora está al alcance del ojo humano a través de un vídeo reconstruido con imágenes fijas tomadas por el telescopio Hubble.  El vídeo, publicado en la página web de la agencia espacial estadounidense (NASA), ofrecía nuevos detalles sobre el proceso de nacimiento estelar, en el que se pueden apreciar los chorros de gas que expulsan las estrellas jóvenes con un detalle hasta ahora nunca visto.

A medida que las explicaciones avanzaban, pude notar como el interés de los chicos crecía. Ya no bromeaba nadie, la sala estaba en silencio y todos, sin excepción, se veían interesados e incluso, algunos, tenían la boca abierta por asombro. Allí, lo que al principio era una simple charla para alumnos, se fue convirtiendo en un auditoriun donde, profesores y alumnos de otras clases llegaban y se unián a los ya presentes.

Les pude explicar con todo detalle y de la manera más sencilla posible, como se formaban los elementos en las estrellas a partir del Hidrogeno, el elemento más sencillo de la Naturaleza.

Les expliqué el proceso protón-protón que convertía Hidrógeno en Helio y el proceso triple Alfa que convertía Helio en Carbono, el material químicamente más idóneo para la vida -al menos aquí en la Tierra- y, se hizo un largo recorrido por la transmutación que se producía en  todos los elementos, a medida que transcurría el tiempo y la estrella evolucionaba.

Pude darles una buena noción de las clases de estrellas que existen y de que, no todas tienen las mismas masas y que, como consecuencia de ello, cada una de esas estrellas, viven más o menos tiempo y que, cuando al final mueren, lo hacen de muy diferentes maneras. Ya que, estrellas medianas como nuestro Sol, terminan creando una Nebulosa planetaria al convertirse en Gigante roja y, terminan sus días como enanas blancas de una gran densidad. Les expliqué el proceso que hacían hasta llegar a tal estado y los parámetros que, como ekl principio de exclusión de Pauli, estaban allí presentes. De la misma manera, les expliqué que, estrellas más masivas terminaban como estrellas de neutrones y más masivas aún, como agujeros negros.

El recorrido fue algo largo (más de lo esperado), ya que, vista la gran atención que todos ponían en las explicaciones y en las imágenes que se ivan poniendo en cada fasa del proceso explicativo, procuraba que el tema tratado lo fuera en profundidad y amplitud y, de esa manera, la cosa resultó, además de más amena, mucho más completa y, sobre todo, comprensible.

Cuando al final di la charla por finalizada, pregunté si alguien quería alguna explicación sobre algún aspecxto delo que habíamos tratado, y, las manos que se levantaban presagiaban un largo, muy largo debate. Y, así fue. Los jóvenes se interesaban por todo y, de entre todo lo explicado, las cosas que más llamaron su atención fueron, por ejemplo:

Que nuestro Sol, cada segundo, pueda fusionar 4.654000 toneladas de Hidrógeno en 4.650.000 toneladas de Helio. Y, un observador inquisitivo, me preguntaba: ¿dónde están las 4.000 Tn que se han perdido? Bueno, le expliqé que habían sido lanzadas al espacio interestelar en forma de luz y de calor y, una pequeña fracción, llegaba a la Tierra para permitir la fotosíntesis y la vida.

Otra de las cuestiones que les llamó más la atención fue, cómo era posible que estrellas supergigantes, pudieran tener una vida más corta cuando tenían a su disposición mucho más material. Y, cuando les expliqué que, esas estrellas, no consumen sino que devoran literalmente el material nuclaer de fusión, comprendieron el por qué de sus cortas vidas.

Y, preguntaban cómo no todas las estrellas tenían el mismo colo, amarillas como nuestro Sol. La exlicación, como sabemos, está en el hecho de que no todas están formadas por el mismo material: Hay estrellas de Carbono, otras son de Oxígeno, Litio, manganeso…, la diversidad es enorme.

Mostraron mucha curiosidad y más intewrés aún, al saber -no todos conocían tal hecho- que, los elementos para hacer posible, la bio-química de la vida, se fabrica en las estrellas, es allí, en sus hornos nucleares donde se producen los elementos que conforma la materia del Universo, su diversidad que, bajo ciertas condiciones y, en los mundos adecuados situados en las zonas habitables de sus estrellas, pueden hacer surgir formas de vida que, a veces, llegan incluso a ser conscientes, como ha pasado aquí, en la Tierra.

G292.0+1.8

Los remanentes de supernovas y de cómo en esas inmensas explosiones se producían oro y platino, también fue uno de los temas que llamó la atención del personal. Todos querían hablar al mismo tiempo y todos -era un auténtico gozo- tenían preguntas que plantear. Al final, el tiempo pasaba sin sentir y tuve que dar por finalizado el evento que, al contrario de lo que parecía al principio, fue todo un exito, sobre todo, al comprobar que aquellos jóvenes al terminar la charla y el coloquio, eran un poco “más sabios” que antes de empezar.

Claro que, no siempre las cosas salen tan bien paradas. Recuerdo aquel Asilo de Ancianos al que hace tiempo fuí a dar una charla de astronomía y, antes de terminar, estaban todos, prácticamewnte dormidos. La curiosidad y el interés, les había abandonado y, ese fue un día triste para mí.

emilio silvera