sábado, 20 de abril del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¡Aquellos primeros momentos!

Autor por Emilio Silvera    ~    Archivo Clasificado en Descubrir y aprender    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 «

 

Antes de que la imagen de arriba fuese una realidad tuvieron que pasar muchos miles y millones de años. Hasta donde sabemos y el origen más aceptado para nuestro Universo es el de una inmensa explosión proveniente de una singularidad en la que la densidad y la energía eran “infinitas” y a partir de ahí, comenzó la gran aventura.

¡El Universo!

Antes de alrededor de un minuto y cuarenta segundos desde el comienzo del tiempo,  no hay núcleos atómicos estables.  El nivel de energía en el ambiente es mayor que la energía de unión nuclear. Por consiguiente, todos los núcleos que se forman, se destruyen de rápidamente.

Alrededor de un segundo desde el comienzo del tiempo, llegamos a la época de desacoplamiento de los neutrinos.  Aunque en esa época el Universo es más denso que las orcas (y tan caliente como la explosión de una bomba de hidrógeno), ya ha empezado a parecer vacío a los neutrinos.  Puesto que los neutrinos sólo reaccionan a la fuerza débil, que tiene un alcance extremadamente corto, pueden escapar de sus garras y volar indefinidamente sin experimentar ninguna otra interacción.

Aunque parezca mentira, al día de hoy no sabemos, a ciencia cierta, como se formaron las galaxias

Así, emancipados, en lo sucesivo son libres de vagar por el Universo a su manera indiferente, volando a través de la mayor   de la materia como sino existiese. (Diez trillones de neutrinos atravesarán sin causar daños el cerebro y el cuerpo del lector en el tiempo que le lleve leer esta frase.  Y en el tiempo en que usted haya leído esta frase estarán más lejos que la Luna).

En menos de un siglo, el neutrino pasó de una partícula fantasma – propuesta en 1930 por el físico austríaco Wolfgang Pauli (1900-1958) a explicar el balance de energía en una forma de radioactividad,  el llamado decaimiento beta, en una sonda capaz de escrutar el interior de estrellas y de la propia Tierra.

De esa manera, oleadas de neutrinos liberados en un segundo después del big bang persiste aún después, formando una radiación cósmica de fondo de neutrinos semejante a la radiación de fondo de microondas producida por el desacoplamiento de los fotones.

Si estos neutrinos “cósmicos” (como se los llama para diferenciarlos de los neutrinos liberados más tarde por las supernovas) pudiesen ser observador por un telescopio de neutrinos de alguna clase, proporcionarían una visión directa del Universo cuando sólo tenía un segundo.

A medida que retrocedemos en el tiempo, el Universo se vuelve más denso y más caliente, y el nivel de  estructura que puede existir se hace cada vez más rudimentario.

Por supuesto, en ese tiempo, no hay moléculas, ni átomos, ni núcleos atómicos, y, a 10-6 (0.000001) de segundo después del comienzo del tiempo, tampoco hay neutrones ni protones.  El Universo es un océano de quarks libres y otras partículas elementales.

Si nos tomamos el de contarlos, hallaremos que por cada mil millones de antiquarks existen mil millones y un quark.  asimetría es importante.  Los pocos quarks en exceso destinados a sobrevivir a la aniquilación general quark-antiquark formaran todos los átomos de materia del Universo del último día.  Se desconoce el origen de la desigualdad; presumiblemente obedezca a la ruptura de una simetría materia antimateria en alguna etapa anterior.

Nos aproximamos a un tiempo en que las estructuras básicas de las leyes naturales, y no sólo las de las partículas y campos cuya conducta dictaban, cambiaron a medida que evolucionó el Universo.

La primera transición semejante se produjo en los 10-11 de segundo después del comienzo del tiempo, cuando las funciones de las fuerzas débiles y electromagnéticas se regían por una sola fuerza, la electrodébil.  hay bastante energía ambiente para permitir la creación y el mantenimiento de gran de bosones w y z.

Estas partículas – las mismas cuya aparición en el acelerador del CERN verificó la teoría electrodébil – son las mediadoras intercambiables en las interacciones de fuerzas electromagnéticas y débiles, lo que las hace indistinguibles.  En ese tiempo, el Universo está gobernando sólo por tres fuerzas: la gravedad, la interacción nuclear fuerte y la electrodébil.

Más atrás de ese tiempo nos quedamos en el misterio y envueltos en una gran nebulosa de ignorancia.  Cada uno se despacha a su gusto para lanzar conjeturas y teorizar sobre lo que pudo haber sido.   Seguramente, en el futuro, será la teoría M (de supercuerdas) la que contestará esas preguntas sin respuestas ahora.

En los 10-35 de segundo desde el comienzo del tiempo, entramos en un ámbito en el que las cósmicas son aún menos conocidas.  Si las grandes teorías unificadas son correctas, se produjo una ruptura de la simetría por la que la fuerza electronuclear unificada se escindió en las fuerzas electrodébil y las fuertes.  Si es correcta la teoría de la supersimetría, la transición puede haberse producido antes, había involucrado a la gravitación.

En el universo temprano la primera materia (hidrógeno y Helio) era llevada por la fuerza de gravedad a conformarse en grandes conglomerados de gas y polvo que interacioban, producían calor y formaron las primeras estrellas.

Elaborar una teoría totalmente unificada es tratar de comprender lo que ocurrió en ese tiempo remoto que, según los últimos estudios está situado entre 15.000 y 18.000 millones de años, cunado la perfecta simetría que, se pensaba, caracterizó el Universo, se hizo añicos para dar lugar a los simetrías rotas que hallamos a nuestro alrededor y que, nos trajo las fuerzas y constantes Universales que, paradójicamente, hicieron posible nuestra aparición para que , sea posible que, alguien como yo esté contando lo que pasó.

Pero hasta que no tengamos tal teoría no podemos esperar comprender lo que realmente ocurrió en ese Universo bebé.  Los límites de nuestras conjeturas actuales cuando la edad del Universo sólo es de 10-43 de segundo, nos da la única respuesta de encontrarnos ante una puerta cerrada.

Del otro lado de esa puerta está la época de Plank, un tiempo en que la atracción gravitatoria ejercida por cada partícula era comparable en intensidad a la fuerza nuclear fuerte.

Atomos-y-electricidad-7.jpg

La fuerza nuclear fuerte hizo posible la existencia de los núcleos que atraían electrones para formar átomos

Así que, llegados a este punto podemos decir que la clave teórica que podría abrir esa puerta sería una teoría unificada que incluyese la gravitación, es decir, una teoría cuántica-gravitatoria que uniese, de una vez por todas, a Planck y Einsteins que, aunque eran muy amigos, no parecen que sus teorías (la Mecánica Cuántica) y (la Relatividad General) se lleven de maravilla.

emilio silvera

MISIÓN MARTE 2020

Autor por Emilio Silvera    ~    Archivo Clasificado en Marte    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

buscará convertir el CO2 en oxígeno

 

El próximo proyecto de la NASA en el planeta rojo, será la Misión Marte 2020, en la que destaca la intención de investigar la manera de transformar el CO2 en oxígeno.

 

 

Esquema de la nave que pisará Marte
                               Esquema de la nave que pisará Marte | Foto: NASA

Europa Press  |  Madrid  | Actualizado el 03/08/2014 a las 23:05 horas

El próximo rover que la NASA enviará a Marte en 2020 llevará siete instrumentos cuidadosamente seleccionados para investigaciones sin precedente en el Planeta Rojo. El más llamativo persigue convertir en oxígeno dióxido de carbono de la atmósfera marciana.

La NASA ha escogido sobre 58 propuestas recibidas en enero de investigadores e ingenieros de todo el mundo. Las propuestas recibidas fueron el doble del número habitual en este tipo de convocatorias, un indicador de lo extraordinario interés por la comunidad científica en la exploración de Marte.

 

Curiosity rover flaunts its battle scar, wind sensor is bruised but not broken

La Misión Marte 2020 se basa en el diseño del exitoso Curiosity, que aterrizó hace casi dos años, y actualmente está operando en Marte. El nuevo rover llevará hardware más sofisticado y nuevos instrumentos para realizar evaluaciones geológicas del sitio de aterrizaje, determinar la habitabilidad potencial del medio ambiente, y buscar directamente signos de la antigua vida marciana, según informa la NASA.

“La exploración de Marte será el legado de esta generación, y el rover Marte 2020 será otro paso crítico en el camino de los seres humanos al Planeta Rojo”, dijo el administrador de la NASA, Charles Bolden.

Los científicos utilizarán el vehículo para identificar y seleccionar una colección de muestras de roca y suelo que almacenará para su posible regreso a la Tierra de una futura misión.

Humans on Mars by Paul Hudson

El rover de Marte 2020 también ayudará a avanzar en nuestro conocimiento de cómo los futuros exploradores humanos podrían utilizar los recursos naturales disponibles en la superficie del planeta rojo. La capacidad de vivir de la tierra marciana transformaría la futura exploración del planeta. Los diseñadores de las futuras expediciones humanas pueden utilizar esta misión para entender los peligros planteados por el polvo marciano y demostrar la tecnología para procesar el dióxido de carbono de la atmósfera para producir oxígeno.

Las propuestas seleccionadas son:

MastCam-Z: un sistema de cámara avanzada con capacidad estereoscópica de imágenes panorámicas y con capacidad de zoom. El instrumento también determinará la mineralogía de la superficie marciana y ayudará en las operaciones del rover. El investigador principal es James Bell, de la Universidad Estatal de Arizona en Tempe.

SuperCam, un instrumento que puede proporcionar imágenes, análisis de la composición química, y la mineralogía. El instrumento también será capaz de detectar la presencia de compuestos orgánicos en rocas y regolito a distancia. El investigador principal es Roger Wiens, del Laboratorio Nacional de Los Alamos, Nuevo México.

Instrumento Planetario para Litoquímica en Rayos X (PIXL), un espectrómetro de fluorescencia de rayos X, que también contendrá un reproductor de imágenes de alta resolución para determinar la composición elemental a escala fina de materiales de la superficie de Marte. PIXL proporcionará capacidades que permitan la detección y análisis más detallados de elementos químicos que nunca. La investigadora principal es Abigail Allwood, el Laboratorio de Propulsión a Chorro de la NASA en Pasadena, California.

Escaneo de Entornos Habitables con Raman y Luminiscencia para Productos Orgánicos y Químicos (SHERLOC), un espectrómetro que proporcionará imágenes a escala fina y utiliza una luz ultravioleta de láser para determinar la mineralogía a escala fina y detectar compuestos orgánicos. El investigador principal es Luther Beegle, DEL JPL.

Experimento ISRU de Oxígeno en Marte, una investigación de tecnología de exploración que va a producir oxígeno a partir del dióxido de carbono atmosférico marciano. El investigador principal es Michael Hecht, Institute of Technology, Cambridge, Massachusetts.

Analizador de Dinámicas Ambientales en Marte, un conjunto de sensores que permitirá la medición de temperatura, velocidad y dirección del viento, presión, humedad relativa y el tamaño y la forma de polvo. El investigador principal es José Rodríguez-Manfredi, del Centro de Astrobiología, Instituto Nacional de Tecnica Aeroespacial, España.

Radar de Imagen para la Exploración del Subsuelo de Marte, un radar de penetración de tierra que proporcionará resolución de centímetro en la estructura geológica del subsuelo. El investigador principal es Svein-Erik Hamran, del Forsvarets forskning Institute, Noruega.

Arriba podemos contemplar Valles Marineris, un accidente geográfico de cuatro mil kilómetros de longitud, 200 de ancho y 10 de profundidad. Marte tiene rincones que debemos descubrir y, sobre todo, me intrigan esos huecos o grutas naturales que bajo la superficie fueron hechos por la pasada actividad volcánica del planeta en el pasado. Allí, a más profundidad y más alta temperatura, a salvo de la radiación nosiva del exterior… ¡Pudiera estar presente el agua líquida! Y, si eso es así… ¡La Vida andará muy cerca.

Como podéis ver por la noticia de la NASA, no dejamos de dar pequeños pasos hacia nuevos “pequeños” logros en aquel planeta que, algún día (lejano aún ene l futuro), podremos visitar.

emilio silvera

¿Las estrellas? ¡Sin ellas no estaríamos aquí!masiva

Autor por Emilio Silvera    ~    Archivo Clasificado en ¡Las estrellas!    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 «

 

 

La región de formación estelar S106

Es cierto que cuando vemos las cosas con cierta asiduidad y de forma permanente, esa cotidianidad nos hace perder la perspectiva y no pensamos en lo que realmente esas cosas pueden ser y, con las estrellas nos ocurre algo similar, ya que son algo más, mucho más, que simples puntitos luminosos que brillan en la oscuridad de la noche. Una estrella es una gran bola de gas luminoso que, en alguna etapa de su vida, produce energía por la fusión nuclear del hidrógeno para formar helio. El término estrella por tanto, no sólo incluye estrellas como nuestro Sol, que están en la actualidad quemando hidrógeno, sino también protoestrellas, aún no lo suficientemente calientes como para que dicha combustión haya comenzado, y varios tipos de objetos evolucionados como estrellas gigantes y supergigantes, que están quemando otros combustibles nucleares, o las enanas blancas y las estrellas nucleares, que están formadas por combustible nuclear gastado.

fotos

Muchos son los ejemplos de estrellas masivas (más de 100 masas solares) que, para no morir, eyectan material al espacio interestelar y siguen viviendo.

Estrellas masivas que expulsan gases, ya que, cuando la masa es muy grande, su propia radiación las puede destruir y, de esta manera, descongestionan la tensión y evitan un final anticipado. Arriba teneis una estrella supermasiva que ha expulsado gases formando una nebulosa para evitar su muerte, Eta Carinae ha hecho lo mismo. Estas son estrellas que estám congestionadas y, sólo la expulsión de material la puede aliviar y conseguir que siga brillando como estrella evitando explotar como supernova.

Se calcula que la masa máxima de una estrella es de unas 120 masas solares, por encima de la cual sería destruida por su propia radiación. La masa mínima es de 0,08 masas solares; por debajo de ella, los objetos no serían lo suficientemente calientes en sus núcleos como para que comience la combustión del hidrógeno, y se convertirían en enanas marrones.

De la misma forma que al calentar una pieza de metal cambia de color, al principio rojo, luego amarillo hasta llegar al blanco, el color de una estrella varia según su temperatura superficial. Las estrellas más frías son las rojas, y las mas calientes las azules. Estos colores suelen percibirse a simple vista, como por ejemplo Antares (la estrella principal de Scorpius) que es de color rojo, o Rigel (en Orion) de color azul. En astronomía se utiliza la escala Kelvin para indicar temperaturas, donde el cero absoluto es -273 grados Celsius.

El diagrama de Hertzsprung-Russell proporcionó a los astrónomos un registro congelado de la evolución de las estrerllas, el equivalente astrofísico del registro fósil que los geólogos estudian en los estratos rocosos. Presumiblemente, las estrellas evolucinan de algún modo, pasan la mayor parte de su tiempo en la serie principal (la mayoría de las estrellas en la actualidad, en el brevísimo tiempo que tenemos para observar, se encuentran allí), pero empiezan y terminan su vida en alguna otra parte, entre las ramas o en el mantillo. Por supuesto, no podemos esperar para ver que esto sucede, pues el tiempo de vida, aún de estrellas de vida corta, se mide en millones de años. Hallar la respuesta exigirá conocer la física del funcionamiento estelar.

El progreso en física, mientras tanto, estaba bloqueado por una barrera aparentemente insuperable. Esto era literal: el agente responsable era conocido como la Barrera de Coulomb, y por un tiempo frustró los esfuerzos de los físicos teóricos para comprender cómo la fusión nuclear podía producir energía en las estrellas.

“La barrera de Coulomb, denominado a partir de la ley de Coulomb, nombrada así del físico Charles-Augustin de Coulomb (1736–1806), es la barrera de energía debida a la interacción electrostática que el núcleo atómico debe superar para experimentar una reacción nuclear. Esta barrera de energía es proporcionada por la energía potencial electrostática:

U_{coul} = k {{q_1\,q_2} \over r}={1 \over {4 \pi \e<a href=

donde:

k  es la constante de Coulomb = 8.9876×109 N m² C−2;
ε0  es la permeabilidad en el vacío;
q1, q2  son las cargas de las partículas que interactúan;
r  es el radio de interacción.”

Un valor positivo de U es debido a una fuerza de repulsión, así que las partículas que interactúan están a mayores niveles de energía cuando se acercan. Un valor negativo de la energía potencial U indica un estado de ligadura, debido a una fuerza atractiva. La linea de razonamiento que conducía a esta barrera era impecable. Las estrellas están formadas en su mayor parte por hidrógeno. Esto se hace evidente en el estudio de sus espectros.) El núcleo del átomo de hidrógeno consiste en un sólo protón, y el protón contiene casi toda la masa del átomo. (Sabemos esto por los experimentos de Rutherford explicados aquí en otra ocasión). Por tanto, el protón también debe contener casi toda la energía latente del átomo de hidrógeno.

(Recordemos que la masa es igual a la Energía: E = mc2. (En el calor de una estrella los protones son esparcidos a altas velocidades -el calor significa que las partículas involucradas se mueven rápidamente- y, como hay muchos protones que se apiñan en el núcleo denso de una estrella, deben de tener muchísimos choques. En resumen, la energía del Sol y las estrellas, puede suponerse razonablemente, implica las interacciones de los protones. esta era la base de conjetura de Eddintong de que la fuente de la energía estelar “difícilmente puede ser otra cosa que energía subatómica, la cual, como se sabe, existe en abundancia en toda la materia”.

Fusión de deuterio con tritio,  por la cual se producen helio 4,   se liberan un neutrón y se generan 17,59 MeV de energía, como cantidad de masa apropiada convertida de la energía cinética de los productos, según la fórmula E = Δm c2.

Hasta ese punto, todo iba bien, la ciencia estaba cerca de identificar la fusión termonuclear como el secreto de la energía solar. Pero aquí era donde intervenía la Barrera de Coulomb. Los protones están cargados positivamente; las partículas de igual carga se repelen entre sí; y este obstáculo parecía demasiado grande  para ser superado, aun a la elevada velocidad a la que los protones se agitaban en el intenso calor del centro de las estrellas. De acuerdo con la física clásica, muy raras veces podían dos protones de una estrella ir con la rapidez suficiente para romper las murallas de sus campos de fuerza electromágnéticos y fundirse en un sólo núcleo. Los cálculos decían que la tasa de colisión de protones no podía bastar para mantener las reacciones de fusión. Sin embargo, allí estaba el Sol, con su rostro radiante y sonriente al ver el esfuerzo y las ecuaciones que decían que no podía brillar.

tunnel

Dejemos aquí este proceso y digamos que, realmente, la mayoría de las veces el protón rebotará en la Barrera de Coulomb, pero de cuando en cuando la atravesará. Este es el “Efecto Túnel Cuántico”; que permite brillar a las estrellas. George Gamow, ansioso de explotar las conexiones entre la astronomía y la nueva física exótica a la que era adepto, aplicó las probabilidades cuánticas a la cuestión de la fusión nuclear en las estrellas y descubrió que los protones pueden superar la Barrera de Coulomb, o casi. El efecto túnel cuántico se hizo cargo de los cálculos de la desalentadora predicción clásica, que establecia la fusión de los protones a sólo una milésima de la tasa necesaria para explicar la energía liberada por el Sol, y la elevó a una décima de la tasa necesaria. Luego se tardó menos de un año para dar cuenta del deficit restante: la solución fue completada en 1929, cuando Robert Atkinson y Fritz Houterman combinaron los hallazgos de Gamow con lo que se ha llamado teoría maxwelliana de la distribución de velocidades. En la distribución maxwelliana hay siempre unas pocas partículas que se mueven mucho más rápidamente que la media y, Robert Atkinson y Fritz Houterman hallaron que estas pocas partículas veloces bastqaban para compensar la diferencia. Finalmente se hizo claro como podía romperse la Barrera de Coulomb suficientemente a menudo para que la fusión nuclear se produjese en las estrellas.

Physicist Hans Bethe

Pero la figura clave en todos estos desarrollos fue Hans Bhete, un refugiado de la Alemania nazi que había estudiado con Fermi en Roma y fue a enseñar en Cornell en EE. UU. Como su amigo Gamow, el joven Bhete era un pensador efervescente y vivaz, con tanto talento que parecía hacer su trabajo como si de un juego se tratara. Aunque no preparado en Astronomía, Bhete era un estudioso de legendaria rapidez. En 1938 ayudó al discipulo de Gamow y Edward Teller, C.L. Critchfield, a calcular una reacción que empezase con la colisión de dos protones podía generar aproximadamente la energía irradiada por el Sol, 3,86 x 1033 ergios por segundo. Así, en un lapso de menos de cuarenta años, la humanidad había progresado de la ignorancia de la existencia misma de los átomos a la comprensión del proceso de fusión termonuclear primaria que suministra energía al Sol.

Pero la reacción protón. protón no era bastante energética para explicar la luminosidad muy superior de estrellas mucho más grandes que el Sol, estrellas como las supergigantes azules de las Pléyades, que ocupan las regiones más altas del diagrama de Herptzsprung-Russell. Bhete puso remedio a esto antes de que terminase aquel el año 1938.

En abril de 1938, Bhete asistió a una conferencia organizada por  Gamow y Teller que tenía el objeto de que físicos y astrónomos trabajaran juntos en la cuestión de la generación de energía en las estrellas. “Allí, los astrofísicos nos dijeron a los físicos todo que sabían sobre la constitución interna de las estrellas -recordoba Bhete-. esto era mucho (aunque) habían obtenido todos los resultados sin conocimiento de la fuente específica de energía.” De vuelta a Cornell, Bhete abordó el problema con celeridad y, en cuestión de semanas logró identificar el ciclo del Carbono, la reacción de fusión crítica que da energía a las estrellas que tiene más de una vez y media la masa del Sol.

Bhete que estaba falto de dinero, retiró el artículo que escribió sobre sus hallazgos y que ya tenía entragado en la Revista Physical Review, para entregarlo en un Concurso postulado por la Academía de Ciencias de Nueva York  sobre la producción de energía en las estrellas. Por supuesto, Bhete ganó el primer Premio uy se llevó los 500 dolares que le sirvieron para que su madre pudiera emigrar a EE UU. Después lo volvió a llevar a la Revista que lo publicó y, finalmente, se lo publicaron y tal publicación le hizo ganar el Nobel. Por un tiempo, Bhete había sido el único humano que sabía por qué brillan las estrellas.

http://bibliotecadeinvestigaciones.files.wordpress.com/2010/07/estrellas.jpg

Cuando miramos al cielo y podemos contemplar extasiados esas maravillas que ahí arriba, en el espacio interestelar están brillando, y, nos da la sensación de que están haciéndonos guiños, como si quisieran mandarnos un mensaje, decirnos algo y nosotros, no pensamos en todo lo que ahí, en esos “puntitos brillantes” se está fraguando. De lo que allí ocurre, depende que los mundos tengan los materiales que en ellos están presentes y, de entre esos materiales, se destacan aquellos que por su química biológica, permiten que se pueda formar la vida a partir de unos elementos que se hicieron en los hornos nucleares de las estrellas.

Y sí, es curioso que, mirando en la oscura noche como brillan las estrellas del cielo, nos atrae su titilar engañoso (es la atmósfera terrestre la que hace que lo parezca) y su brillo, Sin embargo, pocos llegan a pensar en lo que verdaderamente está allí ocurriendo. Las transformaciones de fase por fusión no cesan. Esta transformación de materia en energía es consecuencia de la equivalencia materia-energía, enunciada por Albert Einstein en su famosa fórmula E=mc2; donde E es la energía resultante, m es la masa transformada en energía, y c es la velocidad de la luz (300 000 kilómetros por segundo). La cantidad de energía que se libera en los procesos de fusión termonuclear es fabulosa. Un gramo de materia transformado íntegramente en energía bastaría para satisfacer los requerimientos energéticos de una familia mediana durante miles de años.

Es un gran triunfo del ingenio humano el saber de qué, están confomadas las estrellas y qué materiales se están forjando allí, al inmenso calor de sus núcleos. Recuerdo aquí a aquel Presidente de la Real Society de Londres que, en una reunión multitudinaria, llegó a decir:

“Una cosa está clara, nunca podremos saber de qué están hechas las estrellas”.

El hombre se vistió de gloria con la (desde entonces) famosa frase. Creo que nada, con tiempo por delante, será imposible para nosotros.

http://img.seti.cl/sol02.jpg

A nuestro planeta sólo llega una ínfima fracción del calor que se genera en el Sol y, sin embargo, es más que suficiente para mantener aquí la vida. El Sol tiene materia que supone la misma que tendrían 300.000 Tierras. Nuestra estrella madre está situada a una UA (150 millones de kilómetros de nosotros) y, todas esas circunstancias y otras muchas, hacen que todo sea tal como lo vemos a nuestro alrededor. Si cualquiera de esos parámetros fuera diferente o variara tan sólo unas fracciones, seguramente la Tierra sería un planeta muerto y, nosotros, no estaríamos aquí. Sin embargo… ¡Estamos! y, gracias a ello, se pueden producir descubrimientos como los que más arriba hemos relatado y han podido y pueden existir personajes de cuyas mentes surgen ideas creadoras que nos llevan a saber cómo son las cosas.

Lo cierto es que, cada día sabemos mejor como funciona ma Naturaleza que, al fin y al cabo, es la que tiene todas las respuestas que necesitamos conocer.

emilio silvera

El Horizonte de los Agujeros Negros

Autor por Emilio Silvera    ~    Archivo Clasificado en Agujeros negros    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 «

 

La técnica de la interferometría de muy larga base a longitudes de onda milimétricas (mm-VLBI) ha permitido obtener imágenes de los motores centrales de las galaxias activas con una resolución angular de decenas de microsegundos de arco. Para aquellos objetos más cercanos (M87, SgrA) se obtienen resoluciones lineales del orden de las decenas de Radios de Schwarzschild, lo que permite estudiar con detalle único la vecindad de los agujeros negros  supermasivos.

El centro galáctico: un misterio en ondas de radio

Al sintonizar hacia el centro de la Vía Láctea, los radioastrónomos exploran un lugar complejo y misterioso donde está SgrA que…¡Esconde un Agujero Nefro descomunal! Las observaciones astronómicas utilizando la técnica de Interferometría de muy larga base, a longitudes de onda milimétricas proporcionan una resolución angular única en Astronomía. De este modo, observando a 86 GHz se consigue una resolución angular del orden de 40 microsegundos de arco, lo que supone una resolución lineal de 1 año-luz para una fuente con un corrimiento al rojo z = 1, de 10 días-luz para una fuente con un corrimiento al rojo de z = 0,01 y de 10 minutos-luz (1 Unidad Astronómica) para una fuente situada a una distancia de 8 Kpc (1 parcec = 3,26 años-luz), la distancia de nuestro centro galáctico. Debemos resaltar que con la técnica de mm-VLBI disfrutamos de una doble ventaja: por un lado alcanzamos una resolución de decenas de microsegundos de arco, proporcionando imágenes muy detalladas de las regiones emisoras y, por otro, podemos estudiar aquellas regiones que son parcialmente opacas a longitudes de onda más larga.

 

El Telescopio Espacio Hubble capta la Imagen de un chorro de 5000 años-luz de longitud que está siendo eyectado del núcleo activo de la galaxia M87  (una radiogalaxia). La radiación sincrotrón del chorro (azul) contrasta con la luz estelar de la galaxia albergadora (amarillo). Crédito: NASA/ESA.

 


Las galaxias activas tienen nucleos que brillan tanto, que pueden llegar a ser más luminosos que las galaxias que los alberga. Estas galaxias activas sae caracterizan porque en sus núcleos ocurren procesos no-térmicos que liberan enormes cantidades de energía que parece provenir de una región muy pequeña y brillante situada en el corazón de la galaxia.

Son muchos los indicios que favorecen la hipótesis de que tales objetos son agujeros negros muy masivos (del orden de 100-1000 millones de veces la masa del Sol), con un tamaño de 1 minuto-luz o varios días-luz. La enorme fuerza gravitatoria que ejercen estos agujeros negros atrae el gas y las estrellas de las inmediaciones, formando el denominado disco de acrecimiento que está en rotación diferencial en torno al objeto masivo.

El modelo de “Agujero Negro + disco de acrecimiento” es el más satisfactorio hoy día para explicar las propiedades de los núcleos activos de galaxias. Un aspecto muy destacado en la morfología de las regiones compactas de los núcleos activos es la presencia de una intensa emisión radio en forma de chorros (los denominados Jets relativistas), que están formados por un plasma de partículas relativistas que emanan del núcleo central y viajan hasta distancias de varios megaparsec.

Jet relativista de un AGN. Creditos: Pearson Education, Inc., Upper Saddle River, New Jersey

Estos Jets son los aceleradores de partículas más energéticos del Cosmos. Sin embargo, todavía se desconoce como se generan, aceleran y coliman, si bien a través de simulaciones magnetohidrodinámicas se conoce que el campo magnético juega un papel fundamental en estos procesos. La técnica de mm-VLBI proporciona imágenes directas y nítidas de las regiones nucleares de las galaxias activas y acotan tanto el tamaño de los núcleos como la anchura de los chorros en la vecindad del agujero negro supermasivo. De hecho, las resoluciones angulares proporcionadas por mm-VLBI corresponderían a escalas lineales del orden de miles, centenares y decenas de Radios de Schwarzschild dependiendo de la distancia y la masa del agujero negro.

Existen algunos casos espectaculares, las imágenes obtenidas con mm-VLBI trazán los chorros relativistas a escalas del subparsec, cartografiando los motores centrales de las fuentes compactas con una resolución lineal tal que nos permite acercarnos a la última órbita estable en torno al agujero negro supermasivo. Podemos mencionar algunos casos espectaculares que han dejado asombrados a propiso y extraños.

https://www.mpi-hd.mpg.de/hfm/HESS/pages/about/physics/images/cena_chandra.jpg

Mrk 501: Es una radiogalaxia situada a un corrimiento al rojo de z = 0.oo34. La masa del agujero negro central es del orden de mil millones de masas solares, por lo que el tamaño del radio de Schwarzschild es de 0,12 días-luz. Las observaciones con mm-VLBI a 86 GHz, muestra que su núcleo es muy compacto. El tamaño del núcleo de la radiofuente se puede establecer en 0,03 pc.

M87: La galaxia M87 está situada a la una distancia de 16,75 Mpc tiene un agujero negro situado en la región nuclear con una masa del orden de los 3.000 millones de masas solares, lo que implica que el tamaño del Radio de Schwarzschild es de 0,34 días-luz, Las observaciones interferométricas a 45 y 43 GHz han mostrado la presencia de un chorro relativista, en la que se observan dos fenómenos muy relevantes: i) en la base del jet, el ángulo de apertura es muy grande, lo que indicaría que el chorro vuelve a recolimarse a una cierta distancia del Agujero Negro central; ii) el chorro presenta fuerte emisión en sus bordes (fenómeno conocido como “edge brightening”, mientras que presenta emisión muy débil en su interior.

Todo esto lleva consigo una serie de implicaciones y parámetros de tipo técnicos que no son al caso destacar aquí.

 En el centro galáctico de la Vía Láctea ocurren fenómenos que han sido profundamente investigados y, allí habita un agujero negro que tiene 150 millones de kilómetros de diámetro. ¿Os podéis imaginar la cantidad de materia que la fuerza de gravedad que genera tal monstruo podrá engullir?

Las observaciones de VLBI a longitudes de onda centimétricas han mostrado que SgrA, la radiofuente compacta en el centro de nuestra Galaxia, tiene un tamaño angular que escala con la longitud de onda al cuadrado, resultado que se interpreta físicamente considerando que la estructura que detectamos para SgrA no es su estructura intrínseca sino la imagen resultado de la interacción de su emisión de radio con sus electrones interestelares de la región interna de la Galaxia (lo que técnicamente se conoce como el “disco de scattering”. Las observaciones con mm-VLBI a 86 GHz han permitido determinar por primera vez el tamaño intrínseco de SgrA que ha resultado ser de 1,01 Unidades Astronómicas.

Considerando que SgrA se encuentra a una distancia de 8 Kpc y que su masa es de 4 millones de masas solares, este tamaño lineal corresponde a 12,6 Radios de Schwarzschild. Con todo esto, vengo a decir que estamos ya en la misma vecindad de los agujeros negros y, lo único que tenemos que despejar es la incognita que nos pueda crear el efecto del que nos habla la Relatividad General cuando establece que la raqdiación proveniente de una superficie esférica a una cierta distancia del agujero negro, sufriría un proceso de lente gravitacional amplificadora dandonos un tamaño mayor que el real. Así, cualquier objeto emisor con un tamaño intrínseco inferior a 1,5 Radios de Schwarzschild tendría un diámetro aparente mayor que 5,2 R de Schwarzschild.

¡Es todo tan complejo!

emilio silvera

¿Dos verdades incompatibles? La Cuántica y la Relatividad

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

El mundo de la Física tiene planteado un gran problema y los físicos son muy conscientes de ello, conocen su existencia desde hace décadas. El problema es el siguiente:

Existen dos pilares fundamentales en los cuales se apoya toda la física moderna. Uno es la relatividad general de Albert Einstein, que nos proporciona el marco teórico para la comprensión del universo a una escala máxima: estrellas, galaxias, cúmulos (o clusters) de galaxias, y aún más allá, hasta la inmensa expansión del propio universo.

El otro pilar es la mecánica cuántica, que en un primer momento vislumbro Max Planck y posteriormente fue desarrollada por el mismo Einstein, W. Heisemberg, Schrödinger, Dirac, Feynman, Niels Bohr y otros, que nos ofrece un marco teórico para comprender el universo en su escala mínima: moléculas, átomos, y así hasta las partículas subatómicas, como los electrones y quarks.

Durante años de investigación, los físicos han confirmado experimentalmente, con una exactitud casi inimaginable, la practica totalidad de las predicciones que hacen las dos teorías. Sin embargo, estos mismos instrumentos teóricos nos llevan a una conclusión inquietante: tal como se formulan actualmente, la relatividad general y la mecánica cuántica no pueden ser ambas ciertas a la vez.

Nos encontramos con que las dos teorías en las que se basan los enormes avances realizados por la física durante el último siglo (avances que han explicado la expansión de los cielos y la estructura fundamental de la materia) son mutuamente incompatibles. Cuando se juntan ambas teorías, aunque la formulación propuesta parezca lógica, aquello explota; la respuesta es un sinsentido que nos arroja un sin fin de infinitos a la cara.

Así que si tú, lector, no has oído nunca previamente hablar de este feroz antagonismo, te puedes preguntar a que  será debido. No es tan difícil encontrar la respuesta. Salvo en algunos casos muy especiales, los físicos estudian cosas que son o bien pequeñas y ligeras (como los átomos y sus partes constituyentes), o cosas que son enormes y pesadas (como estrellas de neutrones y agujeros negros), pero no ambas al mismo tiempo. Esto significa que sólo necesitan utilizar la mecánica cuántica, o la relatividad general, y pueden minimizar el problema que se crea cuando las acercan demasiado; las dos teorías no pueden estar juntas. Durante más de medio siglo, este planteamiento no ha sido tan feliz como la ignorancia, pero ha estado muy cerca de serlo.

No obstante, el universo puede ser un caso extremo. En las profundidades centrales de un agujero negro se aplasta una descomunal masa hasta reducirse a un tamaño minúsculo. En el momento del Bing Bang, la totalidad del universo salió de la explosión de una bolita microscópica cuyo tamaño hace que un grano de arena parezca gigantesco. Estos contextos son diminutos y, sin embargo, tienen una masa increíblemente grande, por lo que necesitan basarse tanto en la mecánica cuántica como en la relatividad general.

Por ciertas razones, las fórmulas de la relatividad general y las de la mecánica cuántica, cuando se combinan, empiezan a agitarse, a traquetear y a tener escapes de vapor como el motor de un viejo automóvil. O dicho de manera menos figurativa, hay en la física preguntas muy bien planteadas que ocasionan esas respuestas sin sentido, a que me referí antes, a partir de la desafortunada amalgama de las ecuaciones de las dos teorías.

Siempre hemos querido saber qué pasa dentro de un Agujero Negro. Sin embargo, nadie entró nunca y regresó para poder contarlo. Según todos los indicios, lo que pueda caer dentro del agujero negro, una vez pasado el límite de irás y no volverás del horizonte de sucesos, quedará allí “triturado” hasta densidades inimaginables. No sabemos qué clase de materia es la que pueda confiormar una singularidad y qué es lo que pasa con las partículas de materia que allí pudieron llegar atraídas por la inmensa fuerza gravitatoria que el A.N. genera.

Aunque se desee mantener el profundo interior de un agujero negro y el surgimiento inicial del universo envueltos en el misterio, no se puede evitar sentir que la hostilidad entre la mecánica cuántica y la relatividad general está clamando por un nivel más profundo de comprensión.

¿Puede ser creíble que para conocer el universo en su conjunto tengamos que dividirlo en dos y conocer cada parte por separado? Las cosas grandes una ley, las cosas pequeñas otra.

No creo que eso pueda ser así. Mi opinión es que aún no hemos encontrado la llave que abre la puerta de una teoría cuántica de la gravedad, es decir, una teoría que unifique de una vez por todas las dos teorías más importantes de la física: mecánica cuántica + relatividad general.

La teoría de supercuerdas ha venido a darme la razón. Los intensos trabajos de investigación llevada a cabo durante las últimas décadas demuestran que puede ser posible la unificación de las dos teorías cuántica y relativista a través de nuevas y profundas matemáticas topológicas que han tomado la dirección de nuevos planteamientos más avanzados y modernos, que pueden explicar la materia en su nivel básico para resolver la tensión existente entre las dos teorías.

En esta nueva teoría de supercuerdas se trabaja en 10, 11 ó en 26 dimensiones, se amplía el espacio ahora muy reducido y se consigue con ello, no sólo el hecho de que la mecánica cuántica y la relatividad general no se rechacen, sino que por el contrario, se necesitan la una a la otra para que esta nueva teoría tenga sentido. Según la teoría de supercuerdas, el matrimonio de las leyes de lo muy grande y las leyes de lo muy pequeño no sólo es feliz, sino inevitable.

Esto es sólo una parte de las buenas noticias, porque además, la teoría de las supercuerdas (abreviando teoría de cuerdas) hace que esta unión avance dando un paso de gigante. Durante 30 años, Einstein se dedicó por entero a buscar esta teoría de unificación de las dos teorías, no lo consiguió y murió en el empeño; la explicación de su fracaso reside en que en aquel tiempo, las matemáticas de la teoría de supercuerdas eran aún desconocidas.  Sin embargo, hay una curiosa coincidencia en todo esto, me explico:

Cuando los físicos trabajan con las matemáticas de la nueva teoría de supercuerdas, Einstein, sin que nadie le llame, allí aparece y se hace presente por medio de las ecuaciones de campo de la relatividad general que, como por arte de magia, surgen de la nada y se hacen presentes en la nueva teoría que todo lo unifica y también todo lo explica; posee el poder demostrar que todos los sorprendentes sucesos que se producen en nuestro universo (desde la frenética danza de una partícula subatómica que se llama quark hasta el majestuoso baile de las galaxias o de las estrellas binarias bailando un valls, la bola de fuego del Big Bang y los agujeros negros) todo está comprendido dentro de un gran principio físico en una ecuación magistral.

Esta nueva teoría requiere conceptos nuevos y matemáticas muy avanzados y nos exige cambiar nuestra manera actual de entender el espacio, el tiempo y la materia. Llevará cierto tiempo adaptarse a ella hasta instalarnos en un nivel en el que resulte cómodo su manejo y su entendimiento. No obstante, vista en su propio contexto, la teoría de cuerdas emerge como un producto impresionante pero natural, a partir de los descubrimientos revolucionarios que se han realizado en la física del último siglo. De hecho, gracias a esta nueva y magnifica teoría, veremos que el conflicto a que antes me refería existente entre la mecánica cuántica y la relatividad general no es realmente el primero, sino el tercero de una serie de conflictos decisivos con los que se tuvieron que enfrentar los científicos durante el siglo pasado, y que fueron resueltos como consecuencia de una revisión radical de nuestra manera de entender el universo.

El primero de estos conceptos conflictivos, que ya se había detectado nada menos que a finales del siglo XIX, está referido a las desconcertantes propiedades del movimiento de la luz.

Isaac Newton y sus leyes del movimiento nos decía que si alguien pudiera correr a una velocidad suficientemente rápida podría emparejarse con un rayo de luz que se esté emitiendo, y las leyes del electromagnetismo de Maxwell decían que esto era totalmente imposible. Einstein, en 1.905, vino a solucionar el problema con su teoría de la relatividad especial y a partir de ahí le dio un vuelco completo a nuestro modo de entender el espacio y el tiempo que, según esta teoría, no se pueden considerar separadamente y como conceptos fijos e inamovibles para todos, sino que por el contrario, el espacio-tiempo era una estructura maleable cuya forma y modo de presentarse dependían del estado de movimiento del observador que lo esté midiendo.

El escenario creado por el desarrollo de la relatividad especial construyó inmediatamente el escenario para el segundo conflicto. Una de las conclusiones de Einstein es que ningún objeto (de hecho, ninguna influencia o perturbación de ninguna clase) puede viajar a una velocidad superior a la de la luz. Einstein amplió su teoría en 1915 – relatividad general – y perfeccionó la teoría de la gravitación de Newton, ofreciendo un nuevo concepto de la gravedad que estaba producida por la presencia de grandes masas, tales como planetas o estrellas, que curvaban el espacio y distorsionaban el tiempo. También la Luz acusa los efectos gravitatorios.

Tales distorsiones en la estructura del espacio y el tiempo transmiten la fuerza de la gravedad de un lugar a otro. La luna no se escapa y se mantiene ahí, a 400.000 Km de distancia de la Tierra, porque está influenciada por la fuerza de gravedad que ambos objetos crean y los mantiene unidos por esa cuerda invisible que tira de la una hacia la otra y viceversa. Igualmente ocurre con el Sol y la Tierra que, separados por 150 millones de kilómetros, están influidos por esa fuerza gravitatoria que hace girar a la Tierra (y a los demás planetas del Sistema Solar) alrededor del Sol.

Así las cosas, no podemos ya pensar que el espacio y el tiempo sean un telón de fondo inerte en el que se desarrollan los sucesos del universo, al contrario; según la relatividad especial y la relatividad general, son actores que desempeñan un papel íntimamente ligado al desarrollo de los sucesos.

   En el “universo” infinitesimal de las partículas ocurren cosas muy extrañas que no vemos en la vida cotidiana

El descubrimiento de la relatividad general, aunque resuelve un conflicto, nos lleva a otro. Durante tres décadas desde 1.900, en que Max Planck publicó su trabajo sobre la absorción o emisión de energía de manera discontinua y mediante paquetes discretos a los que él llamo cuantos, los físicos desarrollaron la mecánica cuántica en respuesta a varios problemas evidentes que se pusieron de manifiesto cuando los conceptos de la física del siglo XIX se aplicaron al mundo microscópico. Así que el tercer conflicto estaba servido, la incompatibilidad manifiesta entre relatividad general y mecánica cuántica.

La forma geométrica ligeramente curvada del espacio que aparece a partir de la relatividad general, es incompatible con el comportamiento microscópico irritante y frenético del universo que se deduce de la mecánica cuántica, lo cual era sin duda alguna el problema central de la física moderna.

Las dos grandes teorías de la física, la relatividad general y la mecánica cuántica, infalibles y perfectas por separado, no funcionaban cuando tratábamos de unirlas resulta algo incomprensible, y, de todo ello podemos deducir que, el problema radica en que debemos saber como desarrolar nuevas teorías que modernicen a las ya existentes que, siendo buenas herramientas, también nos resultan incompletas para lo que, en realidad, necesitamos.

emilio silvera