viernes, 26 de abril del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¿Deterctor de Materia Oscura?

Autor por Emilio Silvera    ~    Archivo Clasificado en Sin categoría    ~    Comentarios Comments (5)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

                   Hemos leído esta noricia “El detector de materia oscura más sensible del mundo”

El detector de materia oscura más sensible del mundo comenzará muy pronto su rastreo oficial para captar el hipotético paso de partículas de materia oscura por la Tierra.

En el proyecto trabajan físicos de diversas instituciones en Estados Unidos y Europa, incluyendo la Universidad Brown, en Providence, Rhode Island, Estados Unidos, la Universidad de California, y el University College de Londres.

El detector LUX (de las palabras en inglés Large Underground Xenon) está ubicado a más de un kilómetro (casi una milla) de profundidad bajo las Colinas Negras (o las Black Hills en inglés), en una antigua mina de oro de Dakota del Sur, Estados Unidos, y es el dispositivo más sensible diseñado hasta ahora para buscar la materia oscura.

Aunque conforma más del 80 por ciento de la masa del universo conocido, la materia oscura no ha sido todavía detectada directamente.

Las partículas de materia oscuras no emiten luz. Por eso los científicos del LUX buscarán evidencias de las colisiones de partículas de materia oscura (que se asume serán lo que los teóricos llaman Partículas Masivas de Interacción Débil, o WIMPs por sus siglas en inglés) contra átomos de xenón dentro de la cámara del detector LUX. Si entre todas las partículas que interaccionen con átomos de xenón, hay algunas WIMPs, entonces los científicos deberían ser capaces de detectarlas a partir de dichas colisiones.

[Img #11827]
El físico Jeremy Mock, de la Universidad de California en Davis, inspecciona el detector LUX. (Foto: Matt Kapust / Sanford Lab)

El LUX requiere un ambiente con las menores perturbaciones posibles. En julio, el detector se instaló en un recinto del Laboratorio Sanford (Sanford Lab), emplazado a unos 1.480 metros (unos 4.850 pies) de profundidad. Allá abajo está protegido de la radiación cósmica que bombardea constantemente la superficie de la Tierra. El LUX también debe ser protegido de las pequeñas cantidades de radiación natural que proviene de la masa rocosa circundante. Por eso, el detector, que tiene más o menos el tamaño de una cabina de teléfono, fue encerrado dentro de un tanque de acero inoxidable de unos 6 metros (20 pies) de alto y 7 metros y medio (25 pies) de diámetro, que luego fue llenado con más de 250.000 litros (más de 70.000 galones) de agua desionizada ultrapura que escudará al dispositivo frente a la radiación gamma y los neutrones errantes.

El tanque de agua cuenta con 20 dispositivos fotomultiplicadores, cada uno lo bastante sensible como para detectar un fotón individual. Muy de vez en cuando, una partícula de alta energía causada por la radiación cósmica atravesará la tierra hasta llegar al LUX. Cuando eso suceda, el diminuto destello de luz resultante en el agua alertará a los investigadores de que la señal correspondiente indicada por el detector no ha sido causada por materia oscura, ayudándolos así a descartar falsas detecciones de esa escurridiza forma de materia.

El detector es un cilindro de titanio de pared doble de aproximadamente dos metros de altura y uno de diámetro. En lo básico es como un termo para bebidas, sólo que no alberga café sino un tercio de tonelada de xenón, en estado líquido, enfriado a una temperatura de 107 grados centígrados bajo cero. Dentro del termo, o criostato, hay otros 122 fotomultiplicadores de menor tamaño que informarán cuando una WIMP choque contra un átomo de xenón.

La colisión entre una WIMP y un átomo de xenón debiera producir dos destellos luminosos, uno en el punto de impacto y el segundo en una capa delgada de gas xenón que hay en la parte superior del detector. El segundo destello, más fuerte que el primero, estará causado por los electrones que se desprendan durante la colisión, los cuales serán arrastrados hacia arriba por el fuerte campo eléctrico dentro del dispositivo.

Valiéndose de diversos criterios, los investigadores compararán los datos de los dos destellos para determinar si lo detectado es realmente materia oscura.

La Fuente: NCYT Amazings

¡Noticia! ¿Una nueva física por “debajo” del cero absoluto?

Autor por Emilio Silvera    ~    Archivo Clasificado en Noticias    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Lo que es normal en invierno para muchas personas, hasta ahora ha sido imposible en la física: Una temperatura por debajo de cero. Para mucha gente, las temperaturas bajo cero en la escala Celsius (grados centígrados) sólo son sorprendentes en verano. En la escala absoluta de temperatura, llamada también escala Kelvin y usada por los físicos, no es posible descender por debajo de cero, al menos no en el sentido de que algo esté más frío que cero grados kelvin.

Según el significado físico de temperatura, la temperatura de un gas está determinada por el movimiento caótico de sus partículas. Cuanto más frío esté el gas, más lentamente se mueven sus partículas. A cero grados Kelvin (273 grados centígrados bajo cero), las partículas dejan de moverse y desaparece todo ese desorden. Por tanto, nada puede estar más frío que cero grados en la escala Kelvin.

File:Edificio principal de la Universidad Ludwig-Maximilian, Múnich, Alemania, 2012-04-30, DD 01.JPG

                                               Edificio principal de la Universidad de Múnich

Sin embargo, unos físicos en la Universidad Ludwig-Maximilian de Múnich, y el Instituto Max Planck de Óptica Cuántica en Garching, ambas instituciones en Alemania, han creado ahora en el laboratorio un gas atómico que llega a alcanzar valores negativos en la escala Kelvin, siguiendo las definiciones convencionales adoptadas. Estas temperaturas absolutas negativas tienen varias implicaciones aparentemente absurdas: Aunque los átomos en el gas se atraen entre sí y producen una presión negativa, el gas no se colapsa, una conducta también postulada en la cosmología para el efecto principal de la energía oscura.

Con la ayuda de temperaturas absolutas negativas, se podría, hipotéticamente hablando, crear motores térmicos capaces de proezas imposibles en el mundo físico conocido, como por ejemplo un motor de combustión con una eficiencia termodinámica superior al 100 por cien.

Para convertir al agua en vapor, hay que suministrar energía. A medida que el agua se calienta, las moléculas de agua incrementan su energía cinética y en promedio se mueven cada vez más rápido. Sin embargo, las moléculas individuales poseen energías cinéticas distintas, desde muy lentas hasta muy rápidas. Los estados de baja energía son más comunes que los de alta energía, es decir, sólo unas pocas partículas se mueven con mucha rapidez. En física, esta distribución se conoce como Distribución de Boltzmann. El equipo de físicos de Ulrich Schneider e Immanuel Bloch ha dado ahora con un gas en el que esta distribución está invertida: muchas partículas poseen energías altas, y sólo unas pocas tienen energías bajas. Esta inversión de la distribución de energía implica que las partículas han asumido, al menos en ese aspecto, una temperatura absoluta negativa.

[Img #12313]
A una temperatura absoluta negativa, la distribución de energía de las partículas se invierte en comparación con lo que ocurre a una temperatura positiva. (Imagen: © LMU / MPG Munich)

La Distribución de Boltzmann invertida es el sello distintivo de la temperatura absoluta negativa, y esto es lo que Schneider y Bloch han logrado. Sin embargo, el gas no está más frío que cero grados Kelvin, sino más caliente, otra aparente paradoja.

Como mejor se puede ilustrar el significado de una temperatura absoluta negativa es con esferas que ruedan en un paisaje en el que los valles representan una energía potencial baja, y las colinas una energía potencial alta. Cuanto más rápido se muevan las esferas, mayor es su energía cinética: Si se parte de temperaturas positivas y se aumenta la energía total de las esferas calentándolas, esas esferas se moverán cada vez más hacia regiones de alta energía. Si fuera posible calentar las esferas hasta una temperatura infinita, las probabilidades de que estuvieran en algún punto del paisaje serían la mismas para cualquier punto, independientemente de la energía potencial. Si en esa situación se pudiera añadir aún más energía y por tanto calentar aún más las esferas, éstas se reunirían preferentemente en estados de alta energía, y estarían aún más calientes que una temperatura infinita. La distribución de Boltzmann se invertiría, y la temperatura sería por tanto negativa. A primera vista, puede parecer extraño que una temperatura absoluta negativa sea más caliente que una positiva. Sin embargo, esto es simplemente una consecuencia de la definición histórica de Temperatura Absoluta; si estuviera definida de manera diferente, esta contradicción aparente no existiría.

La temperatura en el espacio exterior, según todas las mediciones de satélites de microondas, es de -270,43ºC (2,72 Kelvin) y los átomos y moléculas se mueven más despacio que cuando están en un medio más caliente.

Esta inversión de la población de estados de energía no es posible en el agua o en cualquier otro sistema natural, ya que el sistema tendría que absorber una cantidad infinita de energía, algo imposible. Sin embargo, si existiera un límite superior para la energía de las partículas, como sería el caso de la cima de la colina en el símil del paisaje de energías potenciales, la situación sería completamente diferente. El equipo de Bloch y Schneider parece que ha dado ahora con un sistema de gas atómico de ese tipo, caracterizado por un límite superior de energía. Este aparente logro es fruto de su trabajo en el laboratorio, siguiendo las propuestas teóricas de Allard Mosk y Achim Rosch.

Hipotéticamente, la existencia de materia a temperaturas absolutas negativas tiene toda una serie de implicaciones sorprendentes, de entre las que destaca la ya citada de un motor de combustión con una eficiencia superior al 100 por cien. Sin embargo, esto no significa que se viole la ley de conservación de la energía. Lo que ocurriría es que el motor no sólo podría absorber energía de un medio más caliente, sino también de uno más frío.

El logro de los físicos de Múnich también podría ser interesante para la cosmología, ya que la conducta termodinámica de la temperatura negativa presenta semejanzas con la llamada energía oscura. Los cosmólogos consideran que la energía oscura es la fuerza misteriosa que acelera la expansión del universo, cuando parece lógico que el cosmos debería contraerse por la atracción gravitatoria entre todas las acumulaciones de masa del cosmos.

Existe un fenómeno similar en la nube atómica creada en el laboratorio de Múnich: El experimento se basa en el hecho de que los átomos en el gas no se repelen entre sí como en un gas convencional, sino que sus interacciones son de atracción. Esto significa que los átomos ejercen una presión negativa en vez de una positiva. Como consecuencia, la nube de átomos “quiere” contraerse y debería colapsarse, tal como cabría esperar que pasara con el universo bajo el efecto de la gravedad. Pero debido a la temperatura negativa de la nube de átomos, esto no sucede.

Fuente: NCYT Amazings

Universo, Teorías, las Estrellas, y…¡tantas cosas!

Autor por Emilio Silvera    ~    Archivo Clasificado en Astronomía y Astrofísica    ~    Comentarios Comments (3)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Einstein tuvo pronto que modificar ligeramente sus ecuaciones de universo, pues estas no eran compatibles con la ley de la conservación de la energía. Esto constriñó a Einstein a modificar sus ecuaciones de Universo, que adquirieron su forma definitiva tras la publicación en 1915 del artículo Aplicación de la teoría de la relatividad general al campo gravitatorio:

 Archivo:Star collapse to black hole.png

 En la imagen se reproducen las ondas gravitatorias emitidas por una estrella durante su colapso. En las ecuaciones de Einstein se descubre el misterioso proceso que ocurre en las estrellas al final de sus vidas y de como se convierten en agujeros negros.

¿Qué sería de la cosmología actual sin la ecuación de Einstein de la Relatividad General? Es la ecuación de Einstein donde el tensor energía-momento mide el contenido de materia-energía, mientras que es el Tensor de curvatura de Riemann contraído el que nos dice la cantidad de curvatura presente en el hiperespacio. La cosmología estaría 100 años atrás sin esta ecuación.

Leer más

¡El Universo! Lleno de suscesos misteriosos

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo asombroso    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Cuando hablamos de un agujero negro estamos hablando de un objeto con un campo gravitacional tan intenso que su velocidad de escape supera la velocidad de la luz. Los agujeros negros se forman cuando las estrellas masivas colapsan al final de sus vidas. Un objeto que se colapsa se convierte en un agujero negro cuando su radio se hace menor que un tamaño crítico, conocido como radio de Schwarzschild, y la luz no puede escapar de él.

La superficie que tiene este radio crítico se denomina horizonte de sucesos, y marca la frontera dentro de la cual esta atrapada toda la información. De esta forma, los acontecimientos dentro del agujero negro no pueden ser observados desde fuera. La teoría muestra que tanto el espacio como el tiempo se distorsionan dentro del horizonte de sucesos y que los objetos colapsan a un único punto del agujero, que se llama singularidad, situada en el propio centro del agujero negro. Los agujeros negros pueden tener cualquier masa.

Pueden existir agujeros negros supermasivos con cientos de miles de masas solares, verdaderos montruos, en los centros de las galaxias activas. En el otro extremo, miniagujeros negros con un radio de 10-10 m y masas similares a las de un asteroide pudieron haberse formado en las condiciones extremas que se dieron poco después del Big Bang.

 

El proceso comienza al final de la vida de las estrellas que, dependiendo de sus masas, serán enanas blancas, estrella de neutrones, o, en último lugar, Agujeros Negros, los más masivos y densos. Se habla ahora de la existencia de las estrellas de Quarks que, de existir, estarían en el punto intermedio entre las de neutrones y los agujeros negros.

Nunca se ha observado directamente un agujero negro. Kart Schwarzschild (1.837 – 1.916), dedujo la existencia de agujeros negros a partir de las ecuaciones de Einstein de la relatividad general de 1.915 que, al ser estudiadas en 1.916, un año después de la publicación, encontró en estas ecuaciones que existían tales objetos supermasivos.

Antes, en la explicación sobre las estrellas, queriendo dejarlo para este momento, deje de explicar lo que hace el equilibrio en la vida de una estrella. La estrella está formada por una inmensa nube de gas y polvo que a veces tiene varios años luz de diámetro. Cuando dicho gas (sus moléculas) se va juntando se produce un rozamiento que ioniza los átomos de la nube de hidrógeno que se juntan y se juntan cada vez más, formando un remolino central que gira atrayendo al gas circundante, que poco a poco va formando una inmensa bola. En el núcleo, la fricción es muy grande y las moléculas apretadas al máximo por la fuerza de gravedad, por fin produce una temperatura de varios millones de grados K que es la causante de la fusión de los protones que forman esos átomos de hidrógeno. La reacción que se produce es una reacción en cadena; comienza la fusión que durará todo el tiempo de vida de la estrella. Así nacen las estrellas cuyas vidas están supeditadas al tiempo que tarde en ser consumido su combustible nuclear, el hidrógeno que mediante la fusión es convertido en helio.

 

Es estas regiones comienza la historia de lo que muchos millones de años más tarde, será un agujero negro. Estrellas nuevas supermasivas, azuladas y de intensa radiación ultravioleta (como esa que vemos abajo a la derecha), un día lejano en el tiempo llegará a su final y se convertirá en supernova, eyectará las capas exteriores de su masa al espacio interestelar y, el resto de la estrella, quedando libre de la fuerza de radiación que producía la fusión nuclear, quedará a merced de la fuerza de Gravedad que, haciendo su trabajo, la comprimirá hasta extremos insispechados convirtiéndola en un Agujero Negro. Si la masa es más pequeña (2 – 3 masas solares) será una estrella de neutrones, ya que, al ser comprimido los protones y electrones allí presentes, se fusionaran para convertirse en neutrones que, al sentirse estrechamente enpaquetados, se degenerarán e impedirán que la masa de la estrella siga comprimiéndose.

Las estrellas muy grandes, conocidas como supermasivas, son devoradoras de hidrógeno y sus vidas son mucho más cortas que el de las estrellas normales. Una vez que se produce la fusión termonuclear, se ha creado el equilibrio de la estrella; veamos como. La inmensa masa que se juntado para formar la estrella genera una gran cantidad de fuerza de gravedad que tiende a comprimir la estrella bajo su propio peso. La fusión termonuclear generada en el núcleo de la estrella, hace que la estrella tienda a expandirse. En esta situación, la fusión que expande y la gravedad que contrae, como son fuerzas similares, se contrarresta la una a la otra y así la estrella continua brillando en equilibrio perfecto.

 

                                  Pero, ¿qué ocurre cuando se consume todo el hidrógeno?

Pues que la fuerza de fusión deja de empujar hacia fuera y la gravedad continúa (ya sin nada que lo impida) hasta conseguir que la masa de la estrella implosiones, es decir, caiga sobre sí misma contrayendose más y más hasta llegar a tener una demnsidad enorme y un radio mucho más pequeño que el original. El resultado final dependerá de la masa inicial y conforme a ella se produce la transición de fase hacia una u otra clase de estrella.

Según sean estrellas medianas como nuestro Sol, grandes o muy grandes, lo que antes era una estrella, cuando finaliza el derrumbe o implosión, cuando la estrella es aplastada sobre sí misma por su propio peso, tendremos una estrella enana blanca, una estrella de neutrones o un agujero negro.

Como si fuera una mariposa, esta estrella enana blanca comienza su vida envolviéndose en un capullo. Sin embargo, en esta analogía, la estrella sería más bien la oruga y el capullo de gas expulsado la etapa verdaderamente llamativa y hermosa. La nebulosa planetaria NGC 2440 contiene una de las enanas blancas conocidas más calientes. La enana blanca se ve como un punto brillante cerca del centro de la fotografía. Eventualmente, nuestro Sol se convertirá en una “mariposa enana blanca”, pero no en los próximos 5 mil millones de años. Las estrellas conocidas como “enanas blancas” pueden tener diámetros de sólo una centésima del Sol. Son muy densas a pesar de su pequeño tamaño.

Sí, en el Universo son muchas las cosas que existen para nuestro asombro y, no pocas veces, nuestras mentes tienen que hacer un alto en el camino, para pensar profundamente, hasta llegar a comprender lo que allí existe y como llegó a poder formarse.

Alrededor del agujero negro puede formarse un disco de acreción cuando cae materia sobre él desde una estrella cercana que, para su mal, se atreve a traspasar el horizonte de sucesos. Es tan enorme la fuerza de gravedad que genera el agujero negro que, en tal circunstancias, literalmente hablando se come a esa estrella compañera próxima. En ese proceso, el agujero negro produce energía predominantemente en longitudes de onda de rayos X a medida que la materia está siendo engullida hacia la singularidad. De hecho, estos rayos X pueden ser detectados por satélites en órbita. Se ha localizado una enorme fuente de rayos X en el centro mismo de nuestra galaxia. En realidad han sido varias las fuentes localizadas allí, a unos 30.000 años luz de nosotros. Son serios candidatos a agujeros negros, siendo el más famoso Cygnus X-1.

 Archivo:Accretion disk.jpg

Esta es una de las representaciones artísticas que nos hacen de Signus X-1. Es un ejemplo clásico de una Binaria de Rayos X, un sistema binario formado por un objeto compacto, que puede ser un agujero negro o una estrella de neutrones, y la estrella supergigante azul azul HDE 226868 de magnitud aparente 8,9. Como en toda binaria de rayos X, no es el agujero negro el que emite los rayos X, sino la materia que está a punto de caer en él. Esta materia (gas de plasma) forma un disco de acreción que orbita alrededor del agujero negro y alcanza temperaturas de millones de Kelvin que, quizás un día lejano aún en el futuro, podamos aprovechar como fuente de energía inagotable.

 

En los núcleos de las galaxias se han detectado las radiaciones que son propias de la existencia allí de grandes agujeros negros que se tragan toda la materia circundante de gas y polvo e incluso de estrellas vecinas. El espacio a su alrededor se curva y el tiempo se distorsiona.

Existen varias formas teóricamente posibles de agujeros negros.

  • Un agujero negro sin rotación ni carga eléctrica (Schwarzschild).
  • Un agujero negro sin rotación con carga eléctrica (Reissner-Nordström).

En la práctica es más fácil que los agujeros negros estén rotando y que no tengan carga eléctrica, forma conocida como agujero negro de Kerr. Los agujeros negros no son totalmente negros; la teoría sugiere que pueden emitir energía en forma de radiación Hawking.

 

La estrella supermasiva, cuando se convierte en un agujero negro se contrae tanto que realmente desaparece de la vista, de ahí su nombre de “agujero negro”. Su enorme densidad genera una fuerza gravitatoria tan descomunal que la velocidad de escape supera a la de la luz, por tal motivo, ni la luz puede escapar de él. En la singularidad, dejan de existir el tiempo y el espacio; podríamos decir que el agujero negro está fuera, apartado de nuestro universo, pero en realidad deja sentir sus efectos ya que, como antes dije, se pueden detectar las radiaciones de rayos X que emite cuando engulle materia de cualquier objeto estelar que se le aproxime más allá del punto límite que se conoce como horizonte de sucesos.

Con la explicación anterior he querido significar que, de acuerdo con la relatividad de Einstein, cabe la posibilidad de que una masa redujera sin límite su tamaño y se autoconfinara en un espacio infinitamente pequeño y que, alrededor de esta, se forme una frontera gravitacional a la que se ha dado el nombre de horizonte de sucesos. He dicho al principio de este apartado que en 1.916, fue Schwarzschild el que marca el límite de este horizonte de sucesos para cualquier cuerpo celeste, magnitud conocida como radio de Schwarzschild que se denota por:

 

Siguiendo la fórmula de arriba de la imagen: M es la masa del agujero negro, G es la constante gravitacional de Newton, y c2 es la velocidad de la luz elevada al cuadrado. Así, el radio de Schwarzschil para el Sol que tiene un diámetro de 1.392.530 Km, sería de sólo tres kilómetros, mientras que el de la Tierra es de 1 cm: si un cuerpo con la masa de la Tierra se comprimiera hasta el extremo de convertirse en una singularidad, la esfera formada por su horizonte de sucesos tendría el modesto tamaño de una bolita o canica de niños. Por otro lado, para una estrella de unas 10 masas solares el radio de Schwarzschild es de unos 30 kilómetros. Que para nuestro Sol, como he dicho antes, se quedaría en sólo tres kilómetros, tal es su grado de encogimiento sobre sí mismo.

Por otra parte, los acontecimientos que ocurren fuera del horizonte de sucesos en un agujero negro, tienen un comportamiento como cualquier otro objeto cósmico de acuerdo a la masa que presente. Por ejemplo, si nuestro Sol se transformara en un agujero negro, la Tierra seguiría con los mismos patrones orbitales que antes de dicha conversión del Sol en agujero negro.

 

Ahora bien, y en función de la fórmula anteriormente descrita, el horizonte de sucesos se incrementa en la medida que crece la masa del agujero a medida que atrae masa hacia él y se la traga introduciéndola en la singularidad. Las evidencias observacionales nos invitan a pensar que en muchos centros de galaxias se han formado ya inmensos agujeros negros supermasivos que han acumulado tanta masa (absorciones de materia interestelar y estrellas) que su tamaño másico estaría bordeando el millón de masas solares, pero su radio de Schwarzschil no supera ni las 20 UA (unidad astronómica = 150 millones de Km), mucho menor que nuestro sistema solar.

 

La singularidad es el pico de abajo que llega a desaparecer de la vista, la densidad adquirida por la materia es tan inmensamente grande que, parece como si hubiera entrado en otro mundo. Sin embargo, su infinita fuerza de gravedad se deja sentir y atrae a todos aquellos objetos que, en las cercanias de sus dominios, osen traspasar el horixonte de sucesos, es decir, la línea de irás y no volverás.

Comprender lo que es una singularidad puede resultar muy difícil para una persona alejada de la ciencia en sí.

Es un asunto bastante complejo el de la singularidad en sí misma, y para los lectores más alejados de los quehaceres de la física, será casi imposible aceptarla. En el pasado, no fue fácil su aceptación, a pesar de las conclusiones radicales que expuso Kart Schwarzschild en su trabajo inspirado en la teoría y ecuaciones de Einstein. De hecho, hasta el mismo Einstein dudó de la existencia de tales monstruos cosmológicos. Incluso durante largo tiempo, la comunidad científica lo consideró como una curiosidad teórica. Tuvieron que transcurrir 50 años de conocimientos experimentales y observaciones astronómicas para empezar a creer, sin ningún atisbo de duda, que los agujeros negros existían realmente.

Sí, es posible que una vez que hayamos representado la singularidad mediante las matemáticas de la relatividad general, la única otra manera de hacerlo sea en el interior de nuestras mentes, imaginando lo que puede ser. Claro que, también la imagen pueda estar refiriéndose a que, nuestras mentes también son singularidades de la materia que han llegado a ser conscientes.

El concepto mismo de “singularidad” desagradaba a la mayoría de los físicos, pues la idea de una densidad infinita se alejaba de toda comprensión. La naturaleza humana está mejor condicionada a percibir situaciones que se caracterizan por su finitud, cosas que podemos medir y pesar, y que están alojadas dentro de unos límites concretos; serán más grande o más pequeñas pero, todo tiene un comienzo y un final pero… infinito, es difícil de digerir. Además, en la singularidad, según resulta de las ecuaciones, ni existe el tiempo ni existe el espacio. Parece que se tratara de otro universo dentro de nuestro universo toda la región afectada por la singularidad que, eso sí, afecta de manera real al entorno donde está situada y además, no es pacífica, ya que se nutre de cuerpos estelares circundantes que atrae y engulle.

La noción de singularidad empezó a adquirir un mayor crédito cuando Robert Oppenheimer, junto a Hartlan S. Snyder, en el año 1.939 escribieron un artículo anexo de otro anterior de Oppenheimer sobre las estrellas de neutrones. En este último artículo, describió de manera magistral la conclusión de que una estrella con masa suficiente podía colapsarse bajo la acción de su propia gravedad hasta alcanzar un punto adimensional; con la demostración de las ecuaciones descritas en dicho artículo, la demostración quedó servida de forma irrefutable que una estrella lo suficientemente grande, llegado su final al consumir todo su combustible de fusión nuclear, continuaría comprimiéndose bajo su propia gravedad, más allá de los estados de enana blanca o de estrella de neutrones, para convertirse en una singularidad.

 Un púlsar atrayendo a una enana roja

                   Aquí un púlsar atrae a una enana roja

Estrellas de Neutrones que, con sus campos magnéticos influyen en todo el espacio circundante y, sus pulsos luminosos cuando se dejan ver como púlsares, son como los faros del cielo que avisan a seres de mundos lejanos, que maravillas como esa están ahí.

Los cálculos realizados por Oppenheimer y Snyder para la cantidad de masa que debía tener una estrella para terminar sus días como una singularidad estaban en los límites másicos de M =~ masa solar, estimación que fue corregida posteriormente por otros físicos teóricos que llegaron a la conclusión de que sólo sería posible que una estrella se transformara en singularidad, la que al abandonar su fase de gigante roja retiene una masa residual como menos de 2 – 3 masas solares.

Oppenheimer y Snyder desarrollaron el primer ejemplo explícito de una solución a las ecuaciones de Einstein que describía de manera cierta a un agujero negro, al desarrollar el planteamiento de una nube de polvo colapsante. En su interior, existe una singularidad, pero no es visible desde el exterior, puesto que está rodeada de un horizonte de suceso que no deja que nadie se asome, la vea, y vuelva para contarlo. Lo que traspasa los límites del horizonte de sucesos, ha tomado el camino sin retorno. Su destino irreversible, la singularidad de la que pasará a formar parte.

 

Alrededor de un agujero negro, y, en objetos cercanos a él, se pueden ver efectos extraordinarios que finalizan con su desaparición dentro del Agujero Negro que, los engulle y cada vez se hace más y más poderoso. Algunos son verdaderos monstruos del Universo y llegan a poseer miles de millones de masas solares. ¿Os imaginais dar un paseo por sus cercanias?

Desde entonces, muchos han sido los físicos que se han especializado profundizando en las matemáticas relativas a los agujeros negros. John Malher (que los bautizó como agujeros negros), Roger Penrose, Stephen Hawking, Kip S. Thorne, Kerr y muchos otros nombres que ahora no recuerdo, han contribuido de manera muy notable al conocimiento de los agujeros negros, las cuestiones que de ellas se derivan y otras consecuencias de densidad, energía, gravedad, ondas gravitacionales, etc, que son deducidas a partir de estos fenómenos del cosmos.

 

Se afirma que las singularidades se encuentran rodeadas por un horizonte de sucesos, pero para un observador, en esencia, no puede ver nunca la singularidad desde el exterior. Específicamente implica que hay alguna región incapaz de enviar señales al infinito exterior. La limitación de esta región es el horizonte de sucesos, tras ella se encuentra atrapado el pasado y el infinito nulo futuro. Lo anterior nos hace distinguir que en esta frontera se deberían reunir las características siguientes:

  • debe ser una superficie nula donde es pareja, generada por geodésicas nulas;
  • contiene una geodésica nula de futuro sin fin, que se origina a partir de cada punto en el que no es pareja, y que
  • el área de secciones transversales espaciales jamás pueden disminuir a lo largo del tiempo.

Todo esto ha sido demostrado matemáticamente por Israel, 1.967; Carter, 1.971; Robinson, 1.975; y Hawking, 1.978 con límite futuro asintótico de tal espaciotiempo como el espaciotiempo de Kerr, lo que resulta notable, pues la métrica de Kerr es una hermosa y exacta formulación para las ecuaciones de vacío de Einstein y, como un tema que se relaciona con la entropía en los agujeros negros.

 

El espacio se distorsiona en presencia de grandes masas. ¿Qué transformaciones no sufrirá en presencia de un Agujero Negro?

No resulta arriesgado afirmar que existen variables en las formas de las singularidades que, según las formuladas por Oppenheimer y su colaborador Snyder, después las de kerr y más tarde otros, todas podrían existir como un mismo objeto que se presenta en distintas formas o maneras.

Ahora bien, para que un ente, un objeto o un observador pueda introducirse dentro de una singularidad como un agujero negro, en cualquiera que fuese su forma, tendría que traspasar el radio de Schwarzschild (las fronteras matemáticas del horizonte de sucesos), cuya velocidad de escape es igual a la de la luz, aunque esta tampoco puede salir de allí una vez atrapada dentro de los límites fronterizos determinados por el radio. Este radio de Schwarzschild puede ser calculado usándose la ecuación para la velocidad de escape:

 foto

     Cada cuerpo, según su masa, exige una velocidad para poderr escapar de él. De la Tierra es 11 km/s

                           Para el caso de fotones u objeto sin masa, tales como neutrinos, se sustituye la velocidad de escape por la de la luz c2.

La velocidad de escape está referida a la velocidad mínima requerida para escapar de un campo gravitacional. El objeto que escapa puede ser cualquier cosa, desde una molécula de gas a una nave espacial. Como antes he reflejado está dada por , donde G es la constante gravitacional, M es la masa del cuerpo y R es la distancia del objeto que escapa del centro del cuerpo del que pretende escapar (del núcleo). Un objeto que se mueva a velocidad menor a la de escape entra en una órbita elíptica; si se mueve a una velocidad exactamente igual a la de escape, sigue una órbita parabólica, y si el objeto supera la velocidad de escape, se mueve en una trayectoria hiperbólica.

 

Así hemos comprendido que, a mayor masa del cuerpo del que se pretende escapar, mayor será la velocidad que necesitamos para escapar de él. Veamos algunas:

Objeto Velocidad de escape
La Tierra ………….11,18 Km/s
El Sol ………….617,3 Km/s
Júpiter ……………59,6 Km/s
Saturno ……………35,6 Km/s
Venus ………….10,36 Km/s
Agujero negro ….+ de 299.000 Km/s

Ponernos a comentar sobre objetos y fenómenos que en el Universo están presentes, puede llegar a sar fascinante. A medida que nos sumergimos en las complejidades de las cosas, los procesos mediante los cuáles cambian para convertirse en otras diferentes de las que en un principio eran, los ritmos y energías, las fuerzas fundamentales que actúan sobre ellos… ¡Es una maravilla!

emilio silvera

¡Conocer el Universo! Ese antiguo deseo

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo asombroso    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Hemos podido llegar a saber que la vida está estrechamente ligada a las estrellas y a “los mundos” y, aunque solo tengamos una muestra de ella que se ha dado en el planeta que llamamos Tierra… Todos los indicios apuntan a que muchos otros mundos también, como el nuestro, podrá albergar la vida ¡de tántas formas diferentes! Claro que, para empezar ni sabemos como pudo comenzar todo esto.

“En Cosmología, las condiciones  “iniciales” raramente son absolutamente iniciales, pues nadie sabe como calcular el estado de la materia y el espacio-tiempo antes del Tiempo de Planck, que culminó alrededor de 10-43 de segundo Después del Comienzo del Tiempo.”

El tiempo de Planck es una unidad de tiempo considerada como el intervalo temporal más pequeño que puede ser medido. Se denota mediante el símbolo tP. En cosmología, el tiempo de Planck representa el instante de tiempo más antiguo en el que las leyes de la física pueden ser utilizadas para estudiar la naturaleza y evolución del Universo. Se determina como combinación de otras constantes físicas en la forma siguiente:

t_P = \sqrt{\frac{\hbar G}{c^5}} \approx 5.39124(27) × 10−43 segundos

Llegados a este punto, me remito al párrafo segundo de este trabajo, en él se deja claro que, nada sabemos de ese instante primero anterior al Tp. Qué habría allí entonces, qué sustancias dieron lugar a la materia y, de dónde salieron las fuerzas fundamentales que hoy conocemos. Esas cuatro fuerzzas que definen nuestro universo (Electromagnetismo Fuerzas nucleares débil y fuerte y la Gravedad), dicen que al principio sólo fue una sóla fuerza. Entonces todo era simetría que se rompió para desgajarse esas cuatro fuerzas conocidas y, según dicen algunos, en otras que no pudieron desplegarse y quedaron compactadas en el límite de Planck.


El período entre 10-43 s -la era de Planck- y 300.000 años después del comienzo del tiempo. Durante este periodo, la expansión del universo estaba dominada por los efectos de la radiación o de las partículas rápidas (a altas energías todas las partículas se comportan como la radiación). De hecho, la era leptónica y la era hadrónica son ambas subdivisiones de la era de radiación.

Es verdaderamente encomiable la pertinaz insistencia del ser humano por saber, y, en el ámbito de la Astronomía, desde los más remotos “tiempos” que podamos recordar o de los que tenemos alguna razón, nuestra especie ha estado interesada en saber, el origen de los objetos celestes, los mecanismos que rigen sus movimientos y las fuerzas que están presentes para que todo eso ocurra tal como lo hemos podido comprobar.

La mayoría de los cosmólogos interpretan esta “singularidad” como una indicación de que la relatividad general de Einstein deja de ser válida en el universo muy primitivo (no existía materia), y el comienzo mismo debe ser estudiado utilizando una teoría de cosmología cuántica.

Es posible que bajo el Sol no encontremos nada nuevo; sin embargo, el estudio del cosmos ha sido y lo continúa siendo una apabullante caja de sorpresas. Hasta los años 20, los científicos preferían creer que el espacio era infinito y eterno. Se coincidía en la vaga noción de que éramos únicos en un universo hueco e insondable. Pero, como ya lo hemos mencionado en trabajos precedentes, la historia empieza a cambiar cuando el matemático ruso Alexander Friedmann en 1922, desafiando las afirmaciones de Albert Einstein de que el universo era estático, publicó un ensayo en el cual demostraba un error en los cálculos de Einstein y que las propias ecuaciones de éste permitían la descripción de un universo que evoluciona. En 1927 el sacerdote belga y físico teórico George Lemaître aprecia los estudios de Friedmann y galvanizó a los cosmólogos con su propuesta de que un «átomo primigenio», denso y muy caliente estalló en forma similar a la bola de fuego del Big Bang para crear el actual universo. En los años ’20, el astrónomo Edwin Hubble y otros colegas suyos con sus observaciones demostraron que el universo se estaba expandiendo; todas las galaxias se alejaban unas de otras, incrementando el espacio entre ellas y sus vecinas.

Aunque Lemaître, «el padre de la teoría del Big Bang», diese el primer paso, su versión moderna se debe a George Gamow y a sus alumnos Ralph Alpher y Robert Herman. En los años 40, calcularon la síntesis de los elementos químicos de la explosión primordial y, al hacerlo, trasladaron la idea del Big Bang del campo de las hipótesis al terreno de la ciencia de observación. Alpher y Herman estimaron que el espacio debería estar actualmente bañado por un mar de energía electromagnética que, en términos del cuerpo negro, estimaron que ésta debía bordear los 5° K por encima del cero absoluto, lo que informaron en una carta enviada a la revista científica Nature en 1948. La estimación sobre la existencia de la energía electromagnética quedó confirmada cuando, dieciocho años después, Penzias y Wilson lograron identificarla, calculando que esta comportaba una temperatura de 2,7°K.

La teoría del Big Bang es capaz de explicar la expansión del universo, la existencia de una radiación de fondo cósmica y la abundancia de núcleos ligeros como el helio, el helio-3, el deuterio y el litio-7, cuya formación se predice que ocurrió alrededor de un segundo después del Big Bang, cuando la temperatura reinante era de 1010 K.

La demostración hecha por Hubble, como la comprobación de la temperatura de la radiación de fondo que realizaron Penzias y Wilson, dieron cabida para que desde la década de los 50 surgiera una aceptación mayoritariamente generalizada de la hipótesis de que el universo había tenido su comienzo en la explosión de un átomo primigenio (Big Bang); que las enormes densidades y las altas temperaturas al principio del tiempo y del espacio pudieron haber borrado la distinción entre materia y energía (Big Squeeze), y que de ese guiso materia energía se habría generado la energía radiante. Luego, mientras el universo comenzaba a expandirse y a enfriarse, la primera materia en emerger lo habría hecho en forma de partículas elementales: protones, neutrones y electrones constituyendo lo que se ha llamado «ylem», un término tomado de Aristóteles, para esta materia primordial. Posteriormente, a medida que se enfriaba y se hacía menos denso el «ylem» y se reducía la radiación de alta energía, los neutrones existentes empezaron a combinarse con protones, formándose los núcleos atómicos. Los protones solitarios atraían a los electrones para crear átomos de hidrógeno, y los núcleos más pesados reunían también sus complementos más grandes de electrones. El Big Squeeze pudo haber sido el crisol de todos los elementos observados hoy en el universo. En esto hay que consignar que diferentes investigaciones de laboratorio han concluido que lo inmediatamente anterior descrito ocurrió dentro de los primeros minutos de la expansión cósmica donde se constituyó un proceso igual que la alquimia: En el ylem, una sustancia era transformada en otra.

Pero esta cuestión del ylem, también dio cabida a la idea de un universo pulsante. Pero junto con ganar la aceptación generalizada de los que hacen ciencia la hipótesis del Big Bang como descripción del origen del universo, también ha sabido gozar en los años, desde la presentación de sus enunciados, de serios grupos de científicos retractores, a los que en el pasado se les llamó «malditos» y que ahora son distinguidos como heterodoxos.

Es indudable que por mucho que nos adentremos en el Big Bang, hay siempre materia presente. ¿Cómo comprender, pues, el punto mismo del origen? ¿De dónde procede la materia del universo? ¿Hay fallas en las leyes de la física que nos impulsen a remplazarlas o a adoptar una actitud mística?

La primera hipótesis competidora a la del Big Bang apareció, casi paralelamente, con la publicación de los enunciados de ésta y sus puertas fueron abiertas, prácticamente, por algunas dificultades que el Big Bang presentaba para explicar hechos que eran observados.

La materia salió de ese clima de enormes temperaturas ahora inimaginables y, durante varias etapas o eras (de la radiación, de la materia, hadrónica y bariónica… llegamos al momento presente habiendo descubierto muchos de los secretos que, el Universo guardaba celosamente para que, nosotros, los pudiéramos desvelar con algunas dificultades.

Una de esas dificultades, y que de la cual los propios autores estaban conscientes, es la que tiene que ver con la síntesis de los elementos. Gamow y su ayudante Ralph Alpher en su exploración de la síntesis de los elementos se encontraron con un importante obstáculo a explicar por la hipótesis que habían presentado. Por mucho que lo intentaran, no podían explicar la creación de elementos más pesados que el helio-4, un isótopo muy estable que se niega a aceptar a dar partículas, y así generar átomos sin peso. De todas maneras, en el momento en que fue creado el helio-4 –a los pocos minutos del comienzo de la expansión–, el cocimiento cósmico de partículas tenía que haberse hecho tan tenue que las colisiones no debieron producirse tan frecuentes como para generar los elementos más pesados.

Otro problema que presentaba la hipótesis de Gamow y que aún sigue siendo un tema permeable en la actualidad, pese a que en el pasado ya fue soslayada, es la que tiene que ver con la edad del universo. Aparece este problema cuando la expansión observada del universo fue utilizada para estimar la cantidad de tiempo que había transcurrido desde el momento de su “nacimiento”. La edad a la cual se concluía era significativamente inferior a la que se había logrado establecer por los geólogos para la Tierra haciendo uso de los isótopos de plomo para datar las rocas.

 

Mucho es lo que hemos tenido que estudiar y obervar para ir conociendo el Universo que nos acoge y, desde luego, la materia que lo puebla y cómo se conforman los átomos de esas partículas que hemos sabido clasificar por familias y cuyos nombres han llegado a ser tan familiares que, decir protón, neutrón o electrón es algo cotidiano y hasta amigable.

A pesar de su ínfima dimensión, los nucleones se unen a los electrones para formar los átomos y, estos a su vez, son los que forman la materia que conforman las Galaxias del Universo y todos los demos objetos que podemos observar.

Miremos ahora al revés. La masa del universo está concentrada casi por entero en los nucleones que contiene. Los nucleones son partículas diminutas y hacen falta 6×1023 de ellas para formar una masa equivalente a un gramo.

Pues bien, si 6×2023 nucleones hacen 1 g, y si hay 2×1055 g en el universo, entonces el número total de nucleones en el universo podría ser de 6×1023×2×1055 ó 12×1078, que de manera más convencional se escribiría 1,2×1079.

Los astrónomos opinan que el 90 por 100 de los átomos de universo son hidrógeno, el 9 por 100 helio y el 1 por 100 elementos más complejos.  Una muestra de 100 gramos, o mejor 100 átomos, consistiría entonces en 90 átomos de hidrógeno, 9 de helio y 1 de oxígeno (por ejemplo). Los núcleos de los átomos de hidrógeno contendrían 1 nucleón cada uno: 1 protón. Los núcleos de los átomos de helio contendrían 4 nucleones cada uno: 2 protones  y 2 neutrones. El núcleo del átomo de oxígeno contendría 16 nucleones: 8 protones y 8 neutrones. Los 100 átomos juntos contendrían, por tanto, 145 nucleones: 116 protones y 26 neutrones.

Existe una diferencia entre estos dos tipos de nucleones. El neutrón no tiene carga eléctrica y no es preciso considerar ninguna partícula que lo acompañe. Pero el protón tiene una carga eléctrica positiva, y como el universo es, según creemos, eléctricamente neutro en su conjunto, tiene que existir un electrón (con carga eléctrica negativa) por cada protób, creando así el equilibrio existente.

La grandeza de nuestro Universo tiene su origen en las minúsculas partículas que conforman la materia, en las interacciones fundamentales que rigen las leyes y, en las constantes universales que indican cómo deben ser las cosas: la velocidad de la luz, la masa del electrón, la constante de estructura fina… De las demás partículas, las únicas que existen en cantidades importantes en el universo son los fotones, los neutrinos y posiblemente los gravitones, pero son partículas sin masa.

Una historia que circula por Internet desde hace muchos años cuenta que nuestro Sol forma parte de las Pléyades, que son un grupo de estrellas muy jóvenes que se encuentran a 450 años luz de la Tierra y que pertenecen a la constelación de Tauro. Este grupo de estrellas gira alrededor de Alcyon, la estrella más grande del grupo. El Sol tardaría 24.000 años en completar una órbita completa alrededor de Alcyon. Alrededor de esta estrella existiría un anillo de fotones que sería atravesado dos veces por el Sol en cada órbita, tardando cada vez 2000 años. Durante estos 2.000 años nuestro planeta estará continuamente bajo una iluminación omnidireccional permanente, que no producirá sombras. Los efectos de esta radiación fotónica serían entre otros el de la aparición de una nueva glaciación, disminución de la velocidad de rotación de la Tierra y cambio del eje de rotación.

Nadie sabe de dónde vino la sustancia del universo, no siempre la ciencia puede dar respuesta a todo, es la manera de regular los sistemas para obtener respuestas tras el duro trabajo del estudio, la investigación y el experimento. Hasta el momento nos falta información para contestar, no sólo esa pregunta, sino muchas otras que, como ¿qué es y de dónde sale la “materia oscura”? -si es que realmente existe-, ¿qué es realmente una singularidad? -si es que eso existe-, ¿dónde están los bosones de higgs? -si realmente están-, y, tantas otras preguntas sin respuestas…¡de momento!

Claro que, nuestra imaginación no tiene límites y hasta hemos pensado en la posible existencia de la materia extraña. La Hipótesis de estrella de Quarks (EQs) podrían responder a muchos interrogantes surgidos a partir de observaciones astrofísicas que no coinciden con los modelos canónicos teóricos de las Estrellas de Neutrones ( ENs ). Decimos que son hipotéticas porque se conjetura que estarían formadas por Materia Extraña ( ME ). La comunidad astrofísica espera evidencias observacionales que permitan diferenciarlas de las ENs, ya que podrían explicar un conjunto de observaciones astronómicas que aún resultan una incógnita. Es sabido que una EN es el remanente del colapso de una estrella masiva. El colapso de la estrella, la supernova, da lugar a un núcleo compacto hiperdenso de hierro y otros metales pesados que sigue comprimiéndose y calentándose. Su densidad continúa aumentando, dando lugar a una “neutronización“ (recombinación de electrones con protones que resultan en neutrones) y el gas degenerado de neutrones frena el colapso del remanente.

Una EQ, a diferencia de una EN, no se originaría necesariamente de una evolución estelar después del agotamiento del combustible nuclear de una estrella normal. Sería, probablemente, producto de la transición de fase hadrón-quark a altísima densidad. La Cromodinámica Cuántica (CDC), la Teoría de las Interacciones Fuertes que ocurren dentro de los nucleones  (protones y neutrones), concibe teóricamente la idea de la transición de fase hadrón-quark a temperaturas y/ o densidades extremadamente altas con el consecuente desconfinamiento de quarks y gluones, que formarían una especie de “sopa “. Sin embargo, los quarks libres no se han encontrado aún, en uno u otro límite, en ningún experimento terrestre.

La “sopa“ que mencionamos antes, se conoce como Plasma Quark-Gluón ( PQG ). En el límite de altas temperaturas, el PQG está tratando de obtenerse en el laboratorio y existen fuertes indicios de que se logre con éxito experimentos de altas energías como el Colisionador Relativista de Iones Pesados (conocido por sus siglas en ingles como RHIC) de Brookhaven, New York.

Por otro lado, se espera que a través de observaciones astronómicas se compruebe que la transición a altas densidades se hubiese producido en el interior de alguna EN. Esto se debe a que los valores de densidades estimados para que dicha transición tuviese lugar coinciden con densidades del orden de (3 exp. – 12) ρ0 (siendo ρ0 ̃ 0, 17 fmˉ ³ la densidad de equilibrio nuclear) que son típicas del interior de las ENs. Los cálculos basados en diferentes ecuaciones de estado de la materia nuclear muestran estos resultados, por lo que sería razonable que el núcleo de las ENs estuviese formado por materia de quarks.

Recientemente, la relación entre campo magnéticos y materia densa está atrayendo la atención de los astrofísicos, especialmente después de las observaciones de emisiones peculiares de pulsares anómalos de rayos X, que se interpretan como ENs en rotación, y de emisiones de radiación γ de baja energía de los llamados repetidores de rayos γ suaves ( SGRs – soƒt gamma-ray repeaters ). El motor central de esas radiaciones podría ser un campo magnético mayor que 4 x 10¹³ Gauss, que es el campo crítico previsto por la Electrodinámica Cuántica.

Muchas observaciones astronómicas indirectas sólo se explicarían a través de la existencia de campos magnéticos muy intensos en los núcleos de ENs  en EQs, de manera que el papel que juega el campo magnético en la ME aún constituye un problema abierto y de sumo interés en la Astrofísica.

En particular, en un trabajo reciente, se ha analizado la ME considerando neutralidad de carga, equilibrio β y conservación del número bariónico. En dicho trabajo se obtuvo una cota superior para el valor del campo magnético que determina una transición de fase cuya explicación requiere ser estudiada en profundidad ya que sería independiente de la interacción fuerte entre los quarks. También se ha comprobado que la presencia de de campos magnéticos intensos favorece la estabilidad de la ME.

Por otro lado, estudios teóricos han demostrado que si la materia es suficientemente densa, la materia de quark deconfinada podría estar en un estado superconductor de color. Este estado estaría formado por pares de quarks, análogos a los pares de Cooper (constituidos por electrones) existentes en los superconductores ordinarios.

Los quarks, a diferencia de los electrones, poseen grados de libertad asociados con el color, el sabor y el espín. Por este motivo, dependiendo del rango de densidades en el cual estamos trabajando, algunos patrones de apareamiento pueden verse favorecidos generando la aparición de distintas fases superconductoras de color. Según estudios teóricos, la fase superconductora más favorecida a densidades extremadamente altas sería la Color Flavor Locked (CFL), en la cual los quarks u, d y s poseen igual momento de Fermi, y en el apareamiento participan los tres colores y las dos proyecciones de espín de cada uno de ellos. Estudios recientes sobre la fase CFL han incluido los efectos de campos magnéticos intensos, obteniendo que bajo determinadas condiciones el gas superconductor, que corresponde a la separación entre bandas de energía en el espectro fermiónico, crece con la intensidad del campo. A esta fase se la llama Magnetic Color Flavor Locked (MCFL).

Son muchos los misterios quen contiene el Universo y, nosotros, debemos recorrer los caminos para desvelarlos. Estamos siempre a la búsqueda de ¿cuerdas? ¿bosones que proporcionan la masa a las otras partículas? ¿energías de punto cero? ¿matería de quarks?

En la superconductividad electromagnética usual, un campo magnético suficientemente fuerte destruye el estado superconductor. Para la superconductividad de color no existe aún un consenso de cómo, la presencia del campo magnético, podría afectar al apareamiento entre los quarks.

En este trabajo describiremos brevemente la materia extraña, con el objetivo de explicar su formación en el interior de una EN y entender la composición y características de una EQ. Posteriormente, utilizaremos el modelo fenomenológico de bag del Massachussets Institute of Technology (MIT) para encontrar las ecuaciones de estado de la ME en condiciones determinadas, comprobando la estabilidad de la misma, frente a la materia de quarks ordinaria formada sólo por quarks u y d. Presentaremos, además, algunas candidatas posibles a EQs según observaciones astrofísicas. Por último, trataremos de entender la superconductividad de color y la influencia del campo magnético intenso en las fases superconductoras.

Uno de los mayores logros alcanzados por los físicos en el último siglo, fue la construcción del Modelo Estándar en la física de partículas elementales. Este modelo sostiene que la materia en el Universo está compuesta por fermiones,  divididos en quarks y leptones, que interactúan a través de los llamados bosones de calibre: el fotón (interacción electromagnética), los bosones W± y Zº (interacción débil), y 8 tipos de gluones (interacción fuerte). Junto con los bosones de calibre, existen tres generaciones de fermiones: ( v e, e ), u, d ); ( vµ, µ ), ( c, s ) ; ( v….); y sus respectivas antipartículas. Cada “ sabor “ de los quark, up ( u ), down ( d ), charme ( c ), strange ( s , top ( t ) y bottom ( b), tiene tres colores ( el color y el sabor son números cuánticos ). La partícula que aún no ha sido descubierta experimentalmente es el boson de Higgs,  que cabe suponer sería responsable del origen de la masa de las partículas.

En 1971 A.R. Bodmer propuso que la ME es más estable que el Fe, que es el más estable de todos los núcleos ordinarios. Por lo tanto, según su hipótesis, la ME constituía el estado más fundamental de la materia. En la Naturaleza, la presencia de núcleos atómicos ordinarios. Por lo tanto, según su hipótesis, la ME constituía el estado más fundamental de la materia. En la Naturaleza, la presencia de núcleos atómicos ordinarios no se halla en contradicción con la mayor estabilidad que presenta la ME. Esto se debe a que la conversión de un núcleo atómico en ME, requiere que se transformen quarks u y d en quarks extraños s. La probabilidad de que esto ocurra involucra una transición débil que hace que los núcleos con peso atómico A ≥ 6 sean estables por más de 10 exp60. Años. De manera que si la hipótesis de la ME fuera correcta, estaríamos en presencia del estado más estable de la materia hadrónica y para su formación se necesitaría un ambiente rico en quarks  s o la formación de un PQG, Como ya mencionamos, podríamos alcanzar dicho estado en las colisiones de iones pesados relativistas, segundos después del Big Bang en el Universo primordial y en el interior de las Ens.

¿Se podría dar la Formación de Materia Extraña en una Estrella de Neutrones?

Inmediatamente después de la transición de fase hadrónquark en el interior de la estrella, no existe una configuración de equilibrio químico entre los quarks.  Esto puede entenderse de la siguiente forma: en el punto de transición, la materia bariónica predominante son los quarks u y d con una pequeña cantidad de electrones.  Así, la densidad del quark d es aproximadamente dos veces la densidad del quark u, Nd ~ 2Nu, debido al hecho de que la materia en las estrellas compactas es eléctricamente neutra. Por el principio de exclusión de Pauli, sería energéticamente más favorable para los quarks d decaer en quarks s hasta restablecer el equilibrio entre sabores vía interacciones débiles. Dado que la densidad bariónica de la materia de quarks en el interior de la estrella sería ~ 5ρ0, los potenciales químicos de los quarks deberían ser grandes respecto de las masas. Esto implicaría que las densidades de los quarks fueran prácticamente iguales. De esta forma, la configuración más estable en el interior de la EN, sería un núcleo de ME con una densidad bariónica Nb = Ni ( i= u , d, s ). Si el interior de una EN estuviese compuesto por ME, cabe entonces preguntarnos: ¿podría transformarse una EN en una EQ?

EQs: Formación y características:

Para los astrónomos ha quedado bien establecido que el remanente estelar después de la explosión de una supernova podría resultar ser una  Enana Blanca, una En o un Agujero Negro, dependiendo de la masa de la estrella de origen. Observaciones astronómicas recientes sugieren un remanente aún más exótico: las EQs. La idea de la existencia de estas estrellas apareció en 1969, cinco años después de la predicción de Gell- Mann de la existencia de los quarks. En el año 1984, Farhi y Jaffe, basándose en el modelo de bag del MIT, mostraron en sus cálculos que la energía por barión de la ME era menor que la del núcleo atómico más estable, el Fe. Esto daba mayor solidez a la hipótesis de Bodmer- Witten e inmediatamente se comenzaron a desarrollar modelos teóricos de Eqs. En el año 2002, el Observatorio de Rayos X Chandra, de la NASA, reportó el descubrimiento de dos estrellas candidatas a ser Eqs.

Para que una EN se transforme en una EQ pura, necesitamos algún mecanismo mediante el cual su densidad aumente cada vez más. Pensemos, por ejemplo, que la EN forma parte de un sistema binario. Para considerar que dos estrellas están en un sistema binario, debe analizarse su proximidad comparando el tamaño de las mismas con el radio del lóbulo de Roche, que es la región que define el campo de la acción gravitatoria de una estrella sobre otra.

Si el radio de cada estrella es menor que el lóbulo de Roche, las estrellas están desconectadas. Por el contrario, si una de ellas llena el lóbulo de Roche, el sistema es semiconectado y la materia puede fluir a través del punto de Lagrange interno. El potencial gravitatorio de un sistema binario se consume la masa de la estrella compañera. Cuando la masa de la EN alcanza el valor de ~2 M  (M corresponde a la masa solar), sufre un colapso gravitatorio, pudiéndose transformar en una EQ.

¿Podría el colapso de una supernova dar origen a la formación de una EQ? Esta pregunta nos conduce a otra hipótesis teórica acerca de la formación de la EN, hay conservación del momento angular. La proto-estrella de neutrones tiene una fracción pequeña de su radio original, que era el de la supernova, por lo que su momento de inercia se reduce bruscamente. Como resultado, la EN se forma con una altísima velocidad de rotación  que disminuye gradualmente. Los períodos de rotación se hacen cada vez más largos debido a la pérdida de energía rotacional por la emisión de vientos de electrones y positrones y de la radiación bipolar  electromagnética. Cuando la alta frecuencia de rotación o el campo electromagnético alcanzan un valor crítico, la EN se transforma en un pulsar que emite pulsos del orden de los milisegundos. Debido a la enorme fuerza centrífuga en estos objetos, la estructura interna se modifica, pudiendo alcanzar una densidad crítica por encima de la que corresponde a la transición de fase hadrón-quark. En estas condiciones, la fase de materia nuclear relativamente incomprensible se convertiría en la fase de ME, más comprensible, cuyo resultado final sería la aparición de una EQ.

La identificación de una EQ requiere señales observacionales consistentes. Con esto nos referimos a propiedades físicas de la estrella tales como su masa máxima, radio, período mínimo de rotación, enfriamiento por emisión de neutrinos. Todas estas propiedades dependen de una única ecuación de estado para la materia densa de quarks que aún no ha sido completamente establecida. Sin embargo, existe un rango de valores aceptados para las cantidades antes mencionadas, con base en datos observacionales recientes, que marcarían importantes diferencias entre las posibles Eqs y los demás objetos compactos.

Un rasgo característico de las Eqs es que la materia no se mantendría unida por la atracción  gravitacional, como ocurre en las Ens, sino que sería consecuencia directa de la interacción fuerte entre los quarks. En este caso, la estrella se dice autoligada. Esto implica una diferencia sustancial entre las ecuaciones de estado para las dos clases de estrellas. Las correcciones perturbativas a la ecuación de estado de la materia de quarks y los efectos de superconductividad de color complican aun más este punto. Otra característica para poder diferenciar las Eqs de las Ens es la relación entre su masa M y el radio R. Mientras que para una EQ, M ~ R³. De acuerdo con esta relación, las Eqs tendrían radios más pequeños que los que usualmente se le atribuyen a las Ens. Además, las Eqs violarían el llamado límite de Eddington. Arthur Eddington (1882-1994) observó que las fuerzas debido a la radiación y a la gravitación de las estrellas normales dependían del inverso del cuadrado de la distancia. Supuso, entonces, que ambas fuerzas podían estar relacionadas de algún modo, compensándose para que la estrella fuera más estable. Para estrellas de altísima masa, la presión de radiación es la dominante frente  a la gravitatoria. Sin embargo, debería existir una presión de radiación máxima para la cual la fuerza expansiva debido a la radiación se equilibrara con la gravedad local. Para una estrella normal, el límite de Eddington está dado por una ecuación que omito para no hacer más complejo el tema.

Para cualquier valor de radiación que supere este límite, no habrá equilibrio hidrostático, causando la pérdida de masa de la estrella normal. El mecanismo de emisión en una EQ produciría luminosidades por encima de dicho límite. Una posible explicación a este hecho sería que la EQ es autoligada y por lo tanto su superficie alcanzaría temperaturas altísimas con la consecuente emisión térmica.

Por otro lado, una alternativa para explicar algunas observaciones de destellos de rayos γ, sería suponer que las emisiones provienen de Eqs con radios R ~ 6 km, valores demasiados pequeños si pensáramos que los destellos provienen de ENs.

En esta última parte, hemos presentado algunas características de las Eqs que las diferenciarían de las Ens. Futuras evidencias experimentales y observacionales nos permitirían saber si las Eqs realmente existen en la naturaleza.

¡El Universo! ¡Es tan grande y maravilloso! ¡Nos queda tanto por descubrir!

emilio silvera

Muchas han sido las fuentes consultadas entre las que cabría destacar la Revista de la RSEF.