Dic
29
El Tiempo de Planck, materia extraña, la geometría del Universo…
por Emilio Silvera ~
Clasificado en Astronomía y Astrofísica ~
Comments (3)


Hace años que lo vengo diciendo ¡No hay materia oscura”. Resulta que los cosmólogos no sabían explicare como se pudieron formar las galaxias, estando presente la Expansión de Hubble. ¿Cómo la materia pudo escapar de dicha expansión? En el trabajo “Son muchas las cosas que no sabemos”, decía:

Según algunos estudios realizados es posible que, además, puedan existir estrellas Quarks-Gluones
Lo que realmente sucede en las estrellas normales y según su masa, es que tienen un proceso evolutivo que las estrellas normales como el Sol, al agotar su combustible nuclear de fusión, se convierten en Gigantes roja primero y en enanas blancas después, y, si la estrella tiene más de 8 masas solares se convertirán en estrella de neutrones, y, si son hiper-gigantes (hipotéticamente serían estrellas de Quarks-Gluones de materia extraña), y, muy masivas, tendríamos un Agujero Negro.

Equilibrio, estabilidad:
El resultado de dos fuerzas contrapuestas. Protón y Electrón, hombre y mujer, el día y la noche, blanco y negro, siempre dos extremos que conforman un todo equilibrado.
Todos los objetos del Universo son el resulta de fuerzas antagónicas que, al ser iguales, se equilibran y consiguen la estabilidad. Las estrellas son el mejor ejemplo: La Gravedad trata de comprimir a la estrella que, mediante la fusión tiende a expandirse y, la lucha de esas dos fuerzas crea la estabilidad.
¡Es la Unidad de la desigualdad! Dos son uno, y, todos sabemos que, un hombre solo…
¡Está en mala compañía!

El Yin y el Yang son conceptos fundamentales de la filosofía china que representan dos fuerzas opuestas pero complementarias e independientes, presentes en todo el Universo, como la noche (Yin) y el día (Yang). El Yin es lo femenino, pasivo, oscuro, frío y de la Tierra, mientras que el Yang es lo masculino, activo, luminoso, cálido y del Cielo, y el equilibrio dinámico entre ambos es esencial para la armonía, influenciando la medicina tradicional, el Feng Shui y la vida diaria.
Características Clave:
- Oposición y Complementariedad: No son entidades separadas, sino que se necesitan mutuamente para existir (no hay día sin noche).
- Interdependencia: Uno no puede existir sin el otro; son polos de una misma totalidad.
- Dualidad en Todo: Se manifiestan en fenómenos naturales (calor/frío, sol/luna), aspectos humanos (hombre/mujer) y en la energía misma.
- Equilibrio Dinámico: Están en constante flujo; cuando uno aumenta, el otro disminuye, buscando un balance natural.
- Transformación: Pueden transformarse uno en el otro (el invierno en verano) y en cada uno reside una parte del otro (el punto negro en la parte blanca, y viceversa).
Aplicaciones Prácticas:
- Medicina China: Busca el equilibrio entre las energías Yin y Yang en el cuerpo para mantener la salud y curar enfermedades.
- Feng Shui: Organiza espacios para armonizar estas energías.
- Filosofía de Vida: Entenderlos ayuda a aceptar los ciclos naturales, buscar el balance entre actividad (Yang) y descanso (Yin), y ver oportunidades dentro de los problemas.
En resumen, Yin y Yang no son solo opuestos, sino dos caras de una misma moneda cósmica, cuya interacción crea la realidad y busca un equilibrio constante.
![]()


Equilibrio = a dos fuerzas contrapuestas
Estas estructuras, podemos decir que son entidades estables que existen en el Universo. Existen porque son malabarismos estables entre fuerzas competidoras de atracción y repulsión. Por ejemplo, en el caso de un planeta, como la Tierra, hay un equilibrio entre la fuerza atractiva de la Gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e (electrón), h (constante de Planck), G (constante de gravitación) y mp (masa del protón), c (la velocidad de la luz en el vacío). Pero, ¿Qué es el Tiempo de Planck?
Tiempo de Planck:
Es el tiempo que necesita el fotón (viajando a la velocidad de la luz, c, para
moverse a través de una distancia igual a la longitud de Planck. Está dado por segundos, donde G es la constante gravitacional (6’672 59 (85) ×10-11 N m2 kg-2), ħ es la constante de Planck racionalizada (ħ = h/2π = 1’054589 × 10-34 Julios segundo) y c es la velocidad de la luz (299.792.458 m/s).
El valor del tiempo del Planck es del orden de 10-43 segundos. En la cosmología del Big Bang, hasta un tiempo (Tp) después del instante inicial, es necesaria usar una teoría cuántica de la gravedad para
describir la evolución del universo. Expresado en números corrientes que todos podamos entender, su valor es:
En forma decimal (aproximada):
0.000…0005391s (con 43 ceros después del punto decimal antes del 5). Que es el tiempo que necesita el fotón para recorrer la longitud de Planck, de 10-35 metros (veinte órdenes de magnitud menor que el tamaño de del protón de 10-15 metros). el límite de Planck es: Lp = √(Għ/c3 ≈ 1’61624 x 10-35 m.
Todo, desde
Einstein, es relativo. Depende de la pregunta que se formule y de quién nos de la respuesta.
El tiempo es la escalera con peldaños infinitos que nos llevan hasta el fin de la eternidad…
Científicos descubren que el tiempo pasaba cinco veces más despacio en el Universo inmediatamente tras el Big Bang. Los científicos han observado por primera vez el universo primitivo funcionando a cámara extremadamente lenta, desvelando uno de los misterios del universo en expansión de Einstein.
Si preguntamos ¿Qué es el tiempo?, tendríamos que ser precisos y especificar si estamos preguntando por esa dimensión temporal que no deja de fluir desde
el Big Bang y que nos acompaña a lo largo de nuestras vidas, o nos referimos al tiempo atómico, ese adoptado por el SI, cuya unidad es el segundo y se basa en las frecuencias atómicas, definida a partir de una línea espectral particular de átomo de cesio-133, o nos referimos a lo que se conoce como tiempo civil, tiempo coordinado, tiempo de crecimiento, tiempo de cruce, tiempo de integración, tiempo de relajación, tiempo dinámico o dinámico de Baricéntrico, dinámico terrestre, tiempo terrestre, tiempo de Efemérides, de huso horario, tiempo estándar, tiempo local
, tiempo luz, tiempo medio, etc, etc. Cada una de estas versiones del tiempo tiene una respuesta diferente, ya que no es lo mismo el tiempo propio que el tiempo sidéreo o el tiempo solar, o solar aparente, o solar medio, o tiempo terrestre, o tiempo universal. Como se puede ver, la respuesta dependerá de cómo hagamos la pregunta.
Lo cierto es que nos hemos esforzado en medir, lo que entendemos por tiempo, con una precisión cada vez mayor.
Lp curioso del caso es , ¡Qué no hemos conseguido saber lo que el Tiempo es!


Un acuerdo internacional sobre la definición de un segundo es de fundamental importancia en la medición del tiempo”. La duración de un segundo, (por acuerdo internacional) es la frecuencia de transición entre dos subniveles de un átomo de cesio 133. Para medir esta frecuencia, los relojes de cesio fuente miden dos veces los átomos de cesio enfriados por láser en su viaje a través de la cavidad de microondas del reloj, una vez en su camino hacia arriba y de nuevo en su camino hacia abajo.

Su error se estima en un 1 segundo en 32.000 años
El reloj de Cesio cuyo funcionamiento se basa en la diferencia de energía entre dos estados del núcleo de Cesio-133 cuando se sitúa en un campo magnético. En un tipo
, los átomos de cesio-133 son irradiados con radiación de radiofrecuencia, cuya frecuencia es elegida para corresponder a la diferencia de energía entre los dos estados. Es decir, nos valemos de un sistema complejo para determinar lo que el tiempo es basado en lo que de él nos indica la Naturaleza.
En realidad, para
todos nosotros el único tiempo que rige es el que tenemos a lo largo de nuestras vidas; los otros tiempos, son inventos del hombre para facilitar sus tareas de medida, de convivencia o de otras cuestiones técnicas o astronómicas pero, sin embargo, el tiempo es sólo uno; ese que comenzó cuando nació el universo y que finalizará cuando éste llegue a su final.
Las estrellas super-masivas:
- Masa Gigante: Su masa determina una intensa gravedad que influye sobre su entorno.
- Vida Efímera: A pesar de su tamaño, tienen una vida relativamente corta debido a la rapidez con la que consumen su combustible nuclear.
- Luminosidad Extrema: Al ser tan masivas, su emisión de luz y energía es colosal.
- Muerte Explosiva: Al final de su ciclo de vida, suelen terminar en espectaculares supernovas, dejando tras de sí un agujero negro o una estrella de neutrones.
Lo cierto es que para
las estrellas supermasivas, cuando llegan al final de su ciclo y dejan de brillar por agotamiento de su combustible nuclear, en ese preciso instante, el tiempo se agota para ella. Cuando una estrella pierde el equilibrio existente entre la energía termonuclear (que tiende a expandir la estrella) y la fuerza de gravedad (que tiende a comprimirla), al quedar sin oposición esta última, la estrella supermasiva se contrae aplastada bajo su propia masa. Queda comprimida hasta tal nivel que llega un momento que desaparece, para convertirse en un agujero negro, una singularidad, donde dejan de existir el “tiempo” y el espacio. A su alrededor nace un horizonte de sucesos, que si se traspasa se es engullido por la enorme gravedad del agujero negro.

Según todos los indicios, la Física nos dice que al llegar a la singularidad de un agujero negro, no podremos encontrar ni tiempo ni espacio. Es una región que estando en este mundo, es como si estuviera en otro, al que sólo se podrá llegar a través de la teoría tan esperada de la gravedad cuántica. Aquí, en la Singularidad, la Relatividad de Einstein llega y hace mutis por el foro.
El tiempo, de esta
manera, deja de existir en estas regiones del universo que conocemos como singularidad. El mismo Big Bang (según algunos), surgió de una singularidad de energía y densidad infinitas que explotó y se expandió para crear el tiempo, el espacio y la materia. Nosotros llegamos algunos miles de millones de años más tarde, cuando la materia evolucionó hacia los pensamientos.
El universo está formado por grandes redes de galaxias que se entrelazan de manera aleatoria. Sin embargo, hay un aspecto de este conglomerado que apenas fue descubierto a fines de los 70. Les hablo de los vacíos cósmicos, estructuras en forma de burbujas que no contienen nada en su interior y se esparcen por todo el espacio. Las mismas, al parecer, constituyen valiosas herramientas para desentrañar los misterios del universo. Te cuento cómo pueden ser útiles estos vacíos para la ciencia.
El Vacío de Boötes es una región cósmica gigantesca, con una extensión que ronda los 330 millones de años luz de diámetro, lo que lo convierte en uno de los mayores vacíos conocidos, un espacio casi desprovisto de galaxias, salvo por unas pocas docenas en una especie de filamento central, ocupando cerca del 2% del universo observable y con un origen que desafía los modelos actuales de formación del cosmos.
Esa dimensión de superficie la estudiamos y la comprobamos, hablamos de ella pero ¿La entendemos y la escenificamos en nuestras Mentes?
De ninguna manera nos hacemos una idea exacta de lo que eso supone en distancia a recorrer, y, como antes hemos hablado del equilibrio de las cosas opuestas:

Como
contraposición a estas enormes densidades de las enanas blancas, estrellas de neutrones y agujeros negros, existen regiones del espacio que contienen menos galaxias que el promedio o incluso ninguna galaxia; a estas regiones las conocemos como vacío cósmico. Han sido detectados vacíos con menos de una décima de la densidad promedio del universo en escalas de hasta
200 millones de años luz en exploraciones a gran escala. Estas regiones son a menudo esféricas. El primer gran vacío en ser detectado (imagen de arriba) fue el de Boötes en 1.981; tiene un radio de unos 180 millones de años luz y su centro se encuentra aproximadamente a 500 millones de años luz de la Vía Láctea. La existencia de grandes vacíos no es sorprendente, dada la existencia de cúmulos de galaxias y supercúmulos a escalas muy grandes.
Muchos son los misterios que nos quedan por resolver y muchos también los objetos que, estando ahí fuera aún no han sido localizados. La vastedad del inmenso Universo, hace difícil saber la realidad de todo su contenido y, necesitaremos siglos de estudio y observación para poder desvelar todos sus secretos. Creo que nunca podremos saberlo todo y que, la Naturaleza, siempre tendrá enigmas que resolver para que estemos ocupados y no podamos caer en el tedio y quedarnos sin curiosidad, ese motor que siempre nos ha movido.
Así que pudimos descubrir que existen vacíos espaciales enormes. Mientras que en estas regiones la materia es muy escasa, en una sola estrella de neutrones, si pudiéramos retirar 1 cm3 de su masa, obtendríamos una cantidad de materia increíble. Su densidad es de 1017 Kg/m3; los electrones y los protones están tan juntos que se combinan y forman neutrones que se degeneran haciendo estable la estrella de ese nombre
que, después del agujero negro, es el objeto estelar más denso del universo. Bueno, hasta que se descubran (si ocurre), la estrellas de Quarks.
![]()

En presencia de grandes masas el Espacio-tiempo se curva
Es interesante ver cómo a través de las matemáticas y la geometría, han sabido los humanos encontrar la forma
de medir el mundo y encontrar las formas del universo. Pasando por Arquímedes, Pitágoras, Newton, Gauss o Riemann (entre otros), siempre hemos tratado de buscar las respuestas de las cosas por medio de las matemáticas.
Arthur C. Clarke nos decía: “Magia es cualquier tecnología suficientemente avanzada”
Pero también es magia el hecho de que en cualquier tiempo y lugar, de manera inesperada, aparezca una persona dotada de condiciones
especiales que le permiten ver estructuras complejas matemáticas que hacen posible que la humanidad avance considerablemente a través de esos nuevos conceptos que nos permiten entrar en espacios antes cerrados, ampliando el horizonte de nuestro saber.

Recuerdo aquí uno de esos extraños casos que surgió el día 10 de Junio de 1.854 con el nacimiento de una nueva geometría: la teoría de dimensiones más altas que fue introducida cuando Georg Friedrich Bernhard Riemann dio su célebre conferencia en la facultad de la Universidad de Göttingen en Alemania. Aquello fue como abrir de golpe todas las ventanas cerradas durante 2.000 años de una lóbrega habitación que, de pronto, se ve inundada por la luz cegadora de un Sol radiante. Riemann regaló al mundo las sorprendentes propiedades del espacio multidimensional.
La nueva geometría de Riemann nos dijo como era la realidad del espacio, del Universo
Su ensayo, de profunda importancia y elegancia excepcional, “sobre las hipótesis que subyacen en los fundamentos de la geometría” derribó pilares de la geometría clásica griega, que habían resistido con éxito todos los asaltos de los escépticos durante dos milenios. La vieja geometría de Euclides, en la cual todas las figuras geométricas son de dos o tres dimensiones, se venía abajo, mientras una nueva geometría riemanniana surgía de sus ruinas. La revolución riemanniana iba a tener grandes consecuencias para
el futuro de las artes y las ciencias. En menos de tres decenios, la “misteriosa cuarta dimensión” influiría en la evolución del arte, la filosofía y la literatura en toda Europa. Antes de que hubieran pasado seis decenios a partir de la conferencia de Riemann, Einstein utilizaría la geometría riemanniana tetradimensional para
explicar la creación del universo y su evolución mediante su asombrosa teoría de la relatividad general
. Ciento treinta años después de su conferencia, los físicos utilizarían la geometría deca-dimensional para intentar unir todas las leyes del universo. El núcleo de la obra de Riemann era la comprensión de las leyes físicas mediante su simplificación al contemplarlas en espacios de más dimensiones.

El niño (Riemann), le dijo al profesor que se aburría y aprendía poco. Este le dio el libro más avanzado de matemáticas de aquellos tiempos.
A los pocos días, el profesor le preguntó:
- ¿Cómo vas con el libro?
- Ya me lo se todo, no tiene algo más avanzado.
El profesor extrañado le llevó ante el director, le contó el episodio y le hicieron un examen con los problemas más complejos.
Riemann los resolvió en muy poco tiempo y les dejo claro que había “nacido” un genio.

Todavía no sabemos el por qué, en algunas personas, las neuronas funcionan de maneta diferente, y, ven el mundo con más claridad.
Contradictoriamente, Riemann era la persona menos indicada para anunciar tan profunda y completa evolución en el pensamiento matemático y físico. Era huraño, solitario y sufría crisis nerviosas. De salud muy precaria que arruinó su vida en la miseria abyecta y la tuberculosis. Al igual que aquel otro genio, Ramanujan, murió muy joven.
Emilio Silvera Vázquez
Dic
25
¡Aquellos primeros momentos!
por Emilio Silvera ~
Clasificado en Astronomía y Astrofísica ~
Comments (0)

Todo en el Universo tiene un principio y un final y, el mismo universo tuvo que nacer y evolucionar para que hoy podamos contemplar, mediante nuestros sofisticados telescopios, un universo en expansión lleno de galaxias que contienen estrellas nuevas y viejas estrellas, muchas de ellas rodeadas de mundos que, aún no hemos podido determinar de qué criaturas estarán poblados muchos de ellos.
¡El Universo!
Antes de alrededor de un minuto y cuarenta segundos desde el comienzo del tiempo, no hay núcleos atómicos estables. El nivel de energía en el ambiente es mayor que la energía de unión nuclear. Por consiguiente, todos los núcleos que se forman, se destruyen de rápidamente.


Alrededor de un segundo desde el comienzo del tiempo, llegamos a la época de desacoplamiento de los neutrinos. Aunque en esa época el Universo era muy denso (y tan caliente como la explosión de una bomba de hidrógeno), ya ha empezado a parecer vacío a los neutrinos. Puesto que los neutrinos sólo reaccionan a la fuerza débil, que tiene un alcance extremadamente corto, pueden escapar de sus garras y volar indefinidamente sin experimentar ninguna otra interacción.
Aunque parezca mentira, al día de hoy no sabemos, a ciencia cierta, como se formaron las galaxias a pesar de la expansión de Hubble ¿Qué clase de materia estaba allí presente para generar la Gravedad que la retuvo y poder conformarlas?
Algunos postulan la existencia de una especie de redes cósmicas invisibles que generaban Gravedad. Aquella sustancia cósmica primigenia, muchos millones de años después, posibilitó el surgir de las primeras estrellas y de las primeras galaxias.
Así, emancipados, en lo sucesivo son libres de vagar por el Universo a su manera indiferente, volando a través de la mayor de la materia como sino existiese. (Diez trillones de neutrinos atravesarán sin causar daños el cerebro y el cuerpo del lector en el tiempo que le lleve leer esta frase. Y en el tiempo en que usted haya leído esta frase estarán más lejos que la Luna).
En menos de un siglo, el neutrino pasó de una partícula fantasma – propuesta en 1930 por el físico austríaco Wolfgang Pauli (1900-1958) a explicar el balance de energía en una forma de radioactividad, el llamado decaimiento beta, en una sonda capaz de escrutar el interior de estrellas y de la propia Tierra.


De esa manera, oleadas de neutrinos liberados en un segundo después del Big Bang persiste aún después, formando una radiación cósmica de fondo de neutrinos semejante a la radiación de fondo de microondas producida por el desacoplamiento de los fotones.
Si estos neutrinos “cósmicos” (como se los llama para diferenciarlos de los neutrinos liberados más tarde por las supernovas) pudiesen ser observador por un telescopio de neutrinos de alguna clase, proporcionarían una visión directa del Universo cuando sólo tenía un segundo.
A medida que retrocedemos en el tiempo, el Universo se vuelve más denso y más caliente, y el nivel de estructura que puede existir se hace cada vez más rudimentario.

Por supuesto, en ese tiempo, no hay moléculas, ni átomos, ni núcleos atómicos, y, a 10-6 (0.000001) de segundo después del comienzo del tiempo, tampoco hay neutrones ni protones. El Universo es un océano de quarks libres y otras partículas elementales.
Si nos tomamos el de contarlos, hallaremos que por cada mil millones de anti-quarks existen mil millones y un quark. La asimetría es importante. Los pocos quarks en exceso destinados a sobrevivir a la aniquilación general quark-antiquark formaran todos los átomos de materia del Universo del último día. Se desconoce el origen de la desigualdad; presumiblemente obedezca a la ruptura de una simetría materia antimateria en alguna etapa anterior.
Nos aproximamos a un tiempo en que las estructuras básicas de las leyes naturales, y no sólo las de las partículas y campos cuya conducta dictaban, cambiaron a medida que evolucionó el Universo.
La primera transición semejante se produjo en los 10-11 de segundo después del comienzo del tiempo, cuando las funciones de las fuerzas débiles y electromagnéticas se regían por una sola fuerza, la electrodébil. hay bastante energía ambiente para permitir la creación y el mantenimiento de gran de bosones w y z.
![]()

Estas partículas –las mismas cuya aparición en el acelerador del CERN verificó la teoría electrodébil– son las mediadoras intercambiables en las interacciones de fuerzas electromagnéticas y débiles, lo que las hace indistinguibles. En ese tiempo, el Universo está gobernando sólo por tres fuerzas: la gravedad, la interacción nuclear fuerte y la electrodébil.
Más atrás de ese tiempo nos quedamos en el misterio y envueltos en una gran nebulosa de ignorancia. Cada uno se despacha a su gusto para lanzar conjeturas y teorizar sobre lo que pudo haber sido. Seguramente, en el futuro, será la teoría M (de supercuerdas) la que contestará esas preguntas sin respuestas ahora.
En los 10-35 de segundo desde el comienzo del tiempo, entramos en un ámbito en el que las cósmicas son aún menos conocidas. Si las grandes teorías unificadas son correctas, se produjo una ruptura de la simetría por la que la fuerza electronuclear unificada se escindió en las fuerzas electrodébil y las fuertes. Si es correcta la teoría de la supersimetría, la transición puede haberse producido antes, había involucrado a la gravitación.
En el universo temprano la primera materia (hidrógeno y Helio) era llevada por la fuerza de gravedad a conformarse en grandes conglomerados de gas y polvo que interaccionaban, producían calor y formaron las primeras estrellas.
Elaborar una teoría totalmente unificada es tratar de comprender lo que ocurrió en ese tiempo remoto que, según los últimos estudios está situado entre 15.000 y 18.000 millones de años, cunado la perfecta simetría que, se pensaba, caracterizó el Universo, se hizo añicos para dar lugar a los simetrías rotas que hallamos a nuestro alrededor y que, nos trajo las fuerzas y constantes Universales que, paradójicamente, hicieron posible nuestra aparición para que , sea posible que, alguien como yo esté contando lo que pasó.
Pero hasta que no tengamos tal teoría no podemos esperar comprender lo que realmente ocurrió en ese Universo bebé. Los límites de nuestras conjeturas actuales cuando la edad del Universo sólo es de 10-43de segundo, nos da la única respuesta de encontrarnos ante una puerta cerrada.
Del otro lado de esa puerta está la época de Planck, un tiempo en que la atracción gravitatoria ejercida por cada partícula era comparable en intensidad a la fuerza nuclear fuerte.
La Era de Planck, la espuma cósmica
La fuerza nuclear fuerte hizo posible la existencia de los núcleos que atraían electrones para formar átomos
Así que, llegados a este punto podemos decir que la clave teórica que podría abrir esa puerta sería una teoría unificada que incluyese la gravitación, es decir, una teoría cuántica-gravitatoria que uniese, de una vez por todas, a Planck y Einstein que, aunque eran muy amigos, no parecen que sus teorías (la Mecánica Cuántica) y (la Relatividad General) se lleven de maravilla.
Emilio Silvera Vázquez
Dic
24
¿La masa perdida? ¿O no entendemos nada?
por Emilio Silvera ~
Clasificado en Astronomía y Astrofísica ~
Comments (0)

Recreación artística del WHIM en la Pared del Escultor. Fuente: NASA.
La idea de la masa perdida se introdujo porque la densidad observada de la materia en el universo está cerca del valor crítico (10-29 g/cm3). Sin embargo, hasta comienzo de los ochenta, no hubo una razón teórica firme para suponer que el universo tenía efectivamente la masa crítica. En 1981, Alan Guth, publicó la primera versión de una teoría que desde entonces se ha conocido como “universo inflacionista”. desde entonces la teoría ha sufrido cierto número de modificaciones técnicas, pero los puntos centrales no han cambiado. Lo cierto es que la idea del universo inflacionista, estableció por primera vez una fuerte presunción de que la masa del universo tenía realmente el valor crítico.

Diagrama de las tres posibles geometrías del universo: cerrado, abierto y plano, correspondiendo a valores del parámetro de densidad Ω0 mayores que, menores que o iguales a 1 respectivamente. En el universo cerrado si se viaja en línea recta se llega al mismo punto, en los otros dos no. ( Ω es lo que los cosmólogos llaman el Omega Negro, es decir, la cantidad de materia que hay en el Universo).
La predicción de Guht viene de las teorías que describen la congelación de la fuerza fuerte en el segundo 10-35 del Big Bang. Entre los muchos otros procesos en marcha en ese tiempo estaba una rápida expansión del universo, un proceso que vino a ser conocido como inflación. Es la presencia de la inflación la que nos lleva a la predicción de que el universo tiene que ser plano.


Se ha tratado de medir la Densidad Crítica del Universo para poder saber en qué clase de universo estamos y, parece que es plano.
Universo cerrado
Si Ω>1, entonces la geometría del espacio sería cerrada como la superficie de una esfera. La suma de los ángulos de un triángulo exceden 180 grados y no habría líneas paralelas. Al final, todas las líneas se encontrarían. La geometría del universo es, al menos en una escala muy grande, elíptico.
En un universo cerrado carente del efecto repulsivo de la energía oscura, la gravedad acabará por detener la expansión del universo, después de lo que empezará a contraerse hasta que toda la materia en el universo se colapse en un punto. Entonces existirá una singularidad final llamada el Big Crunch, por analogía con el Big Bang. Sin embargo, si el universo tiene una gran suma de energía oscura (como sugieren los hallazgos recientes), entonces la expansión será grande.
Universo abierto

Si Ω<1, la geometría del espacio es abierta, p.ej., negativamente curvada como la superficie de una silla de montar. Los ángulos de un triángulo suman menos de 180 grados (llamada primera fase) y las líneas paralelas no se encuentran nunca equidistantes, tienen un punto de menor distancia y otro de mayor. La geometría del universo sería hiperbólica.
Incluso sin energía oscura, un universo negativamente curvado se expandirá para siempre, con la gravedad apenas ralentizando la tasa de expansión. Con energía oscura, la expansión no sólo continúa sino que se acelera. El destino final de un universo abierto es, o la muerte térmica” o “Big Freeze” o “Big Rip”, dónde la aceleración causada por la energía oscura terminará siendo tan fuerte que aplastará completamente los efectos de las fuerzas gravitacionales, electromagnéticas y los enlaces débiles.
Universo plano

Si la densidad media del universo es exactamente igual a la densidad crítica tal que Ω=1, entonces la geometría del universo es plana: como en la geometría ecuclidiana, la suma de los ángulos de un triángulo es 180 grados y las líneas paralelas nunca se encuentran.
Sin energía oscura, un universo plano se expande para siempre pero a una tasa continuamente desacelerada: la tasa de expansión se aproxima asintóticamentre a cero. Con energía oscura, la tasa de expansión del universo es inicialmente baja, debido al efecto de la gravedad, pero finalmente se incrementa. El destino final del universo es el mismo que en un universo abierto, la muerte caliente del universo, el “Big Freeze” o el “Big Rip”. En 2005, se propuso la teoría del destino del universo Fermión-Bosón, proponiendo que gran parte del universo estaría finalmente ocupada por condensado de Bose-Einstein y la quasipartícula análoga al fermión, tal vez resultando una implosión. Muchos datos astrofísicos hasta la fecha son consistentes con un universo plano.


La teoría del Big Crunch es un punto de vista simétrico del destino final del Universo. Justo con el Big Bang empezó una expansión cosmológica, esta teoría postula que la densidad media del Universo es suficiente para parar su expansión y empezar la contracción. De ser así, se vería cómo las estrellas tienden a ultravioleta, por efecto Doppler. El resultado final es desconocido; una simple extrapolación sería que toda la materia y el espacio-tiempo en el Universo se colapsaría en una singularidad espaciotemporal adimensional, pero a estas escalas se desconocen los efectos cuánticos necesarios para ser considerados -se aconseja mirar en Gravedad-Cuántica-..
Este escenario permite que el Big Bang esté precedido inmediatamente por el Big Crunch de un Universo precedente. Si esto ocurre repetidamente, se tiene un universo oscilante. El Universo podría consistir en una secuencia infinita de Universos finitos, cada Universo finito terminando con un Big Crunch que es también el Big Bang del siguiente Universo. Teóricamente, el Universo oscilante no podría reconciliarse con la segunda ley de la termodinámica:
la entropía aumentaría de oscilación en oscilación y causaría la muerte caliente. Otras medidas sugieren que el Universo no es cerrado. Estos argumentos indujeron a los cosmólogos a abandonar el modelo del Universo oscilante. Una idea similar es adoptada por el modelo cíclico, pero esta idea evade la muerte caliente porque de una expansión de branas se diluye la entropía acumulada en el ciclo anterior.
Como podéis comprobar por todo lo anteriormente leído, siempre estamos tratando de saber en qué universo estamos y pretendemos explicar lo que pudo pasar desde aquel primer momento que no hemos podido comprender de manera exacta y científicamente autosuficiente para que sea una ley inamovible del nacimiento del universo. Simplemente hemos creado modelos que se acercan de la mejor manera a lo que pudo ser y a lo que podría ser.
Dic
20
Desvelando secretos del Universo
por Emilio Silvera ~
Clasificado en Astronomía y Astrofísica ~
Comments (0)
He podido leer en una revista especializada:
Los dos telescopios MAGIC de La Palma, de 17 metros de diámetro y construidos en fibra de carbono, analizaron un estallido de rayos gamma de un rango de energía nunca antes detectado.
:format(jpg)/f.elconfidencial.com%2Foriginal%2F06e%2Fd49%2Fa57%2F06ed49a57a52e7f37b59e0445ecc130b.jpg)
“Otra fuente de explosión gamma sin identificar observada por debajo del plano galáctico, está probablemente más allá de los límites de la Vía Láctea, su naturaleza continúa siendo un misterio.”
Los sorprendentes misterios que el Universo esconde
Queda expresada nuestra enorme ignorancia sobre los muchos secretos que el Universo nos esconde, y, sin embargo, también ha quedado claro que, cada día, desvelamos algunos de esos innumerables secretos como lo demuestran el sin fin de misiones de todo tipo que en los últimos 10 años han sido puestas en marcha hacia el espacio para saber lo que en él ocurre.
Fermi descubre dos colosales burbujas en nuestra Galaxia
El Fermi es otro proyecto que se sumará a esos otros muchos que nos facilitan datos e información valiosa para desentrañar esos misterios y tener respuestas a muchas preguntas que no han podido ser contestadas.
Fermi nos revela imágenes de las primeras observaciones y el telescopio espacial nos dirá dónde están las fuentes de rayos gamma.
GLAST captó imágenes sorprendentes Aquí su lanzamiento al Espacio
El telescopio más nuevo de la NASA, anteriormente conocido como GLAST, una vez que pasó exitosamente su verificación orbital, comenzó una misión destinada a explorar el violento e impredecible universo de los rayos gamma.
El telescopio comenzó la misión con un nuevo nombre. La NASA decidió que a GLAST se le asignara un nuevo nombre: Telescopio Espacial de Rayos Gamma Fermi, en honor al profesor Enrico Fermi (1901 – 1954), un pionero en el campo de la física de alta energía.
Enrico Fermi
Enrico Fermi fue la primera persona que sugirió la forma en la cual las partículas cósmicas podrían ser aceleradas a grandes velocidades. Su teoría proporciona los fundamentos para entender el nuevo fenómeno que su telescopio homónimo descubrirá.
Los científicos esperan que Fermi, mediante la observación de rayos gamma energéticos, descubra muchos nuevos pulsares, revele el funcionamiento de los agujeros negros súper masivos y ayude a los físicos a buscar nuevas leyes de la Naturaleza.
Nov
23
Ya podemos “viajar” desde el núcleo atómico hasta las...
por Emilio Silvera ~
Clasificado en Astronomía y Astrofísica ~
Comments (1)
Interacciones fundamentales

Existen en el Universo cuatro fuerzas fundamentales (al menos son las que hasta el momento conocemos), éstas cuatro fuerzas son las que rigen en todas las regiones del Universo y, junto a las constantes universales, hacen que el Universo sea tal como lo podemos observar. Le dan un ritmo a los objetos que lo pueblan y, ya pueden estar conformados por “materia inerte” y tratarse de seres vivos, todo responde a sus mandatos y de acuerdo a ellos se comportan.
Nada de lo que sucede en el Universo es “porque sí”, todo tiene su por qué. Nos ha costado miles de años de pensamientos, de estudios, de observaciones, de experimentos y de experiencia el llegar a conocer, en cierta medida, como funciona la Naturaleza.

Siempre nos hemos equivocado pero… ¡Nos hemos vuelto a levantar!
En un Tiempo Pasado, algunos optimistas decían: “Ya nada nuevo podemos aprender, sabemos el origen y el por qué de todas las cosas” (La cita pertenece al filósofo francés del siglo XVII, Bernard Le Bovier de Fontenelle). Aquellos pobres ilusos, en realidad, eran unos grandes ignorantes que no eran conscientes de lo mucho que nos quedaba por saber. Las preguntas siguen siendo mucho más abundantes que las respuestas.
Un famoso Presidente de la Real Sociedad de Londres, ante todos los comensales dijo: “Nunca podremos saber de qué están hechas las estrellas.”

Y en el Presente lo sabemos perfectamente
También un famoso científico de su tiempo, ante un gran gentío dijo: Nunca nada más pesado que el aire podrá volar si no es un pájaro”.
fueron pronunciada por el científico Lord Kelvin, quien sostenía que las máquinas voladoras más pesadas que el aire eran imposibles.

Poco después remontó el vuelo el avión de los hermanos Wright.
Esto nos dice que debemos ser prudentes y no negar lo que pudiera ser en un futuro, porque hoy no tengamos los medios… ¡Mañana ya veremos!
El propio Rutherford empezó a vislumbrar la respuesta a la pregunta
que arriba hacemos. Entre 1.906 y 1.908 (hace más de un siglo) realizó constantes experimentos disparando partículas alfa contra una lámina sutil de metal (como oro o platino), para analizar sus átomos. La mayor
parte de los proyectiles atravesaron la barrera sin desviarse (como balas a través de las hojas de un árbol), pero no todos.
En la placa fotográfica que le sirvió de blanco tras el metal, Rutherford descubrió varios impactos dispersos e insospechados alrededor del punto central. Comprobó que algunas partículas habían rebotado. Era como si en vez de atravesar las hojas, algunos proyectiles hubiesen chocado contra algo más sólido. Rutherford supuso que aquella “balas” habían chocado contra una especie de núcleo denso, que ocupaba sólo una parte mínima del volumen atómico y ese núcleo de intensa densidad desviaban los proyectiles que acertaban a chocar contra él. Ello ocurría en muy raras ocasiones, lo cual demostraba que los núcleos atómicos debían ser realmente ínfimos, porque un proyectil había de encontrar
por fuerza muchos millones de átomos al atravesar la lámina metálica
Era lógico suponer
, pues, que los protones constituían ese núcleo duro. Rutherford representó los protones atómicos como elementos apiñados alrededor de un minúsculo “núcleo atómico” que servía de centro (después de todo eso, hemos podido saber
que el diámetro de ese núcleo equivale a algo más de una cienmilésima del volumen total del átomo).
En 1.908 se concedió a Rutherford el premio Nobel de Química por su extraordinaria labor de investigación sobre la naturaleza de la materia. Él fue el responsable
de importantes descubrimientos que permitieron conocer la estructura de los átomos en esa primera avanzadilla.
Átomo de hidrógeno, núcleo y electrón.
Desde entonces se pueden describir con términos más concretos los átomos específicos y sus diversos comportamientos. Por ejemplo, el átomo de hidrógeno posee un solo electrón. Si se elimina, el protónrestante se asocia inmediatamente a alguna molécula vecina; y cuando el núcleo desnudo de hidrógeno no encuentra por este medio un electrón que participe, actúa como un protón (es decir, una partícula subatómica), lo cual le permite penetrar en la materia y reaccionar con otros núcleos si conserva la suficiente energía.
![]()
El helio, que posee dos electrones, no cede uno con tanta facilidad. Sus dos electrones forman
un caparazón hermético, por lo cual el átomo es inerte. No obstante, si se despoja al helio de ambos electrones, se convierte en una partícula alfa, es decir
, una partícula subatómica portadora de dos unidades de carga positiva.
Hay un tercer elemento, el litio, cuyo átomo tiene tres
electrones. Si se despoja de uno o dos, se transforma en ión, y si pierde los tres, queda reducida a un núcleo desnudo, con una carga positiva de tres unidades.
Las unidades de carga positiva en el núcleo atómico deben ser numéricamente idénticas a los electrones que contiene por norma, pues el átomo suele ser un cuerpo neutro, y esta igualdad de lo positivo con lo negativo es el equilibrio. De hecho, los números atómicos de sus elementos se basan en sus unidades de carga positiva, no en las de carga negativa, porque resulta fácil hacer variar el número
de electrones atómicos dentro de la formación
iónica, pero en cambio se encuentran grandes dificultades si se desea alterar el número de sus protones.
Apenas esbozado este esquema de la construcción atómica, surgieron nuevos enigmas. El número
de unidades con carga positiva en un núcleo no equilibró, en ningún caso, el peso nuclear ni la masa, exceptuando el caso del átomo de hidrógeno. Para citar un ejemplo, se averiguó que el núcleo de helio tenía una carga positiva dos veces mayor que la del núcleo de hidrógeno; pero como ya se sabía, su masa era cuatro veces mayor que la de este último. Y la situación empeoró progresivamente a medida que se descendía por la tabla de elementos, e incluso cuando se alcanzó el uranio, se encontró un núcleo con una masa igual a 238 protones, pero una carga que equivalía sólo a 92.
¿Cómo era posible que un núcleo que contenía cuatro protones (según se suponía el núcleo de helio) tuviera sólo dos unidades de carga positiva? Según la más simple
y primera conjetura emitida, la presencia en el núcleo de partículas cargadas negativamente y con peso despreciable neutralizaba dos unidades de carga. Como es natural, se pensó también en el electrón. Se podría componer el rompecabezas si se suponía que en núcleo de helio estaba integrado por cuatro protones y dos electronesneutralizadores, lo cual deja libre una carga positiva neta de dos, y así sucesivamente, hasta llegar al uranio, cuyo núcleo tendría, pues, 238 protones y 146 electrones, con 92 unidades libres de carga positiva. El hecho de que los núcleos radiactivos emitieran electrones (según se había comprobado ya, por ejemplo, en el caso de las partículas beta), reforzó esta idea general
. Dicha teoría prevaleció durante más de una década, hasta que por caminos indirectos, llegó una respuesta mejor como resultado de otras investigaciones.
Pero entre tanto se habían presentado algunas objeciones rigurosas contra dicha hipótesis. Por lo pronto
, si el núcleo estaba constituido esencialmente de protones, mientras que los ligeros electrones no aportaban prácticamente ninguna contribución a la masa, ¿Cómo se explicaba que las masas relativas de varios núcleos no estuvieran representadas por número
enteros? Según los pesos atómicos conocidos, el núcleo del átomo cloro, por ejemplo, tenía una masa 35’5 veces mayor que la del núcleo de hidrógeno. ¿Acaso significaba esto que contenía 35’5 protones? Ningún científico (ni entonces ni ahora) podía aceptar la existencia de medio protón.
Este singular interrogante encontró una respuesta incluso antes de solventar el problema principal
, y ello dio lugar a una interesante historia.

Los tres isótopos naturales del carbono: carbono-12 (6 protones y 6 neutrones), carbono-13 (6 protones y 7 neutrones) y carbono-14 (6 protones y 8 neutrones). En los tres casos es carbono, tiene el aspecto de carbono y se comporta químicamente como carbono, por tener seis protones (y forma parte de nuestro organismo, por ejemplo). Sin embargo, sus propiedades físicas varían. Por ejemplo, mientras que el carbono-12 y el carbono-13 son estables, el carbono-14 es inestable y radioactivo: emite radiación beta, uno de sus neutrones “extras” se transforma así en un protón y el núcleo se convierte en nitrógeno-14 (que tiene 7 protones y 7 neutrones), con el aspecto y las propiedades del nitrógeno (por tener 7 protones). Dado que la mitad de la masa del carbono-14 pasa a ser nitrógeno-14 cada 5.730 años aproximadamente (más o menos lo que llevamos de civilización humana), la presencia de este isótopo natural resulta especialmente útil para la datación precisa de objetos históricos.
Isótopos; construcción de bloques uniformes
Allá por 1.816, el físico inglés William Prout había insinuado ya que el átomo de hidrógeno debía entrar
en la constitución de todos los átomos. Con el tiempo se fueron desvelando los pesos atómicos, y la teoría de Prout quedó arrinconada, pues se comprobó que muchos elementos tenían pesos fraccionarios (para lo cual se tomó el oxígeno, tipificado al 16). El cloro, según dije antes, tiene un peso atómico aproximado de 35’5, o para ser exactos, 35’457. otros ejemplos son el antimonio, con un peso atómico de 121’75, el galio con 137’34, el boro con 10’811 y el cadmio con 112’40.

El Uranio 235 que es el único que de manera natural es apto para la fisión nuclear, es escaso, sólo el 7 por 1.000 es uranio 235, el resto
, es uranio 238 que, no es combustible nuclear y, como la madera mojada, no arde. Sin embargo, si se bombardea con neutrones lentos del uranio 235, resulta que se convierte en Plutonio 239 que sí, es combustible nuclear válido. ¡Qué no idearemos para conseguir
los objetivos!
El Uranio es muy radiactivo y si está enriquecido… ¡Ya sabemos las consecuencias!
Hacia principios de siglo se hizo una serie
de observaciones desconcertantes, que condujeron al esclarecimiento. El inglés William Crookes (el del tubo Crookes) logró disociar del uranio una sustancia cuya ínfima cantidad resultó ser mucho más radiactiva que el propio uranio. Apoyándose en su experimento, afirmó que el uranio no tenía radiactividad, y que ésta procedía exclusivamente de dicha impureza, que él denominó uranio X. Por otra parte, Henri Becquerel descubrió que el uranio purificado y ligeramente radiactivo adquiría mayor radiactividad con el tiempo, por causas desconocidas. Si se deja reposar durante algún tiempo, se podía
extraer de él repetidas veces uranio activo X. Para decirlo de otra manera, por su propia radiactividad, el uranio se convertía en el uranio X, más radiactivo aún.
Por entonces, Rutherford, a su vez, separó del torio un torio X muy radiactivo, y comprobó también que el torio seguía produciendo más torio X. Hacia aquellas fechas se sabía ya que el más famoso de los elementos radiactivos, el radio
, emitía un gas radiactivo, denominado radón. Por tanto, Rutherford y su ayudante, el químico Frederick Soddy, dedujeron que durante la emisión de sus partículas los átomos radiactivos se transformaron en otras variedades de átomos radiactivos.
El Radón, uno de los llamados gases nobles, es incoloro, inodoro e insípido, además de –para nuestro mal- radioactivo. Suele presentarse según el tipo de suelos de determinadas zonas y con la descomposición de uranio, concentrándose en la superficie y siendo “arrastrado” en y por el aire que respiramos, y es en grandes cantidades es un gas perjudicial para la salud… y que anticipa terremotos.
Varios
químicos que investigaron tales transformaciones lograron obtener un surtido muy variado de nuevas sustancias, a las que dieron nombres tales como radio
A, radio
B, mesotorio I, mesotorio II y actinio C. Luego los agruparon todos en tres series, de acuerdo con sus historiales atómicos. Una serie se originó del uranio disociado; otra del torio, y la tercera del actinio (si bien más tarde se encontró un predecesor del actinio, llamado protactinio).
En total se identificaron unos cuarenta miembros de esas series, y cada uno se distinguió por su peculiar esquema de radiación. Pero los productos
finales de las tres series fueron idénticos: en último término, todas las cadenas de sustancias conducían al mismo elemento, el plomo.
Ahora bien, esas cuarenta sustancias no podían ser, sin excepción, elementos disociados. Entre el uranio (92) y el plomo (82) había sólo diez lugares en la tabla periódica, y todos ellos, salvo dos, pertenecían a elementos conocidos.
En realidad, los químicos descubrieron que aunque las sustancias diferían entre sí por su radiactividad, algunas tenían propiedades químicas idénticas. Por ejemplo, ya en 1.907 los químicos americanos Herbert Newby McCoy y W. H. Ross descubrieron que el radio-torio (uno entre los varios productos
de la desintegración del torio) mostraba el mismo comportamiento químico que el torio, y el radio
D, el mismo que el plomo, tanto que a veces era llamado radio-plomo. De todo lo cual se infirió que tales sustancias eran en realidad variedades de mismo elemento: el radio-torio, una forma de torio; el radio-plomo, un miembro de una familia de plomos; y así sucesivamente.
En 1.913, Soddy esclareció esta idea y le dio más amplitud. Demostró que cuando un átomo emitía una partícula alfa, se transformaba en un elemento que ocupaba dos lugares más abajo en la lista de elementos, y que cuando emitía una partícula beta, ocupaba, después de su transformación, el lugar inmediatamente superior
. Con arreglo a tal norma, el radiotorio descendía en la tabla hasta el lugar del torio, y lo mismo ocurría con las sustancias denominadas uranio X y uranio Y, es decir, que los tres serían variedades del elemento 90. Así mismo, el radio D, el radio B, el torio B y el actinio B compartirían el lugar del plomo como variedades del elemento 82.
Soddy dio el nombre
de isótopos (del griego iso y topos, “el mismo lugar”) a todos los miembros de una familia de sustancias que ocupaban el mismo lugar en la tabla periódica. En 1.921 se le concedió el premio Nobel de Química.
El modelo protón–electrón del núcleo concordó perfectamente con la teoría de Soddy sobre los isótopos. Al retirar una partícula alfa de un núcleo, se reducía en dos unidades la carga positiva de dicho núcleo, exactamente lo que necesitaba para bajar dos lugares en la tabla periódica. Por otra parte, cuando el núcleo expulsaba un electrón (partícula beta), quedaba sin neutralizar un protón adicional, y ello incrementaba en una unidad la carga positiva del núcleo, lo cual era como agregar una unidad al número
atómico, y por tanto, el elemento pasaba a ocupar la posición inmediatamente superior en la tabla periódica de los elementos. ¡Maravilloso!

¿Cómo se explica que cuando el torio se descompone en radio-torio después de sufrir no una, sino tres desintegraciones, el producto siga siendo torio? Pues bien, en este proceso el átomo de torio pierde una partícula alfa, luego una partícula beta, y más tarde una segunda partícula beta. Si aceptamos la teoría sobre el bloque constitutivo de los protones, ello significa que el átomo ha perdido cuatro electrones (dos de ellos contenidos presuntamente en la partícula alfa) y cuatro protones. (La situación actual difiere bastante de este cuadro
, aunque en cierto modo, esto no afecta al resultado).
El núcleo de torio constaba inicialmente (según se suponía) de 232 protones y 142 electrones. Al haber perdido cuatro protones y otros cuatro electrones, quedaba reducido a 228 protones y 138 electrones. No obstante, conservaba todavía el número
atómico 90, es decir, el mismo de antes.
Así pues, el radiotorio, a semejanza del torio, posee 90 electrones planetarios, que giran alrededor del núcleo. Puesto que las propiedades químicas de un átomo están sujetas al número
de sus electrones planetarios, el torio y el radiotorio tienen el mismo comportamiento químico, sea cual fuere su diferencia en peso atómico (232 y 228 respectivamente).
Los isótopos de un elemento se identifican por su peso atómico, o número másico. Así, el torio corriente se denomina torio 232, y el radio-torio, torio 228. Los isótopos radiactivos del plomo se distinguen también por estas denominaciones: plomo 210 (radio D), plomo 214 (radio B), plomo 212 (torio B) y plomo 211 (actinio B).
Se descubrió que la noción de isótopo podía aplicarse indistintamente tanto a los elementos estables como a los radiactivos. Por ejemplo, se comprobó que las tres series radiactivas anteriormente mencionadas terminaban en tres formas distintas de plomo. La serie del uranio acababa en plomo 206, la del torio en plomo 208 y la del actinio en plomo 207. cada uno de estos era un isótopo estable y corriente del plomo, pero los tres plomos diferían por su peso atómico.
Mediante un dispositivo inventado por cierto ayudante de J. J. Thomson, llamado Francis William Aston, se demostró la existencia de los isótopos estables. En 1.919, Thomson, empleando la versión primitiva de aquel artilugio, demostró que el neón estaba constituido por dos variedades de átomos: una cuyo número
de masa era 20, y otra con 22. El neón 20 era el isótopo común; el neón 22 lo acompañaba en la proporción de un átomo cada diez. Más tarde se descubrió un tercer isótopo, el neón 21, cuyo porcentaje en el neón atmosférico era de un átomo por cada 400.

Entonces fue posible, al fin, razonar el peso atómico fraccionario de los elementos. El peso atómico del neón (20, 183) representaba el peso conjunto de los tres isótopos, de pesos diferentes, que integraban el elemento en su estado natural. Cada átomo individual tenía un número
másico entero, pero el promedio de sus masas (el peso atómico) era un número fraccionario.
Aston procedió a mostrar
que varios elementos estables comunes eran, en realidad, mezclas de isótopos. Descubrió que el cloro, con un peso atómico fraccionario de 35’453, estaba constituido por el cloro 35 y el cloro 37, en la proporción de cuatro a uno. En 1.922 se le otorgó el premio Nobel de Química.
Sabiendo todo lo anteriormente explicado, hemos llegado a comprender cómo parte de la Astronomía que estudia las características físicas y químicas de los cuerpos celestes, la astrofísica es la parte más importante
de la astronomía en la actualidad debido a que, al avanzar la física moderna: Efecto Doppler-Fizeau, el efecto Zeeman, las teorías cuánticas y las reacciones termonucleares aplicadas al estudio de los cuerpos celestes han permitido descubrir que el campo
magnético solar, el estudio de las radiaciones estelares y sus procesos de fusión nuclear, y determinar la velocidad radial de las estrellas, etc. La radiación electromagnética de los cuerpos celestes permite realizar análisis de los espectros que nos dicen de qué están hechas las estrellas y los demás cuerpos del espacio interestelar y, de esa manera, hemos ido conociendo la materia y sus secretos que cada vez, van siendo menos.
Emilio Silvera V.
















Totales: 84.110.991
Conectados: 31

















































