lunes, 15 de septiembre del 2025 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




El secreto está en las estrellas

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo dinámico    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

El Tiempo es inexorable y su transcurrir va dejando atrás las cosas que del presente, van situandose en el pasado. Lejos queda ya aquellas efemérides y celebraciones del año 2009, cuando se conmemoró el Año Internacional de la Astronomía y me cupo el honor de (humildemente), colaborar con aquellas celebraciones.

Astrolabio de al-Sahli, del siglo XI (M.A.N., Madrid). El astrolabio es un antiguo instrumento que permite determinar la posición y altura de las estrellas sobre la bóveda celeste. El astrolabio era usado por los navegantes, astrónomos y científicos en general para localizar los astros y observar su movimiento, para determinar la hora a partir de la latitud o, viceversa, para averiguar la latitud conociendo la hora. También sirve para medir distancias por triangulación.

Con orgullo luzco en el hojal de mi chaqueta el astrolabio que nos dieron en Madrid, a todos los invitados, a la fiesta de inauguración en la que estaban presentes muchos astrónomos y astrofísicos del mundo entero.

Lo cierto es que, en su momento, ya desde el inicio del año 2.009 en el que se celebró el Año Internacional de la Astronomía, en muchos de mis artículos publicados en la colaboración que con la Organización Internacioón tuve el honor de prestar, se hablaba de todos esos interesantes temas que, el universo nos presenta y que, inciden en el saber de la Naturaleza y del Mundo que nos acoge que, como nosotros… ¡También es Universo!

 

LA QUÍMICA DE LAS ESTRELLAS

Los cambios se estaban produciendo a una velocidad cada vez mayor. Al siglo de Newton también pertenecieron, entre otros, el matemático Fermat; Römer, quien midió la velocidad de la luz; Grimaldi, que estudió la difracción; Torricelli, que demostró la existencia del vacío; Pascal y Boyle, que definieron la física de los fluidos…La precisión de los telescopios y los relojes aumentó notablemente, y con ella el número de astrónomos deseosos de establecer con exactitud  la posición de las estrellas y compilar catálogos estelares cada vez más completos para comprender la Vía Láctea.

La naturaleza de los cuerpos celestes quedaba fuera de su interés: aunque se pudiera determinar la forma, la distancia, las dimensiones y los movimientos de los objetos celestes, comprender su composición no estaba a su alcance. A principios del siglo XIX, William Herschel (1738-1822), dedujo la forma de la Galaxia, construyó el mayor telescopio del mundo y descubrió Urano. Creía firmemente que el Sol estaba habitado.

     Hasta llegar a conocer nuestra situación astronómica…

Al cabo de pocos años, nacía la Astrofísica, que a diferencia de la Astronomía (ya llamada  -”clásica o de posición”-), se basaba en pruebas de laboratorio. Comparando la luz emitida por sustancias incandescentes con la recogida de las estrellas se sentaban las bases de lo imposible: descubrir la composición química y la estructura y el funcionamiento de los cuerpos celestes. Estaba mal vista por los astrónomos “serios” y se desarrolló gracias a físicos y químicos que inventaron nuevos instrumentos de análisis a partir de las demostraciones de Newton sobre la estructura de la luz.

En 1814, Joseph Fraunhofer (1787-1826) realizó observaciones básicas sobre las líneas que Wollaston había visto en el espectro solar: sumaban más de 600 y eran iguales a las de los espectros de la Luna y de los planetas; también los espectros de Póux, Capella y Porción son muy similares, mientras que los de Sirio y Cástor no lo son. Al perfeccionar el  espectroscopio con la invención de la retícula de difracción (más potente y versátil que el prisma de cristal), Fraunhofer observó en el espectro solar las dos líneas del sodio: así se inició el análisis espectral de las fuentes celestes.

Mientras, en el laboratorio, John Herschel observó por primera vez la equivalencia entre los cuerpos y las sustancias que los producen, Anders J. Anhström (1814-1868) describía el espectro de los gases incandescentes y los espectros de absorción y Jean Foucault (1819-1874) comparó los espectros de laboratorio y los de fuentes celestes. Gustav Kirchhoff (1824-1887) formalizó las observaciones en una sencilla ley que cambió la forma de estudiar el cielo; “La relación entre el poder de emisión y de absorción para una longitud de onda igual es constante en todos los cuerpos que se hallan a la misma temperatura”. En 1859, esta ley empírica, que relacionaba la exploración del cielo con la física atómica, permitía penetrar en la química y la estructura de los cuerpos celestes y las estrellas. De hecho, basta el espectro de una estrella para conocer su composición. Y, con la espectroscopia, Kirchhoff y Robert Bunsen (1811-1899) demostraron que en el Sol había muchos metales.

La observación del Sol obsesionó a la mayoría de los Astrofísicos. A veces, resultaba difícil identificar algunas líneas y ello condujo a descubrir un  nuevo elemento químico; se empezó a sospechar que el Sol poseía una temperatura mucho más elevada de lo imaginado. La línea de emisión de los espectros de estrellas y nebulosas demostraron  que casi un tercio de los objetos estudiados eran gaseosos. Además, gracias al trabajo de Johan Doppler (1803-1853) y de Armand H. Fizeau (1819-1896), que demostró que el alejamiento o el acercamiento respecto al observador de una fuente de señal sonora o luminosa provoca el aumento o disminución de la longitud de onda de dicha señal, empezó a precisarse la forma de objetos lejanos. El cielo volvía a cambiar y hasta las “estrellas fijas” se movían.

                          EL DIAGRAMA HR: EL CAMINO HACIA EL FUTURO

El padre Ángelo Secchi (1818-1878) fue el primero en afirmar que muchos espectros estelares poseen características comunes, una afirmación refrendada hoy día con abundantes datos. Secchi clasificó las estrellas en cinco tipos, en función del aspecto general de los espectros. La teoría elegida era correcta: el paso del color blanco azulado al rojo oscuro indica una progresiva disminución de la temperatura, y la temperatura es el parámetro principal que determina la apariencia de un espectro estelar.

Más tarde, otros descubrimientos permitieron avanzar en Astrofísica: Johan Balmer (1825-1898) demostró que la regularidad en las longitudes de onda de las líneas del espectro del hidrógeno podía resumirse en una sencilla expresión matemática; Pieter Zeeman (1865-1943) descubrió que un campo magnético de intensidad relativa influye en las líneas espectrales de una fuente subdividiéndolas en un número de líneas proporcional a su intensidad, parámetro que nos permite medir los campos magnéticos de las estrellas.

En otros descubrimientos empíricos la teoría surgió tras comprender la estructura del átomo, del núcleo atómico y de las partículas elementales. Los datos recogidos se acumularon hasta que la física y la química dispusieron de instrumentos suficientes para elaborar hipótesis y teorías exhaustivas.

Gracias a dichos progresos pudimos asistir a asociaciones como Faraday y su concepto de “campo” como “estado” del espacio en torno a una “fuente”; Mendeleiev y su tabla de elementos químicos; Maxwell y su teoría electromagnética;  Becquerel y su descubrimiento de la radiactividad; las investigaciones de Pierre y Marie Curie; Rutherford y Soddy y sus experimentos con los rayos Alfa, Beta y Gamma; y los estudios sobre el cuerpo negro que condujeron a Planck a determinar su constante universal; Einstein y su trabajo sobre la cuantización de la energía para explicar el efecto fotoeléctrico, Bohr y su modelo cuántico del átomo; la teoría de la relatividad especial de Einstein que relaciona la masa con la energía en una ecuación simple…Todos fueron descubrimientos que permitieron explicar la energía estelar y la vida de las estrellas, elaborar una escala de tiempos mucho más amplia de lo que jamás se había imaginado y elaborar hipótesis sobre la evolución del Universo.

En 1911, Ejnar Hertzsprung (1873-1967) realizó un gráfico en el que comparaba el “color” con las “magnitudes absolutas” de las estrellas y dedujo la relación entre ambos parámetros. En 1913, Henry Russell (1877-1957) realizó otro gráfico usando la clase espectral en lugar del color y llegó a idénticas conclusiones.

El Diagrama de Hertzsprung-Russell (diagrama HR) indica que el color, es decir, la temperatura, y el espectro están relacionados, así como el tipo espectral está ligado a la luminosidad. Y debido a que esta también depende de las dimensiones de la estrella, a partir de los espectros puede extraerse información precisa sobre las dimensiones reales de las estrellas observadas. Ya solo faltaba una explicación de causa-efecto que relacionara las observaciones entre si en un cuadro general de las leyes.

El progreso de la física y de la química resolvió esta situación, pues, entre otros avances, los cálculos del modelo atómico de Bohr reprodujeron las frecuencias de las líneas del hidrógeno de Balmer. Por fin, la Astrofísica había dado con la clave interpretativa de los espectros, y las energías de unión atómica podían explicar el origen de la radiación estelar, así como la razón de la enorme energía producida por el Sol.

Las líneas espectrales dependen del número de átomos que las generan, de la temperatura del gas, su presión, la composición química y el estado de ionización. De esta forma pueden determinarse la presencia relativa de los elementos en las atmósferas estelares, método que hoy también permite hallar diferencias químicas muy pequeñas, relacionadas con las edades de las estrellas. Así, se descubrió que la composición química de las estrellas era casi uniforme: 90 por ciento de hidrógeno y 9 por ciento de helio (en masa, 71% y 27%, respectivamente). El resto se compone de todos los elementos conocidos en la Tierra.

Así mismo, el desarrollo de la Física ha permitido perfeccionar los modelos teóricos y explicare de forma coherente que es y como funciona una estrella. Dichos modelos sugirieron nuevas observaciones con las que se descubrieron tipos de estrellas desconocidas: las novas, las supernovas, los púlsares con periodos o tiempos que separan los pulsos, muy breves…También se descubrió que las estrellas evolucionan, que se forman grupos que luego se disgregan por las fuerzas de marea galácticas.

La Radioastronomía, una nueva rama de la Astronomía, aportó más datos sobre nuestra Galaxia, permitió reconstruir la estructura de la Vía Láctea y superar los límites de la Astronomía óptica.

Se estaban abriendo nuevos campos de estudio: los cuerpos galácticos, los cúmulos globulares, las nebulosas, los movimientos de la galaxia y sus características se estudiaron con ayuda de instrumentos cada vez más sofisticados. Y cuanto más se observaba más numerosos eran los objetos desconocidos descubiertos y más profusas las preguntas. Se descubrieron nuevos y distintos tipos de galaxias fuera de la nuestra; examinando el efecto Doppler, se supo que todas se alejaban de nosotros y, lo que es más, que cuanto más lejanas están más rápidamente se alejan.

                                El Telescopio Hubble nos muestra esta imagen del Universo Profundo

Acabábamos de descubrir que el Universo no terminaba en los límites de la Vía Láctea, sino que se había ampliado hasta el “infinito”, con galaxias y objetos cada vez más extraños. Sólo en el horizonte del Hubble se contabilizan 500 millones de galaxias. Y los descubrimientos continúan: desde el centro galáctico se observa un chorro de materia que se eleva más de 3.000 a.l. perpendicular al plano galáctico; se observan objetos como Alfa Cygni, que emite una energía radial equivalente a diez millones de veces la emitida por una galaxia como Andrómeda; se estudian los cuásares, que a veces parecen mas cercanos de lo que sugieren las mediciones del efecto Doppler; se habla de efectos de perspectiva que podrían falsear las conclusiones… Y nos asalta una batería de hipótesis, observaciones, nuevas hipótesis, nuevas observaciones, dudas…

Todavía no se ha hallado una respuesta cierta y global. Un número cada vez mayor de investigadores está buscándola en miles de direcciones. De esta forma se elaboran nuevos modelos de estrellas, galaxias y objetos celestes que quizá sólo la fantasía matemática de los investigadores consiga concretar: nacen los agujeros negros, los universos de espuma, las cadenas…

Encontrsar Grafeno en el espacio ya no es una sorpresa, toparnos de bruces con océanos de metano… ¡tampoco!, hallar colonias de bacterias vivienda a muchos kilómetros de altura no es una niovedad, saber que en las estrellas se fabrican los materiales aptos para hacer posible la química de la vida… nos maravilla pero ya, no es causa de asombro. Cada día damos un paso más hacia el saber del “mundo”, de la Naturaleza, del Universo en fin.

En la actualidad, el número de investigadores centrados en problemas relacionados con la evolución estelar, la Astrofísica y las teorías cosmogenéticas es tan elevado que ya no tiene sentido hablar de uno en particular, ni de un único hilo de investigación. Al igual que ocurre con otras ramas científicas las Astronomía se ha convertido en un trabajo de equipo a escala internacional que avanza sin cesar en una concatenación de innovaciones, inventos, nuevos instrumentos, interpretaciones cada vez más elaboradas y, a menudo más difíciles de entender incluso para los investigadores que avanzan con infinidad de caminos paralelos. Es una situación que ya vaticinaba Bacon en tiempos de Galileo.

Las estrellas, como casi cualquier entidad física, siguen un proceso de nacimiento, evolución y muerte. A diferencia de nosotros, la vida de una estrella se eleva a millones o miles de millones de años dependiendo de sus masas iniciales, a mayor masa menor tiempo de vida.

Hasta la Astronomía se ha hiperespecializado y, por ejemplo, quienes estudian problemas particulares de la física de las estrellas pueden desconocerlo todo sobre planetas y galaxias. También el lenguaje es cada vez más técnico, y los términos, capaces de resumir itinerarios de investigación, son complejos de traducir al lenguaje común. Así, mientras la divulgación avanza a duras penas entre una jungla de similitudes y silogismos, las informaciones que proceden de otras disciplinas son aceptadas por los científicos y los resultados de cada cual se convierten en instrumentos para todos.

La observación del Sol obsesionó a la mayoría de los Astrofísicos. A veces, resultaba difícil identificar algunas líneas y ello condujo a descubrir un nuevo elemento químico; se empezó a sospechar que el Sol poseía una temperatura mucho más elevada de lo imaginado. La línea de emisión de los espectros de estrellas y nebulosas demostraron que casi un tercio de los objetos estudiados eran gaseosos. Además, gracias al trabajo de Johan Doppler (1803-1853) y de Armand H. Fizeau (1819-1896), que demostró que el alejamiento o el acercamiento respecto al observador de una fuente de señal sonora o luminosa provoca el aumento o disminución de la longitud de onda de dicha señal, empezó a precisarse la forma de objetos lejanos. El cielo volvía a cambiar y hasta las “estrellas fijas” se movían.

Las investigaciones sobre planetas, estrellas, materia interestelar, galaxias y Universo van paralelas, como si fueran disciplinas independientes, pero en continua osmosis. Y mientras la información sobre el Sol y los cuerpos del Sistema solar es más completa, detallada y fiable, y las hipótesis sobre nuestra Galaxia hallan confirmación, el Universo que empezamos a distinguir más allá de nuestros limites no se pareced a lo que hace un siglo se daba por sentado. Y mientras los modelos matemáticos dibujan uno o mil universos cada más abstractos y complejos, que tienen más que ver con la filosofía que con la observación, vale la pena recordar como empezó nuestro conocimiento hace miles de años.

Otros nos indicaron la dirección a seguir pero, la dureza del camino…, esa, la tuvimos que hacer nosotros. Es decir, en cada época y lugar, los que estuvieron, miraron hacia atrás para ver lo que hicieron sus ancestros y, con aquellas enseñanzas, tener la guía del camino a seguir, o, por el contrario, si los resultados no fueron biuenos, rechazarlos. Lo cierto es que, al igual que nosotros, los que vengan detrás partirán con alguna ventaja aunque tengan que hacer su propio recorrido que, ni mucho menos tienen el camino despejado y, la niebla d ela ignorancia sigue siendo espesa, auunque algo más suave que la que nosotros nos encontramos.

Ahora, amigos, después de este breve repaso por una pequeña parte de la Historia de la Astronomía, al menos tendréis una idea más cercana  del recorrido que, la Humanidad, ha tenido que realizar para conocer mejor el Universo.

Los datos aquí reseñados tienen su origen en diversas fuentes que, de aquí y de allá, han sido tomadas para recomponer un mensaje que les lleve a todos algunos mensajes de como ocurrieron los acontecimientos en el pasado para que fuera posible nuestro presente.

emilio silvera

Espaciotiempo

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

http://blog.educastur.es/galileo/files/2009/10/curvatura.jpg

           Curvatura del Espacio-Tiempo

Hay que entender que el espaciotiempo es la descripción en cuatro dimensiones del universo en la que la posición de un objeto se especifica por tres coordenadas en el espacio y una en el tiempo.

De acuerdo con la relatividad especial, no existe un tiempo absoluto que pueda ser medido con independencia del observador, de manera que eventos simultáneos para un observador ocurren en instantes diferentes vistos desde otro lugar. El tiempo puede ser medido, por tanto, de manera relativa, como lo son las posiciones en el espacio (Euclides) tridimensional, y esto puede conseguirse mediante el concepto de espaciotiempo. La trayectoria de un objeto en el espaciotiempo se denomina por el nombre de línea de universo. La relatividad general nos explica lo que es un espaciotiempo curvo con las posiciones y movimientos de las partículas de materia. La relatividad especial nos explica otras cosas, complementando así, una teoría completa y precisa de la Naturaleza del Universo.

 

Nuestra línea de universo resume toda nuestra historia, desde que nacemos hasta que morimos.  Cuanto más rápido nos movemos más se inclina la línea de Universo.  Sin embargo, la velocidad más rápida a la que podemos viajar es la velocidad de la luz.  Por consiguiente, una parte de este diagrama  espacio – temporal está “prohibida”; es decir, tendríamos que ir a mayor velocidad que la luz para entrar en esta zona prohibida por la relatividad especial de Einstein que, nos dice que nada en nuestro Universo puede viajar a velocidades superiores a C.

La curvatura del espaciotiempo es la propiedad del espaciotiempo en la que las leyes familiares de la geometría no son aplicables en regiones donde los campos gravitatorios son intensos. La relatividad general de Einstein, nos explica y demuestra que el espaciotiempo está íntimamente relacionado con la distribución de materia en el universo, y nos dice que el espacio se curva en presencia de masas considerables como planetas, estrellas o galaxias (entre otros).

 

Einstein lo dedujo en una fórmula matemática que relaciona la geometría del espaciotiempo con la distribución de masa y energía: esta fórmula se conoce como ecuación de Einstein y es el centro medular de la teoría de la relatividad general.

La equivalencia aceleración-gravitación llevó a Einstein, de forma genial, a la concepción de la fuerza de la gravedad como una curvatura del espaciotiempo. La visualización de este hecho la podemos observar en la figura: una superficie elástica (semejante al espaciotiempo) se curva bajo la acción de objetos pesados (las grandes masas, de intensos campos gravitatorios), de forma que las trayectorias (geodésicas) que pueden seguir los objetos pequeños cuando están cerca de los grandes se acercan a los mismos. Einstein formuló una ecuación que muestra el grado de curvatura del espaciotiempo en función de la cantidad de masa, relaciona masa con curvatura: materia (o energía) con deformación del espaciotiempo.

 

Así, en un espacio de sólo dos dimensiones, como una lámina de goma plana, la geometría de Euclides se aplica de manera que la suma de los ángulos internos de un triángulo en la lámina es de 180°. Si colocamos un objeto masivo sobre la lámina de goma, la lámina se distorsionará y los caminos de los objetos que se muevan sobre ella se curvaran. Esto es, en esencia, lo que ocurre en relatividad general.

En los modelos cosmológicos más sencillos basados en los modelos de Friedmann, la curvatura de espaciotiempo está relacionada simplemente con la densidad media de la materia, y se describe por una función matemática denominada métrica de Robertson-Walker. Si un universo tiene una densidad mayor que la densidad crítica, se dice que tiene curvatura positiva, queriendo decir que el espaciotiempo está curvado sobre sí mismo, como la superficie de una esfera; la suma de los ángulos de un triángulo que se dibuje sobre la esfera es entonces mayor que 180°. Dicho universo sería infinito y se expandiría para siempre, es el universo abierto. Un universo de Einstein-de Sitter tiene densidad crítica exacta y es, por consiguiente, espacialmente plano (euclideo) infinito en el espacio y en el tiempo.

  • universo de Einstein-de Sitter Wm= 1, Wl= 0
  • Universo cerrado Wm= 2, Wl= 0
  • modelo favorito actualmente con Wl= 0.75, Wm= 0.25
  •  Wl= 0, Wm= 0
  • universo de de Sitter sin Big Bang Wl= 1, Wm= 0

Representación gráfica de los espacios que dan lugar a los tres posibles formas de universo antes referida en función de la densidad crítica que hará un universo plano, un universo abierto o un universo curvo y cerrado.

Hemos mencionado antes la relatividad del tiempo que para el mismo suceso será distinto en función de quién sea el que cronometre; por ejemplo, el tiempo transcurre más despacio para el astronauta que en nave espacial viaja a velocidades próximas a c, la velocidad de la luz. Según la teoría de la relatividad especial de Einstein, en el caso antes señalado, el tiempo del astronauta viajero avanza más lentamente en un factor que denotamos con la ecuación , cuando lo mide un sistema de referencia que viaja a una velocidad v relativa al otro sistema de referencia; c es la velocidad de la luz. Este principio ha sido verificado de muchas maneras; por ejemplo, comparando las vidas medias de los muones rápidos, que aumentan con la velocidad de las partículas en una cantidad predicha en este factor de la anterior ecuación.

Un ejemplo sencillo de la dilatación del tiempo es la conocida paradoja de los gemelos. Uno viaja al espacio y el otro lo espera en la Tierra. El primero hace un viaje a la velocidad de la luz hasta Alfa de Centauri y regresa. Cuando baja de la nave espacial, tiene 8’6 años más que cuando partió de la Tierra. Sin embargo, el segundo gemelo que esperó en el planeta Tierra, al regreso de su hermano, era ya un viejo jubilado. El tiempo transcurrido había pasado más lento para el gemelo viajero.

Otra curiosidad de la relatividad especial es la que expresó Einstein mediante su famosa fórmula de E = mc2, que nos viene a decir que masa y energía son dos aspectos de una misma cosa. Podríamos considerar que la masa (materia), es energía congelada. La bomba atómica demuestra la certeza de esta ecuación.

Uno de los gráficos anteriores, que es una muestra de las tres posibles maneras en que puede estar conformado nuestro universo, dependerá finalmente, de la densidad critica, es decir, de la masa que realmente contenga el universo. Claro que, según dicen, hay por ahí una materia desconocida que denominamos “oscura” y que, al parecer, confroma la mayor parte de la materia del universo.

 

“Es un tipo de masa invisible que posee gran atracción gravitatoria. El descubrimiento lo realizó, por medios de rayos X, el laboratorio Chandra perteneciente a la NASA. (Pongamos en cuarentena lo de “descubrimiento”).

 

Los astrónomos dicen que han encontrado las mejores pruebas hasta la fecha sobre la “Materia Oscura”, la misteriosa sustancia invisible que se cree constituye la mayor parte de la masa del universo. En la imagen de arriba han querido significar, diferenciándola en colores, las dos clases de materia, la bariónica y la oscura que, en este caso, sería la azulada -según dicen-. Sin embargo, la imagen no refleja la proporción que dicen existe entre la una y la otra.

 

                En el Universo, como ocurre en los átomos, casi todo son espacios vacíos

La densidad crítica está referida a la densidad media de materia requerida para que la gravedad detenga la expansión de nuestro universo. Así que si la densidad es baja se expandirá para siempre, mientras que una densidad muy alta colapsará finalmente. Si tiene exactamente la densidad crítica ideal, de alrededor de 10-29 g/cm3, es descrito por el modelo al que antes nos referimos conocido como de Einstein-de Sitter, que se encuentra en la línea divisoria de estos dos extremos. La densidad media de materia que puede ser observada directamente en nuestro universo representa sólo el 20% del valor crítico. Puede haber, sin embargo, una gran cantidad de materia oscura que elevaría la densidad hasta el valor crítico. Las teorías de universo inflacionario predicen que la densidad presente debería ser muy aproximada a la densidad crítica; estas teorías requieren la existencia de materia oscura.

Conforme a lo antes dicho, la densidad media de materia está referida al hecho de distribuir de manera uniforme toda la materia contenida en las galaxias a lo largo de todo el universo. Aunque las estrellas y los planetas son más densos que el agua (alrededor de 1 g/cm3), la densidad media cosmológica es extremadamente baja, como se dijo antes, unos 10-29 g/cm3, o 10-5 átomos/cm3, ya que el universo está formado casi exclusivamente de espacios vacíos, virtualmente vacíos, entre las galaxias. La densidad media es la que determinará si el universo se expandirá o no para siempre.

Arriba tenemos uan visión del enorme cúmulo de galaxias Abell 2218, ubicado en la constelación de Draco a unos dos mil millones de años-luz de la Tierra.

En presencia de grandes masas de materia, tales como planetas, estrellas y galaxias y supercúmulos de galaxias, está presente el fenómeno descrito por Einstein en su teoría de la relatividad general, la curvatura del espaciotiempo, eso que conocemos como gravedad, una fuerza de atracción que actúa entre todos los cuerpos y cuya intensidad depende de las masas y de las distancias que los separan; la fuerza gravitacional disminuye con el cuadrado. La gravitación es la más débil de las cuatro fuerzas fundamentales de la naturaleza. Isaac Newton formuló las leyes de la atracción gravitacional y mostró que un cuerpo se comporta gravitacionalmente como si toda su masa estuviera concentrada en su centro de gravedad. Así, pues, la fuerza gravitacional actúa a lo largo de la línea que une los centros de gravedad de las dos masas (como la Tierra y la Luna, por ejemplo).

 http://csociales.files.wordpress.com/2009/07/tierra-y-luna4.jpg

En la teoría de la relatividad general, la gravitación se interpreta como una distorsión del espacio que se forma alrededor de la masa que provoca dicha distorsión, cuya importancia iría en función de la importancia de la masa que distorsiona el espacio que, en el caso de estrellas con gran volumen y densidad, tendrán una importancia considerable, igualmente, la fuerza de gravedad de planetas, satélites y grandes objetos cosmológicos, es importante.

Esta fuerza es la responsable de tener cohexionado a todo el universo, de hacer posible que existan las galaxias, los sistemas solares y que nosotros mismos tengamos bien asentados los pies a la superficie de nuestro planeta Tierra, cuya gravedad tira de nosotros para que así sea.

 

                    La fuerza de gravedad hace posible la cohexión del Sistema Solar

No obstante, a escala atómica la fuerza gravitacional resulta ser unos 1040 veces más débil que la fuerza de atracción electromagnética, muy potente en el ámbito de la mecánica cuántica donde las masas de las partículas son tan enormemente pequeñas que la gravedad es despreciable.

La gravitación cuántica es la teoría en la que las interacciones gravitacionales entre los cuerpos son descritas por el intercambio de partículas elementales hipotéticas denominadas gravitones. El gravitón es el cuanto del campo gravitacional. Los gravitones no han sido observados, aunque se presume que existen por analogía a los fotones de luz.

 

Tener en nuestras manos la Gravitación Cuántica, es cosa del futuro

La teoría cuántica es un ejemplo de talento que debemos al físico alemán Max Planck (1.858 – 1.947) que, en el año 1.900 para explicar la emisión de radiación de cuerpo negro de cuerpos calientes, dijo que la energía se emite en cuantos, cada uno de los cuales tiene una energía igual a hv, donde h es la constante de Planck (E = hv o ħ = h/2π) y v es la frecuencia de la radiación. Esta teoría condujo a la teoría moderna de la interacción entre materia y radiación conocida como mecánica cuántica, que generaliza y reemplaza a la mecánica clásica y a la teoría electromagnética de Maxwell.  En la teoría cuántica no relativista se supone que las partículas no son creadas ni destruidas, que se mueven despacio con respecto a la velocidad de la luz y que tienen una masa que no cambia con la velocidad. Estas suposiciones se aplican a los fenómenos atómicos y moleculares y a algunos aspectos de la física nuclear. La teoría cuántica relativista se aplica a partículas que viajan cerca de la velocidad de la luz, como por ejemplo, el fotón

De todas las maneras, los misterios cuánticos serán desvelados por nuestras mentes poderosas de la misma manera que hemos podido traspasar otras barreras del saber. Llegará ese tiempo futuro en el cual, dejará de ser un misterio esa compleja unión de la Gravedad de Eintein con la Cuántica de Planck. Claro que, como decía por alguna parte, el futuro estará cargado de nuestro presente y, si no hacemos ahora lo que debemos…mal pintarán las cosas.

emilio silvera

¿Las estrellas? Sí, son mucho más… ¡que simples puntitos...

Autor por Emilio Silvera    ~    Archivo Clasificado en Estrellas    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

La región de formación estelar S106

Es cierto que cuando vemos las cosas con cierta asiduidad y de forma permanente, esa cotidianidad nos hace perder la perspectiva y no pensamos en lo que realmente esas cosas pueden ser y, con las estrellas nos ocurre algo similar, ya que son algo más, mucho más, que simples puntitos luminosos que brillan en la oscuridad de la noche. Una estrella es una gran bola de gas luminoso que, en alguna etapa de su vida, produce energía por la fusión nuclear del hidrógeno para formar helio. El término estrella por tanto, no sólo incluye estrellas como nuestro Sol, que están en la actualidad quemando hidrógeno, sino también protoestrellas, aún no lo suficientemente calientes como para que dicha combustión haya comenzado, y varios tipos de objetos evolucionados como estrellas gigantes y supergigantes, que están quemando otros combustibles nucleares, o las enanas blancas y las estrellas nucleares, que están formadas por combustible nuclear gastado.

EtaCarinae.jpg

En esta imagen del Telescopio Espacial Hubble se pueden apreciar a la estrella Eta Carinæ y los restos de erupciones antiguas que forman la La Nebulosa del Homúnculo  alrededor de la estrella. La nebulosa fue creada por una erupción de Eta Carinae cuya luz alcanzó la Tierra en 1.843.  Eta Carinae aparece como un parche blanco en el centro de la imagen, donde los dos lóbulos de la nebulosa Homúnculo convergen. Como su masa está calculada entre las 100/150 masas solares, su propia radiación la podría destruir y, la única defensa que tiene es, la de eyectar marterial al Espacio Interestelar para descongestionarse y seguir viviendo.

Estrellas masivas que expulsan gases, ya que, cuando la masa es muy grande, su propia radiación las puede destruir y, de esta manera, descongestionan la tensión y evitan un final anticipado. Arriba teneis una estrella supermasiva que ha expulsado gases formando una nebulosa para evitar su muerte, Eta Carinae es un buen ejemplo de cómo actúan este tipo de estrellas masivas para evitar la muerte. Estas son estrellas que estám congestionadas y, sólo la expulsión de material la puede aliviar y conseguir que siga brillando como estrella evitando explotar como supernova.

Se calcula que la masa máxima de una estrella es de unas 120 masas solares, por encima de la cual sería destruida por su propia radiación. La masa mínima es de 0,08 masas solares; por debajo de ella, los objetos no serían lo suficientemente calientes en sus núcleos como para que comience la combustión del hidrógeno, y se convertirían en enanas marrones.

De la misma forma que al calentar una pieza de metal cambia de color, al principio rojo, luego amarillo hasta llegar al blanco, el color de una estrella varia según su temperatura superficial. Las estrellas más frías son las rojas, y las mas calientes las azules. Estos colores suelen percibirse a simple vista, como por ejemplo Antares (la estrella principal de Scorpius) que es de color rojo, o Rigel (en Orion) de color azul. En astronomía se utiliza la escala Kelvin para indicar temperaturas, donde el cero absoluto es -273 grados Celsius.

El Diagrama de Hertzsprung-Russell (arriba) proporcionó a los astrónomos un registro congelado de la evolución de las estrerllas, el equivalente astrofísico del registro fósil que los geólogos estudian en los estratos rocosos. Presumiblemente, las estrellas evolucinan de algún modo, pasan la mayor parte de su tiempo en la serie principal (la mayoría de las estrellas en la actualidad, en el brevísimo tiempo que tenemos para observar, se encuentran allí), pero empiezan y terminan su vida en alguna otra parte, entre las ramas o en el mantillo. Por supuesto, no podemos esperar para ver que esto sucede, pues el tiempo de vida, aún de estrellas de vida corta, se mide en millones de años. Hallar la respuesta exigirá conocer la física del funcionamiento estelar.

El progreso en física, mientras tanto, estaba bloqueado por una barrera aparentemente insuperable. Esto era literal: el agente responsable era conocido como la Barrera de Coulomb, y por un tiempo frustró los esfuerzos de los físicos teóricos para comprender cómo la fusión nuclear podía producir energía en las estrellas.

http://traslaeradeplanck.files.wordpress.com/2011/01/mosaiccintorio_martinez.jpg

La barrera de Coulomb, denominado a partir de la ley de Coulomb, nombrada así del físico Charles-Augustin de Coulomb (1736–1806), es la barrera de energía debida a la interacción electrostática que el núcleo atómico debe superar para experimentar una reacción nuclear. Esta barrera de energía es proporcionada por la energía potencial electrostática:

U_{coul} = k {{q_1\,q_2} \over r}={1 \over {4 \pi \e<a href=

donde:

k  es la constante de Coulomb = 8.9876×109 N m² C−2;
ε0  es la permeabilidad en el vacío;
q1, q2  son las cargas de las partículas que interactúan;
r  es el radio de interacción.

Un valor positivo de U es debido a una fuerza de repulsión, así que las partículas que interactúan están a mayores niveles de energía cuando se acercan. Un valor negativo de la energía potencial U indica un estado de ligadura, debido a una fuerza atractiva. La linea de razonamiento que conducía a esta barrera era impecable. Las estrellas están formadas en su mayor parte por hidrógeno. Esto se hace evidente en el estudio de sus espectros.) El núcleo del átomo de hidrógeno consiste en un sólo protón, y el protón contiene casi toda la masa del átomo. (Sabemos esto por los experimentos de Rutherford explicados aquí en otra ocasión). Por tanto, el protón también debe contener casi toda la energía latente del átomo de hidrógeno.

(Recordemos que la masa es igual a la Energía: E = mc2. (En el calor de una estrella los protones son esparcidos a altas velocidades -el calor significa que las partículas involucradas se mueven rápidamente- y, como hay muchos protones que se apiñam en el núcleo denso de una estrella, deben de tener muchísimos choques. En resumen, la energía del Sol y las estrellas, puede suponerse razonablemente, implica las interacciones de los protones. esta era la base de conjetura de Eddintong de que la fuente de la energía estelar “difícilmente puede ser otra cosa que energía subatómica, la cual, como se sabe, existe en abundancia en toda la materia”.

A ese punto, todo iba bien, la ciencia estaba cerca de identificar la fusión termonuclear como el secreto de la energía solar. Pero aquí era donde intervenía la Barrera de Coulomb. Los protones están cargados positivamente; las partículas de igual carga se repelen entre sí; y este obstáculo parecía demasiado grande  para ser superado, aun a la elevada velocidad a la que los protones se agitaban en el intenso calor del centro de las estrellas. De acuerdo con la física clásica, muy raras veces podían dos protones de una estrella ir con la rapidez suficiente para romper las murallas de sus campos de fuerza electromágnéticos y fundirse en un sólo núcleo. Los cálculos decían que la tasa de colisión de protones no podía bastar para mantener las reacciones de fusión. Sin embargo, allí estaba el Sol, con su rostro radiante y sonriente al ver el esfuerzo y las ecuaciones que decían que no podía brillar.

Dejemos aquí este proceso y digamos que, realmente, la mayoría de las veces el protón rebotará en la Barrera de Coulomb, pero de cuando en cuando la atravesará. Este es el “Efecto Túnel Cuántico”; que permite brillar a las estrellas. George Gamow, ansioso de explotar las conexiones entre la astronomía y la nueva física exótica a la que era adepto, aplicó las probabilidades cuánticas a la cuestión de la fusión nuclear en las estrellas y descubrió que los protones pueden superar la Barrera de Coulomb, o casi.

El efecto túnel cuántico se hizo cargo de los cálculos de la desalentadora predicción clásica, que establecia la fusión de los protones a sólo una milésima de la tasa necesaria para explicar la energía liberada por el Sol, y la elevó a una décima de la tasa necesaria. Luego se tardó menos de un año para dar cuenta del deficit restante: la solución fue completada en 1929, cuando Robert Atkinson y Fritz Houterman combinaron los hallazgos de Gamow con lo que se ha llamado teoría maxwelliana de la distribución de velocidades. En la distribución maxwelliana hay siempre unas pocas partículas que se mueven mucho más rápidamente que la media y, Robert Atkinson y Fritz Houterman hallaron que estas pocas partículas veloces bastqaban para compensar la diferencia. Finalmente se hizo claro como podía romperse la Barrera de Coulomb suficientemente a menudo para que la fusión nuclear se produjese en las estrellas.

Physicist Hans Bethe

Pero la figura clave en todos estos desarrollos fue Hans Bhete, un refugiado de la Alemania nazi que había estudiado con Fermi en Roma y fue a enseñar en Cornell en EE. UU. Como su amigo Gamow, el joven Bhete era un pensador efervescente y vivaz, con tanto talento que parecía hacer su trabajo como si de un juego se tratara. Aunque no preparado en Astronomía, Bhete era un estudioso de legendaria rapidez. En 1938 ayudó al discipulo de Gamow y Edward Teller, C.L. Critchfield, a calcular una reacción que empezase con la colisión de dos protones podía generar aproximadamente la energía irradiada por el Sol, 3,86 x 1033 ergios por segundo. Así, en un lapso de menos de cuarenta años, la humanidad había progresado de la ignorancia de la existencia misma de los átomos a la comprensión del proceso de fusión termonuclear primaria que suministra energía al Sol.

Pero la reacción protón. protón no era bastante energética para explicar la luminosidad muy superior de estrellas mucho más grandes que el Sol, estrellas como las supergigantes azules de las Pléyades, que ocupan las regiones más altas del diagrama de Herptzsprung-Russell. Bhete puso remedio a esto antes de que terminase aquel el año 1938.

En abril de 1938, Bhete asistió a una conferencia organizada por  Gamow y Teller que tenía el objeto de que físicos y astrónomos trabajaran juntos en la cuestión de la generación de energía en las estrellas. “Allí, los astrofísicos nos dijeron a los físicos todo que sabían sobre la constitución interna de las estrellas -recordoba Bhete-. esto era mucho (aunque) habían obtenido todos los resultados sin conocimiento de la fuente específica de energía.” De vuelta a Cornell, Bhete abordó el problema con celeridad y, en cuestión de semanas logró identificar el ciclo del Carbono, la reacción de fusión crítica que da energía a las estrellas que tiene más de una vez y media la masa del Sol.

Bhete que estaba falto de dinero, retiró el artículo que escribió sobre sus hallazgos y que ya tenía entragado en la Revista Physical Review, para entregarlo en un Concurso postulado por la Academía de Ciencias de Nueva York  sobre la producción de energía en las estrellas. Por supuesto, Bhete ganó el primer Premio uy se llevó los 500 dolares que le sirvieron para que su madre pudiera emigrar a EE UU. Después lo volvió a llevar a la Revista que lo publicó y, finalmente, se lo publicaron y tal publicación le hizo ganar el Nobel. Por un tiempo, Bhete había sido el único humano que sabía por qué brillan las estrellas.

http://bibliotecadeinvestigaciones.files.wordpress.com/2010/07/estrellas.jpg

Cuando miramos al cielo y podemos contemplar extasiados esas maravillas que ahí arriba, en el espacio interestelar están brillando, y, nos da la sensación de que están hacièndonos guiños, como si quisieran mandarnos un mensaje, decirnos algo y nosotros, no pensamos en todo lo que ahí, en esos “puntitos brillantes” se está fraguando. De lo que allí ocurre, depende que los mundos tengan los materiales que en ellos están presentes y, de entre esos materiales, se destacan aquellos que por su química biológica, permiten que se pueda formar la vida a partir de unos elementos que se hiceron en los hornos nucleares de las estrellas.

Con la excepción del Sol, las estrellas están tan lejos de nosotros que, aún mirando a través de un telescopio, aparecen como un pequeño punto de luz en el espacio. Cuando observamos las estrellas, la turbulencia en la atmósfera refracta la luz que emana de ésta en direcciones diferentes. Esto hace que las estrellas parezcan estar cambiando de iluminación y de posición, lo que le da ese efecto titilante.

Y sí, es curioso que, mirando en la oscura noche como brillan las estrellas del cielo, nos atrae su titilar engañoso (es la atmósfera terrestre la que hace que lo parezca) y su brillo, Sin embargo, pocos llegan a pensar en lo que verdaderamente está allí ocurriendo. Las transformaciones de fase por fusión no cesan. Esta transformación de materia en energía es consecuencia de la equivalencia materia-energía, enunciada por Albert Einstein en su famosa fórmula E=mc2; donde E es la energía resultante, m es la masa transformada en energía, y c es la velocidad de la luz (300 000 kilómetros por segundo). La cantidad de energía que se libera en los procesos de fusión termonuclear es fabulosa.

Un gramo de materia transformado íntegramente en energía bastaría para satisfacer los requerimientos energéticos de una familia mediana durante miles de años. Sería impensable hoy, que pudiéramos vivir en una casa sin iluminación artificial para que nos suministre toda la energía que necesitamos para las diferentes actividades que, durante la jornada desarrollamos.

Es un gran triunfo del ingenio humano el saber de qué, están confomadas las estrellas y qué materiales se están forjando allí, al inmenso calor de sus núcleos. Recuerdo aquí a aquel Presidente de la Real Society de Londres que, en una reunión multitudinaria, llegó a decir: “Una cosa está clara, nunca podremos saber de qué están hechas las estrellas”. El hombre se vistió de gloria con la, desde entonces, famosa frase. Creo que nada, con tiempo por delante, será imposible para nosotros.

El Sol se comporta prácticamente como un cuerpo negro, el cual emite energía siguiendo la ley de Planck a la temperatura media de 6.000 K. La radiación solar se distribuye desde el infrarrojo  hasta el ultravioleta. No toda la radiación alcanza la superficie de laTierra, porque las ondas ultravioletas más cortas son absorbidas por los gases de la atmósfera. La magnitud que mide la radiación solar que llega a la Tierra es la irradiancia,  que mide la potencia que por unidad de superficie alcanza a la Tierra. Su unidad es el W/m2 (vatio por metro cuadrado).

A nuestro planeta sólo llega una ínfima fracción del calor que se genera en el Sol y, sin embargo, es más que suficiente para mantener aquí la vida. El Sol tiene materia que supone la misma que tendrían 300.000 Tierras. Nuestra estrella madre está situada a una UA (150 millones de kilómetros de nosotros) y, todas esas circunstancias y otras muchas, hacen que todo sea tal como lo vemos a nuestro alrededor. Si cualquiera de esos parámetros fuera diferente o variara tan sólo unas fracciones, seguramente la Tierra sería un planeta muerto y, nosotros, no estaríamos aquí. Sin embargo… ¡Estamos! y, gracias a ello, se pueden producir descubrimientos como los que más arriba hemos relatado y han podido y pueden existir personajes de cuyas mentes surgen ideas creadoras que nos llevan a saber cómo son las cosas.

Lo cierto es que, cada día sabemos mejor como funciona ma Naturaleza que, al fin y al cabo, es la que tiene todas las respuestas que necesitamos conocer.

emilio silvera

¿El núcleo del átomo? ¡Una maravilla de la Naturaleza!

Autor por Emilio Silvera    ~    Archivo Clasificado en El núclo atómico    ~    Comentarios Comments (3)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

                   Las partículas del núcleo atómico. Protón y neutrón.


En 1920 (Rutherford) descdubrió las partículas positivas que forman los átomos, los protones

Rutherford descubrió que bombardear átomos de nitrógeno con partículas alfa ( y esto es bien sencillo ya que basta con poner la sustancia radiactiva en el aire cuyo 75 % es nitrógeno) se producían una nuevas partículas con estas características: 

Su carga eléctrica es la misma que la de los electrones, pero positiva, y su masa es semejante a la del átomo de hidrógeno (recuerda que la masa de los electrones es 1836 menor que la del átomo de hidrógeno. LLamó a estas partículas positivas protones.

Por lo tanto en los núcleos de los átomos hay unas partículas positivas que se llaman protones. En el hidrógeno solo hay una partícula ya que recordemos su masa era casi la misma.

Se comprobó que el número de protones es una característica especial de cada elemento quí­mico, ya que todos los átomos del mismo elemento tienen el mismo número de protones. Se llama nú­mero atómico (Z) al número de protones que tienen los átomos de un elemento químico. A cada elemento químico le corresponde un número atómico desde 1 hasta 106.


Todavía tenemos que buscar otras partículas en el núcleo atómico. La masa de los protones de un núcleo es mucho menor que la masa del núcleo.  

ISÓTOPOS

 

Cada elemento químico se caracteriza por el número de protones de su núcleo, que se denomina número atómico (Z). Así, el hidrógeno ( 1H) tiene un protón, el carbono ( 6C) tiene 6 protones y el oxígeno ( 8O) tiene 8 protones en el núcleo.

El número de neutrones del núcleo puede variar. Casi siempre hay tantos o más neutrones que protones. La masa atómica (A) se obtiene sumando el número de protones y de neutrones de un núcleo determinado.

Un mismo elemento químico puede estar constituído por átomos diferentes, es decir, sus números atómicos son iguales, pero el número de neutrones es distinto. Estos átomos se denominan isótopos del elemento en cuestión. Isótopos significa “mismo lugar“, es decir, que como todos los isótopos de un elemento tienen el mismo número atómico, ocupan el mismo lugar en la Tabla Periódica.

isótopos del Hidrógeno

isótopos del Carbono


Desde 1918 estaba probado que existían los isótopos. Estos, eran átomos que tenían propiedades químicas iguales (parecían elementos iguales, por tanto), tenían el mismo número atómico, pero sus masas atómicas eran di­ferentes. En el núcleo debían existir partículas neutras que contribuyeran a la masa pero no tuvieran carga eléctrica.

Estas partículas neutras del núcleo se descubrieron en 1932 y se llamaron neutrones. Chadwick consiguió detectarlas y medir su masa. Un neutrón  tiene una masa ligeramente mayor que la del protón (exactamente 1,00014 veces). Los neutrones proporcionan las fuerzas de unión que estabilizan el núcleo atómico.
Representación aproximada del átomo de Helio,  en el núcleo los protones están representados en rojo y los neutrones en azul. En la realidad el núcleo también es simétricamente esférico.
Hasta aquí tenemos una idea de las partículas que forman el núcleo atómico y de otras propiedades que en él pueden estar presentes. Sin embargo, el núcleo atómico tiene que ser visto como el corazón central del átomo que contiene la mayor parte de su masa, exactamente, el 99,9%. Digamos que el núcleo más masivo que se encuentra en la Naturaleza es el del Uranio-238 que contiene 92 protones y  146 neutrones. El núcleo más simple es el del Hidrógeno que consiste en un único protón.
Resultado de imagen de Neutrones
Hasta aquí hemos dado un repaso sobre los componentes de los núcleos atómicos y algunas de sus particularidades para saber, sobre ellos y tener una idea más exacta de cómo fueron descubiertos y que son en realidad con sus cargas y sus masas. Sin embargo, podemos seguir explicandolo de manera sencilla pero con algo más de detalles.
El tamaño de un átomo

La curiosidad acerca del tamaño y masa del átomo atrajo a cientos de científicos durante un largo período en el que la falta de instrumentos y técnicas apropiadas impidió lograr respuestas satisfactorias. Con posterioridad se diseñaron numerosos experimentos ingeniosos para determinar el tamaño y peso de los diferentes átomos.

El átomo más ligero, el de hidrógeno, tiene un diámetro de aproximadamente 10-10 m (0,0000000001 m) y una masa alrededor de 1,7 x 10-27 kg (la fracción de un kilogramo representada por 17 precedido de 26 ceros y una coma decimal).

Empecemos por decir que los átomos son muy pequeños, tan pequeños que necesitaríamos una fila de unos diez millones para poder rellenar el espacio que ocupa un milímetro, es decir, los átomos son tan pequeños que los tamaños típicos son alrededor de 100 pm (diez mil millonésima parte de un metro). Una peculiaridad del átomo es que está casi vacío, su estructura conformada por el núcleo rodeado de electrones que orbitan a su alrededor lo hace un objeto singular.
Si el átomo tuviera 10 metros de diámetro el núcleo sería un puntito diminuto central de apenas un milímetro, y, sin embargo… ¡Cuanta complejidad contiene dentro tan minúsculo objeto! Tenemos que señalar que algunos núcleos pueden ser inestable y se desintegran emitiendo partículas Alfa, con carga positiva, mientras que otros emiten partículas Beta, con carga negativa. También pueden emitir radiación Gamma.
Pero dejémos tranquilas a las partículas Alfa y Beta de las que nos ocuparemos en otra oportunidad. El tema de este pequeño trabajo es el núcleo atómico y, a él, nos dedicaremos. Nunca podré dejar de asombrarme ante los hechos mágicos que la Naturaleza es capaz de realizar. En realidad, la Naturaleza se vale de estos pequeños objetos llamados átomos para que unidos sean los responsables de conformar toda la materia que existe (al menos la conocida) estén formando cualquier objeto, grande o pequeño que podamos ver en el Universo. Desde las estrellas y los mundos hasta las inmensas galaxias, todo está conformado por átomos.
Cuando hablamos del núcleo atómico, por lo general, nos referimos a que está hecho de protones y neutrones, dos partículas que pertenecen a la familia de los Hadrones en la rama de los Bariones donde están las partículas de materia. Cuando nos referimos a ellas situadas en el núcleo atómico, las solemos llamar nucleaones.
Pero veámos que hay ahí, dentro de los nucleones (protones y neutrones).
Monografias.com
Los hadrones (protones y neutrones), a su vez, están hechos por otras partículas más pequeñas que pertenecen a la familia de los Quarks. Tanto el protón como el Neutrón están conformados por tripletes de Quarks. El protón de 2 quarks up y un quark down, mientras que el nutrón está hecho por 2 quarks down y 1 quark up.
La familia Quark

Como no es el objeto del trabao, no hablaremos hoy de los Quarks, y, simplemente diremos que en la naturaleza no se encuentran quarks aislados. Estos siempre se encuentran en grupos, llamados Hadrones. de dos o tres quarks, conocidos como mesones y bariones respectivamente. Esto es una consecuencia directa del confinamiento de color.  En el año 2003 se encontró evidencia experimental de una nueva asociación de cinco quarks, los Pentaquarks, cuya evidencia, en principio controvertida , fue demostrada gracias al Colisionador de Partículas LHC en el pasado Julio de 2.015.

 

 

Pero sigamos con lo que nos ocupa y veámos que los Quarks están confinados dentro de los nucleones (protones y neutrones) donde la fuerza fuerte les retiene y nos los deja que se vayan alejando más de lo debido como se explica en el cuadro de arriba.

 

 

 

 

Dentro del nucleo se desatan las fuerzas de la Naturaleza, la que conocemos como fuerza nuclear fuerte, la más potente de las cuatro fuerzas fundamentales que, intermediada por otras partículas de la familia de los Bosones, los Gluones, no dejan que los Quarks se alejen y son retenidos allí, dentro de los nucleones donde tienen su función de conformar los hadrones másicos del núcleo que le aporta la materia al átomo.

Los Gluones, son las partículas intermediarias de la fuerza fuerte, y, de la misma manera, existen otros Bosones encargados de mediar en las otras fuerzas conocidas de la Naturaleza: El Fotón para los fenómenos electromagnéticos, el Gravitón (no encontrado aún) para la fuerza de Gravedad, y, los W+,  Wy Zº para la fuerza nuclear débil.

 

 

 

 

 

Lo cierto es que, el núcleo atómico está cargado positivamente y, tal carga, hace la llamada para que, un enjambre de electrones, con cargas negativas, vengan a rodear el núcleo atómico y, de esa manera, queda estabilidado el átomo, ese pequeño objeto que conforma todas las cosas hechas de materia.

Así, los electrones que rodea el núcleo, con su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; una masa de solamente 1/1.836 de la del núcleo más ligero (el del hidrógeno). Y, sin embargo, la importancia del electrón es vital en el universo.

Repasando todo esto, no puedo dejar de recordar aquellas palabras que el físico Freeman Dyson escribió:

 

Cuando miramos en el universo e identificamos los muchos accidentes de la física y la astronomía que han colaborado en nuestro beneficio, casi parece que el universo debe haber sabido, en cierto sentido, que nosotros íbamos a venir“.

Fijaros en el hecho cierto de que, si la carga del electrón, o, la masa del protón, variaran aunque sólo fuese una diezmillonésima parte… ¡La vida no podría existir en el Universo! Estamos hechos de átomos y, con tal cambio, éstos nunca se habrían podido conformar.

emilio silvera.

 

La partícula que es materia y antimateria a la vez

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (4)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Un equipo de EEUU crea una exótica partícula cuya existencia se predijo hace más de 70 años

 

 

Imagen de microscopio del material observado con las nuevas partículas observadas / Princeton
El enigma Majorana

En 1937, un joven y brillante físico italiano llamado Ettore Majorana predijo la existencia de una partícula aparentemente imposible. No tenía carga y, por tanto, podía comportarse a la vez como si estuviese hecha de materia y antimateria. Hacía solo unos años que Paul Dirac, otro joven y brillante físico británico, había explicado la teoría moderna de la antimateria. Esta venía a decir que por cada elemento de materia conocida podía haber un reverso con carga opuesta hecha de antimateria. Así, un electrón tendría su positrón y un protón, su antiprotón. Cuando ambos entraban en contacto se desintegraban de forma violenta dejando escapar un estallido de radiación. La excepción era esa exótica partícula predicha por Majorana. Desde entonces, nadie ha conseguido observarla en la naturaleza. Su falta de carga haría que estas partículas, llamadas fermiones de Majorana, no interactuaran con la materia convencional con lo que serían muy difíciles de detectar. Hoy se piensa que partículas similares podrían ser las que componen la esquiva materia oscura, esa sustancia que compone el 23% del universo sin que nadie aún haya conseguido observarla de forma directa. Un año después de hacer su propuesta, como si fuese uno de sus fermiones indetectables, Ettore Majorana desapareció sin dejar rastro mientras viajaba en un barco hacia Nápoles.

Hoy, un equipo de investigadores de EEUU publica un estudio en el que demuestran haber observado fermiones de Majorana. Tal y como predijo el físico, se trata de partículas que se comportan como si estuviesen hechas de materia y antimateria al mismo tiempo y que serían a la vez una partícula y su propia antipartícula.

“Hemos tomado una imagen directa del fermión de Majorana”

 

El hallazgo no se ha hecho en un gran acelerador de partículas, como en el caso del bosón de Higgs, sino en un experimento controlado con materiales superconductores y observado con un microscopio de efecto túnel, que permite ver un material a nivel atómico. Los investigadores tomaron una finísima tira de hierro de un átomo de ancho y la enfriaron hasta rozar el cero absoluto (-273 grados). Fue entonces cuando, a cada extremo de la cadena, aparecieron los esquivos fermiones de Majorana.

“Hemos tomado una imagen directa del fermión de Majorana usando el microscopio de efecto túnel en lugar de detectar su existencia de forma indirecta”, explica a Materia Ali Yazdani, uno de los investigadores de Princeton autores del hallazgo. Sus resultados se publican hoy en la revista Science. En 2012, otro equipo europeo clamó haber observado los mismos fermiones. Pero su detección no era del todo directa y las señales observadas podían deberse a otras causas. Las nuevas pruebas “dan más más credibilidad” a la creación de partículas de Majorana, señala Llorenç Serra, del Instituto nstituto de Física Interdisciplinar y Sistemas Complejos (CSIC-UIB).

Ettore Majorana, el gran físico que desapareció misteriosamente

Pero, ¿son estas partículas realmente fermiones como los predichos por el desaparecido Majorana? Es una cuestión que enciende a los físicos que trabajan con detectores como el LHC o en grandes sensores para cazar neutrinos. Estos experimentos pueden observar partículas fundamentales naturales, producidas de forma espontánea en el universo o de forma provocada haciendo chocar protones a velocidades cercanas a la de la luz. Por el contrario, las partículas generadas en experimentos como el de Princeton deben su comportamiento a los átomos que las rodean, en este caso de hierro y plomo. No son partículas elementales sino una variante inferior que los físicos denominan “cuasipartículas”. La gran pregunta ahora es si las propiedades que se observan en estas cuasipartículas se dan también en el mundo de las partículas elementales.

Por ejemplo se piensa que el neutrino, que apenas interactúa con la materia, podría ser a la vez partícula y antipartícula. Esto explicaría cómo pudo surgir un universo como el que conocemos, pero nadie, por ahora, lo ha conseguido demostrar. Otras posibles partículas de Majorana aún no confirmadas y también esenciales para entender el universo serían los neutralinos, que compondrían la materia oscura, otro de los grandes interrogantes de la física actual.

“El hecho de que la naturaleza produzca cuasipartículas de Majorana resulta cuando menos sugestivo de que las partículas elementales que pueden serlo, como el neutrino, también lo serán”, opina Juan José Gómez-Cadenas. Este físico del CSIC dirige un experimento en Canfranc con el que pretende ser el primero en detectar a ese esquivo neutrino que es partícula y su contrario. “Da la impresión de que, también aquí se cumple la regla que dice que la naturaleza siempre opta por que si una cosa es posible, entonces va y la implementa”, resalta.

Yazdani añade que “quizás la clave del estudio sea que demostrar un concepto de forma experimental y con precisión en un sistema te puede dar confianza de que quizás esa misma idea juegue un papel en otro sistema”. Y añade “Esta política de preguntarse ‘¿por qué no? es probablemente la que inspiró a Majorana y ha sido clave en muchos hallazgos científicos”.

Después de 76 años, el destino del propio Majorana sigue siendo un misterio.”

Hasta aquí el arículo de El Pais.

Ettore Majorana (1906-¿1938?) solo publicó 10 artículos científicos, el último de ellos póstumo. Sin embargo, muchos lo comparan con Newton, con Galileo y con los grandes genios del siglo XX. Durante su vida muy pocos se dieron cuenta de su genio, salvo quizás Enrico Fermi (1901-1954), Premio Nobel de Física en 1938 por su teoría de la interacción débil, quien le dirigió la tesis de grado en 1929, y Emilio G. Segré (1905-1989), Premio Nobel de Física en 1959 por el descubrimiento del antiprotón, que fue su profesor en 1928. ¿Por qué Majorana es un mito y está considerado uno de los físicos más importantes e influyentes del siglo XX? Hay un tipo de fermiones que recibe su nombre, los fermiones de Majorana, en pie de igualdad con los fermiones de Dirac. Obviamente, solo un gran genio puede poner su nombre al lado de los de Fermi y Dirac. ¿Realmente Majorana fue uno de los padres de la física del siglo XX?

Las Matemáticas

La historia se articula fundamentalmente entorno a la relación de Ettore Majorana (1906-1938), un joven genio de las matemáticas puras, con el físico Enrico Fermi (1901 – 1954). En su primer encuentro, Fermi entra en un aula donde este joven se encuentra solo, escribiendo en una pizarra (la escena puede verse aquí). “¿Has probado tú esa solución?”, le pregunta. Ettore se vuelve ligeramente para ver a su interlocutor, y al momento sigue escribiendo, respondiendo “Fue difícil al principio, pero sólo fueron cuentas”. Fermi se sonríe con sorna (¿sólo cuentas?), y le pregunta sobre el tiempo que le llevó resolverlo. “Es verdad que me ha llevado bastante. Estuve toda una noche”, responde el joven. Fermi, con un tono un poco más severo, responde: “A nosotros nos llevó una semana. Y éramos tres”. A continuación le pregunta por sus intereses como estudiante. Hace ingeniería, aunque afirma no apasionarle demasiado, y explica cómo ve las cosas:

En realidad me gustan las matemáticas, pero me fastidia que todo el mundo se aproveche de ellas. Físicos, ingenieros, generales de artillería… El esfuerzo de resolver un problema debería bastar por sí mismo – un cálculo perfecto debería ser inmediatamente destruido.

El enigma Majorana

En ese instante, después de volver a echar un vistazo a la pizarra, Fermi comienza a borrarla. “¿Qué hace?”, le pregunta Ettore. “Destruyo un cálculo perfecto”, responde. Entonces Fermi le ofrece un libro, y le pide que elija lo que quiera. Ettore abre por una página al azar, y se lo devuelve. “No es fácil”, responde, pero claro, para eso es el gran Enrico Fermi, no le queda más remedio que resolver el ejercicio en cuestión, que resulta ser una integral definida. La escribe. Es la siguiente:

El enigma Majorana

Mientras Fermi escribe y llena la pizarra de cuentas, Ettore se sienta de espaldas a él sobre la tarima, y escribe en una pequeña libreta (del tamaño de los post-it, aproximadamente). Cuando la cámara muestra lo que ha escrito, mientras Fermi sigue llenando el encerado, vemos la integral, a continuación x = 2cosht, y directamente la expresión de una primitiva (ver la imagen):

El enigma Majorana

y mentalmente, como en otros momentos de la película, pensativo, acaba escribiendo el resultado: 1,21. Ha terminado mucho antes que Fermi, que sigue llenando la pizarra. Sonríe.

El enigma Majorana

Al poco, Fermi termina y exclama “¡Ya está hecho!” Y recuadra la solución, 1,21. Vemos la pizarra en la imagen, tal y como la haría cualquiera (cualquiera que sepa, por supuesto, que un cambio de variable posible para eliminar la raíz cuadrada es trigonométrico; recuérdense para deducir si necesitamos una razón circular o hiperbólica las identidades sen2x + cos2x = 1, o cosh2xsenh2x = 1). Fermi utiliza el teorema del cambio de variable, etc., etc. Entonces Ettore le lanza el cuadernillo para que compruebe cómo llegó a la misma solución en menor tiempo y necesitando menos espacio.

Si uno se toma la molestia de hacer el cálculo (es pesado, pero “non è difficile”, es un ejercicio de primero de ingeniería; perdón, de grado en ingeniería, aunque tal y como se han pensado estos nuevos estudios (que toman su nombre de una ciudad italiana, precisamente), probablemente ya no la haga nadie, y en el mejor de los casos, se la encomienden al ordenador), comprobará que el resultado de la primitiva (al menos el que me sale a mí) es:

El enigma Majorana ,

que en realidad vale 1.205234942 (y esto último sí lo he hecho con el ordenador). Hay un error en el argumento de la arcotangente, y no sabemos quien es esa misteriosa γ, que por más vueltas que le he dado, no se me ha ocurrido. Pero desde luego, pensando en cómo el cine representa las matemáticas, nada que ver con la integral trivialona de la película española comentada el mes pasado.

Adelanto hacia la computación cuántica

Más allá de los misterios del cosmos, la investigación en este campo tiene otra posible aplicación en el terreno de la computación cuántica. Esta disciplina pretende generar ordenadores millones de veces más potentes que los actuales aprovechando las propiedades cuánticas de ciertas partículas. El hecho de que los fermiones generados sean duales, a la vez materia y antimateria, les da una sorprendente estabilidad respecto a su entorno, lo que podría ayudar a usarlos para componer bits cuánticos más manejables que los que actualmente se diseñan basados en electrones, según una nota de prensa difundida por Princeton. “Son unos experimentos muy sólidos, que dan más credibilidad a que la física de partículas Majorana aparece en los sistemas de materia condensada”, opina Llorenç Serra, que investiga los efectos cuánticos de ciertos materiales en el Instituto nstituto de Física Interdisciplinar y Sistemas Complejos (CSIC-UIB). Serra coincide en que el tipo de materiales usados en este estudio, cadenas de hierro superconductoras, tienen potencial para mejorar la computación cuántica. “La gran ventaja que tienen”, dice, es que los fermiones de Majorana “están deslocalizados en los dos extremos del cable”. Esto, dice, “les hace robustos y un estado cuantico robusto frente a pérdidas de coherencia es imprescindible para un ordenador cuantico”.

Publica: emilio silvera