Sep
9
¡Las estrellas! Que transforman la materia
por Emilio Silvera ~
Clasificado en General ~
Comments (1)
Aquí podemos contemplar una imagen compuesta de la Supernova Kepler del Telescopio Espacial Spitzer y el Hubble con la ayuda del Observatorio de rayos X Chandra. El remanente de supernova que muestra los filamentos de plasma en que se ha convertido una estrella masiva que ha dejado por el camino algún agujero negro y muchos elementos complejos creados en las inmensas temperaturas que allí estuvieron presentes.
En las supernovas se produce la nucleosíntesis de la materia. Es decir, allí se crean nuevos elementos químicos. Ocurre principalmente debido a la nucleosínteis explosiva durante la combustión de oxígeno explosivo y la combustión del silicio. Estas reacciones de fusión crean los elementos silicio, azufre, cloro, argón, potasio, calcio, escandio, titanio, vanadio, cromo, manganeso, hierro, cobalto y níquel. Como resultado de su expulsión desde supernovas individuales, sus abundancias crecen exponencialmente en el medio interestelar. Los elementos pesados (más pesados que el níquel) son creados principalmente por un proceso de captura de neutrones conocido como proceso-R. Sin embargo, hay otros procesos que se piensa que son responsables de algunas nucleosíntesis de elementos, principalmente un proceso de captura de protones conocido como el Proceso rp y un proceso de foto-disgregación conocido como el Proceso P. Al final se sintetizan los isótopos más ligeros (pobres en neutrones) de los elementos pesados.
Diagrama del Ciclo CNO
“El ciclo CNO (carbono–nitrógeno–oxígeno), también llamado ciclo Bethe-Weizsäcker a nombre de sus descubridores, es una de las 2 reacciones nucleares de fusión por las que las estrellas convierten hidrógeno en helio, siendo la otra la cadena protón-protón. El proceso CNO fue propuesto en 1938 por Hans Bethe.”
El ciclo CNO (carbono-nitrógeno-oxígeno) es una de las 2 reacciones nucleares de fusión por las que las estrellas convierten el hidrógeno en Helio, siendo la otra la cadena protón-protón. Aunque la cadena protón-protón es más importante en las estrellas de la masa del Sol o menor, los modelos teóricos muestran que el ciclo CNO es la fuente de energía dominante en las estrellas más masivas. El proceso CNO fue propuesto en 1938 por Hans Bethe.
Modelo: 126C donde 12 es peso atómico y 6 es número de protones.
Las reacciones del ciclo CNO son:
Rama 1 (99,96% de todos las reacciones):
-
157N + 11H → 126C + 42He +4,96 MeV
El resultado neto del ciclo es la fusión de cuatro protones en una partícula alfa y dos positrones y dos neutrinos, liberando energía en forma de rayos gamma. Los núcleos de carbono, oxígeno y nitrógeno sirven como catalizadores y se regeneran en el proceso.
Fusión de elementos
Debido a las grandes cantidades de energía liberadas en una explosión de supernovas se alcanzan temperaturas mucho mayores que en las estrellas. Las temperaturas más altas para un entorno donde se forman los elementos de masa atómica mayor de 254, el californio siendo el más pesado conocido, aunque sólo se ve como elemento sintético en la Tierra. En los procesos de fusión nuclear en la nucleosíntesis estelar, el peso máximo para un elemento fusionado en que el níquel, alcanzando un isótopo con una masa atómica de 56. La fusión de elementos entre el silicio y el níquel ocurre sólo en las estrellas más grandes, que termina como explosiones de supernovas -proceso de combustión del silicio-. Un proceso de captura de neutrones conocido como el proceso-s que también ocurre durante la nucleosíntesis estelar puede crear elementos por encima del bismuto con una masa atómica de aproximadamente 209. Sin embargo, el proceso-s ocurre principalmente en estrellas de masa pequeña que evolucionan más lentamente.
No podemos completar la Tabla periódica de elementos sin acudir a las estrellas. En las estrellas pequeñas y medianas como el Sol se transmutan una serie de elementos hasta llegar al hierro donde la fusión se frena por falta de potencia energética y, el resto de elementos más pesados y complejos, están en el ámbito de las estrellas masivas que, al final de sus vidas explotan como Supernovas y riegan el espacio interestelar de otros materiales como el oro y el platino, o, el Uranio.
Una imagen del Observatorio Chandra de Rayos-X del remanente de supernova Cassiopeia A, con una impresión artística de la estrella de neutrones en el centro del remanente. El descubrimiento de una atmósfera de carbono en esta estrella de neutrones resuelve un misterio de hace una década alrededor de este objeto. Crédito: NASA/CXC/Southampton/W.Ho;NASA/CXC/M.Weiss
Durante la nucleosíntesis de supernovas, el Proceso-R (R de Rápido) crea isótopos pesados muy ricos en neutrones, que se descomponen después del evento a la primera isobara estable, creando de este modo los isótopos estables ricos en neutrones de todos los elementos pesados. Este proceso de captura de neutrones ocurre a altas densidades de neutrones con condiciones de grandes temperaturas. En el Proceso-R, los núcleos pesados son bombardeados con un gran flujo de neutrones para formar núcleos ricos en neutrones altamente inestables que rápidamente experimentan la desintegración Beta para formar núcleos más estables con un número atómico mayor y la misma masa atómica. El flujo de neutrones es increíblemente alto, unos 1022 neutrones por centímetro cuadrado por segundo.
Los primeros cálculos de un Proceso-R, muestran la evolución de los resultados calculados con respecto al tiempo, también sugieren que en el Proceso-R las abundancias son una superposición de diferentes flujos de neutrones. Las pequeñas afluencias producen el primer pico de abundancias del Proceso-R cerca del peso atómico A = 130 pero no actínidos, mientras que las grandes afluencias producen los actínidos Uranio y Torio, pero no contiene el pico de abundancia de A = 130. Estos procesos ocurren en una fracción entre un segundo y unos cuantos segundos, dependiendo de detalles. Cientos de artículos relacionados publicados han utilizado esta aproximación dependiente del tiempo. De modo interesante, la única supernova moderna cercana, la Supernova 1987A, no ha revelado enriquecimientos del Proceso-R. La idea moderna es que el Proceso-R puede ser lanzado desde algunas supernovas, pero se agota en otros como parte de los neutrones residuales de la estrella o de un agujero negro.
La famosa Supernova 1987A cuya onda expansiva al expandirse hacia el espacio interestelar creó inmensos anillos brillantes de material caliente, que fueron captados por el Hubble en todo su esplendor. No hace tanto tiempo que se observó la supernova más notable de los tiempos modernos. En febrero de 1987, la luz llegó a la Tierra procedente de una estrella que explotó en la cercana galaxia grande Nube de Magallanes. 1987a Supernova sigue siendo la supernova más cercana desde la invención del telescopio. La explosión catapultó una enorme cantidad de gas, la luz y los neutrinos en el espacio interestelar. Cuando se observó por el telescopio espacial Hubble (HST) en 1994, se descubrieron grandes anillos extraños cuyo origen sigue siendo misterioso, aunque se cree que han sido expulsados, incluso antes de la explosión principal. Observaciones más recientes del HST muestran en la inserción, sin embargo, han descubierto algo realmente predicho: la bola de fuego en expansión de la estrella en explosión.
Con el paso de los siglos, las supernovas se difuminan y van cediendo material que pierden por distintos motivos de la gravedad, vientos estelares y otros sucesos que se llevan material del remanente. Arriba podemos contemplar lo que ha quedado de la Supernova SN 1572, más conocida como la Supernova de Tycho.
TRANSURÁNIDOS, TRANSACTÍNIDOS Y MÁS ALLÁ
Los elementos químicos en el Universo hasta el Uranio son naturales, y, más allá, están los transuranidos o transuránicos que se obtienen en el laboratorio. Son los que están más allá del Uranio, el 92 de la T.P.
En el Universo se han detectado alrededor de 90 elementos químicos distintos. La abundancia de cada uno de ellos es muy diferente, el hidrógeno constituye casi el 75% de la materia atómica del Universo, de un elemento como el francio apenas si existen 30 g en toda la Tierra, de otros elementos no se conoce su existencia y se han sintetizado en el laboratorio, en algunos casos, apenas unos pocos átomos. Este capítulo lo vamos a dedicar a conocer como el hombre ha ampliado, sintetizándolos de manera artificial, el número de elementos químicos conocido hasta llegar en la actualidad al 118, de ellos 112 reconocidos y con nombre admitido por la IUPAC.
Lo cierto es que hemos podido llegar a saber cómo se forman los elementos en el Universo donde la Naturaleza se sirve de las estrellas para “fabricarlos” y en sus distintas categorías de más o menos masas, cada tipo de estrella desempeña una función esencial para que en el Universo puedan existir toda la gama de elementos que podemos conocer y que conforman la Tabla Periódica. Los más sencillos se transmutan en las estrellas pequeñas y los más complejos en las masivas y en las supernovas que se producen al final de sus vidas. Como se dice más arriba, los artificiales, los que están más allá del Uranio, son formados por el hombre en el laboratorio.
El Alquimista descubriendo el fósforo (1771) de Joseph Wright
Lejos quedan ya aquellos tiempos en el que los Alquimistas, perseguían transmutar el plomo en oro, encontrar la piedra filosofal y el elisír de la eterna juventud. Siempre hemos tenido una imaginación desbordante y, cuando no teníamos los conocimientos necesarios para explicar o conseguir aquello que queríamos y pensábamos que podíamos conseguir… ¡La Imaginación se desataba y volaba por los ilusorios campos de la Ignorancia!
Algunos piensan y se ha podido leer por ahí que:
“Un modelo propone que el origen de los elementos más pesados que el hierro no se da en las explosiones de supernova, sino en procesos en los que están involucradas las estrellas de neutrones.”
![]() |
Somos cenizas de estrellas. Muchos de los átomos que componen nuestros cuerpos estuvieron alguna vez en el interior de alguna estrella en donde las reacciones de fusión nucleares los sintetizaron. Una vez esos cuerpos estelares murieron los elementos que los componían fueron diseminados por el espacio. Parte de esa materia fue a parar a otros discos de acreción que formaron nuevas estrellas, planetas e incluso seres vivos.
El Big Bang sólo produjo hidrógeno, helio y pequeñas trazas de elementos ligeros, como el litio de nuestras baterías. Son los elementos primordiales. Las reacciones de fusión de las estrellas pueden sintetizar el resto de los elementos de la tabla periódica, pero no los de número atómico más elevado. El elemento de corte se suele colocar en el hierro, aunque esta frontera es un tanto difusa. La razón es que las reacciones de fusión para producir esos elementos más pesados no producen energía, sino que la consumen. De hecho, la mejor manera de crear esos elementos pesados es por captura de neutrones.
El caso es que, hasta ahora, se decía que esos elementos pesados, como el oro cuyo brillo tanto nos ciega, el uranio de nuestros reactores o el platino que cataliza tanta química moderna, procedían de las propias explosiones de supernovas. Todos hemos repetido esta popular hipótesis una y otra vez, pero no hay pruebas que la avalen. De hecho, las simulaciones de modelos de explosiones de supernova no confirman dicha síntesis.
Ahora, una nueva teoría, coloca el origen de estos elementos en las estrellas de neutrones. Una estrella de neutrones es el residuo que dejan algunas estrellas de gran masa una vez explotan en forma de supernova. Unas simulaciones numéricas realizadas por científicos del Max Planck han verificado que la materia eyectada en procesos en los que están involucrados estos cuerpos producen las colisiones nucleares violentas necesarias como para producir núcleos pesados y generar los elementos más pesados que el hierro.
Las estrellas de neutrones son uno de los objetos más misteriosos en el mundo de la Astronomía y, de momento, el cuerpo celeste y objeto natural del Universo más denso cuya existencia ha sido demostrada. Sin tener en cuenta los agujeros negros, claro, pues estos tienen una densidad infinita.
“Una estrella de neutrones típica tiene una masa entre 1,35 y 2,1 masas solares, con un radio correspondiente aproximado de 12 km. En cambio, el radio del Sol es de unas 60 000 veces esa cifra. Las estrellas de neutrones tienen densidades totales de 3,7×1017 a 5,9×1017 kg/m³ (de 2,6×1014 a 4,1×1014 veces la densidad del Sol), comparable con la densidad aproximada de un núcleo atómico de 3×1017 kg/m³. La densidad de una estrella de neutrones varía desde menos de 1×109 kg/m³ en la corteza, aumentando con la profundidad a más de 6×1017 u 8×1017 kg/m³ aún más adentro (más denso que un núcleo atómico). Esta densidad equivale aproximadamente a la masa de un Boeing 747 comprimido en el tamaño de un pequeño grano de arena.”
Estrellas como el Sol: Gigante roja y enana blanca
Estrellas más masivas que el Sol: El mismo proceso pero con final en estrella de neutrones.
Estrellas súper-masivas: Agujeros Negros
Todos sabemos por haberlo explicado aquí repetidas veces, como se forman las estrellas de neutrones que tiene una densidad de 1017 Kg/m3. ¡Una barbaridad! Pues bien, cuando dos de estas estrellas colisionan, se produce una inmensa explosión en la que se pueden crear materiales como el oro y el platino entre otros. Así ha resumido, un grupo de astrofísicos una investigación realizado para comprobar qué pasaba en este tipo de sucesos. De ello podemos deducir que se pueden formar nuevos materiales por procesos distintos al de la fusión nuclear en las estrellas. Sin embargo, la mayoría de los elementos están “fabricados en los hornos nucleares” y, gracias a ello, podemos nosotros estar aquí para contarlo.
Emilio Silvera V.
Sep
9
El Futuro de nuestra Sociedad y los Robots
por Emilio Silvera ~
Clasificado en General ~
Comments (1)
“Los dos equipos de robótica que hoy en día trabajan para el desarrollo de robots con más semejanza a los humanos son Hanson Robotics y Hiroshi Ishiguro Laboratories. Precisamente estas corporaciones son las que han dado vida a Sophia, el androide más avanzado con inteligencia artificial de la actualidad.”
Viendo estas imágenes puede dar un poco de miedo
Si finalmente los científicos y expertos en robótica, consiguen (como quieren), crear cerebros artificiales que puedan pensar por sí mismos, que tengan consciencia de Ser… ¡Mal nos irán las cosas!
Cada día están construyendo Robots que se asimilan más y más a los humanos. Sin embargo, estos “seres” artificiales tienen la particularidad de que son más fuertes que nosotros, no tienen enfermedades, no necesitan comer ni dormir, la radiación del Espacio exterior no les afecta… ¿Cómo podremos equipararnos a ellos?
Planetas extrasolares que los humanos nunca podrán visitar como consecuencia de que la atmósfera no es la adecuada y de que están sometidos a una intensa radiación, podrán ser visitados (sin problema alguno) por los Robots.
Todas estas escenas serán una realidad a no tardar mucho, los avances en robótica están siendo exponenciales y, cada día, se avanza en este campo en el que se busca (con buena intención), que estos “seres” artificiales nos ayuden en muchos campos que, para nosotros, resultan pesados o “imposibles”.
Asimov nos advirtió del peligro que podrían suponer estos “seres” artificiales si llegaban a tener consciencia. Se darían cuenta de la gran ventaja que tendrían sobre nosotros y, se pensarían (muy seriamente), por qué motivo nos dejarían al mando.
“Las leyes de la robótica son un conjunto de leyes, reglas o principios, que están pensados como un marco fundamental para sustentar el comportamiento de los robots diseñados para tener cierto grado de autonomía. Los robots de este grado de complejidad aún no existen, pero han sido ampliamente anticipados en la ciencia ficción, las películas, y son un tema de investigación y desarrollo activo en los campos de la robótica y la inteligencia artificial.”
Las tres leyes son:
- Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
- Un robot debe obedecer las órdenes que le den los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

En The Evitable Conflict, las máquinas generalizan la Primera Ley para significar:
- “Ninguna máquina puede dañar a la humanidad; o, por inacción, permitir que la humanidad sufra daños”.
Esto se refinó al final de Fundación y Tierra, se introdujo una ley cero, con las tres originales reescritas adecuadamente como subordinadas a ella:
- O. Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños.
Existen adaptaciones y extensiones basadas en este marco. A partir de 2011 siguen siendo un “dispositivo ficticio”

Sep
9
¿La masa perdida? ¿O no entendemos nada?
por Emilio Silvera ~
Clasificado en General ~
Comments (1)
La idea de la masa perdida se introdujo porque la densidad observada de la materia en el universo está cerca del valor crítico (10-29 g/cm3). Sin embargo, hasta comienzo de los ochenta, no hubo una razón teórica firme para suponer que el universo tenía efectivamente la masa crítica. En 1981, Alan Guth, publicó la primera versión de una teoría que desde entonces se ha conocido como “universo inflacionista”. desde entonces la teoría ha sufrido cierto número de modificaciones técnicas, pero los puntos centrales no han cambiado. Lo cierto es que la idea del universo inflacionista, estableció por primera vez una fuerte presunción de que la masa del universo tenía realmente el valor crítico.
Diagrama de las tres posibles geometrías del universo: cerrado, abierto y plano, correspondiendo a valores del parámetro de densidad Ω0 mayores que, menores que o iguales a 1 respectivamente. En el universo cerrado si se viaja en línea recta se llega al mismo punto, en los otros dos no. ( Ω es lo que los cosmólogos llaman el Omega Negro, es decir, la cantidad de materia que hay en el Universo).
La predicción de Guht viene de las teorías que describen la congelación de la fuerza fuerte en el segundo 10-35 del Big Bang. Entre los muchos otros procesos en marcha en ese tiempo estaba una rápida expansión del universo, un proceso que vino a ser conocido como inflación. Es la presencia de la inflación la que nos lleva a la predicción de que el universo tiene que ser plano.





Se ha tratado de medir la Densidad Crítica del Universo para poder saber en qué clase de universo estamos y, parece que es plano.
Universo cerrado
Si Ω>1, entonces la geometría del espacio sería cerrada como la superficie de una esfera. La suma de los ángulos de un triángulo exceden 180 grados y no habría líneas paralelas. Al final, todas las líneas se encontrarían. La geometría del universo es, al menos en una escala muy grande, elíptico.
En un universo cerrado carente del efecto repulsivo de la energía oscura, la gravedad acabará por detener la expansión del universo, después de lo que empezará a contraerse hasta que toda la materia en el universo se colapse en un punto. Entonces existirá una singularidad final llamada el Big Crunch, por analogía con el Big Bang. Sin embargo, si el universo tiene una gran suma de energía oscura (como sugieren los hallazgos recientes), entonces la expansión será grande.
Universo abierto y universo plano
Si Ω<1, la geometría del espacio es abierta, p.ej., negativamente curvada como la superficie de una silla de montar. Los ángulos de un triángulo suman menos de 180 grados (llamada primera fase) y las líneas paralelas no se encuentran nunca equidistantes, tienen un punto de menor distancia y otro de mayor. La geometría del universo sería hiperbólica.
Incluso sin energía oscura, un universo negativamente curvado se expandirá para siempre, con la gravedad apenas ralentizando la tasa de expansión. Con energía oscura, la expansión no sólo continúa sino que se acelera. El destino final de un universo abierto es, o la muerte térmica” o “Big Freeze” o “Big Rip”, dónde la aceleración causada por la energía oscura terminará siendo tan fuerte que aplastará completamente los efectos de las fuerzas gravitacionales, electromagnéticas y los enlaces débiles.
Si la densidad media del universo es exactamente igual a la densidad crítica tal que Ω=1, entonces la geometría del universo es plana: como en la geometría euclidiana, la suma de los ángulos de un triángulo es 180 grados y las líneas paralelas nunca se encuentran.
Sin energía oscura, un universo plano se expande para siempre pero a una tasa continuamente desacelerada: la tasa de expansión se aproxima asintóticamente a cero. Con energía oscura, la tasa de expansión del universo es inicialmente baja, debido al efecto de la gravedad, pero finalmente se incrementa. El destino final del universo es el mismo que en un universo abierto, la muerte caliente del universo, el “Big Freeze” o el “Big Rip”. En 2005, se propuso la teoría del destino del universo Fermión-Bosón, proponiendo que gran parte del universo estaría finalmente ocupada por condensado de Bose-Einstein y la cuasipartícula análoga al fermión, tal vez resultando una implosión. Muchos datos astrofísicos hasta la fecha son consistentes con un universo plano.

La teoría del Big Crunch es un punto de vista simétrico del destino final del Universo. Justo con el Big Bang empezó una expansión cosmológica, esta teoría postula que la densidad media del Universo es suficiente para parar su expansión y empezar la contracción. De ser así, se vería cómo las estrellas tienden a ultravioleta, por efecto Doppler. El resultado final es desconocido; una simple extrapolación sería que toda la materia y el espacio-tiempo en el Universo se colapsaría en una singularidad espaciotemporal adimensional, pero a estas escalas se desconocen los efectos cuánticos necesarios para ser considerados -se aconseja mirar en Gravedad-Cuántica-..
Este escenario permite que el Big Bang esté precedido inmediatamente por el Big Crunch de un Universo precedente. Si esto ocurre repetidamente, se tiene un universo oscilante. El Universo podría consistir en una secuencia infinita de Universos finitos, cada Universo finito terminando con un Big Crunch que es también el Big Bang del siguiente Universo. Teóricamente, el Universo oscilante no podría reconciliarse con la segunda ley de la termodinámica:
la entropía aumentaría de oscilación en oscilación y causaría la muerte caliente. Otras medidas sugieren que el Universo no es cerrado. Estos argumentos indujeron a los cosmólogos a abandonar el modelo del Universo oscilante. Una idea similar es adoptada por el modelo cíclico, pero esta idea evade la muerte caliente porque de una expansión de branas se diluye la entropía acumulada en el ciclo anterior.
Como podéis comprobar por todo lo anteriormente leído, siempre estamos tratando de saber en qué universo estamos y pretendemos explicar lo que pudo pasar desde aquel primer momento que no hemos podido comprender de manera exacta y científicamente autosuficiente para que sea una ley inamovible del nacimiento del universo. Simplemente hemos creado modelos que se acercan de la mejor manera a lo que pudo ser y a lo que podría ser.

Sep
9
La maravilla de… ¡los cuantos!
por Emilio Silvera ~
Clasificado en General ~
Comments (2)
La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos. Planck escribió un artículo de ocho páginas y el resultado fue que cambió el mundo de la física y aquella páginas fueron la semilla de la futura ¡mecánica cuántica! que, algunos años más tardes, desarrollarían físicos como Einstein (Efecto fotoeléctrico), Heisenberg (Principio de Incertidumbre), Feynman, Bhor, Schrödinger, Dirac…
La expresión radiación se refiere a la emisión continua de energía de la superficie de todos los cuerpos. Los portadores de esta energía son las ondas electromagnéticas producidas por las vibraciones de las partículas cargadas que forman parte de los átomos y moléculas de la materia. La radiación electromagnética que se produce a causa del movimiento térmico de los átomos y moléculas de la sustancia se denomina radiación térmica o de temperatura.
Ley de Planck para cuerpos a diferentes temperaturas.
Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía.
Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico o una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Acero al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:
E =
Donde E es la energía del paquete, v es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.
Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck.
El príncipe francés Louis Victor de Broglie, dándole otra vuelta a la teoría, que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta dirección del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.
Es curioso el comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Edwin Schrödinger descubrió como escribir la teoría ondulatoria de De Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar los cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de onda cuántica”.
Función de Onda
No hay duda de que la Mecánica Cuántica funciona maravillosamente bien. Sin embargo, surge una pregunta muy formal: ¿qué significan realmente esas ecuaciones?, ¿Qué es lo que están describiendo? Cuando Isaac Newton, allá por el año 1687, formuló cómo debían moverse los planetas alrededor del Sol, estaba claro para todo el mundo lo que significaban sus ecuaciones: que los planetas están siempre en una posición bien definida en el espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades con el tiempo.
Pero para los electrones todo esto es muy diferente. Su comportamiento parece estar envuelto en la bruma. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?
Niels Bohr consiguió responder a esta pregunta de forma tal que con su explicación se pudo seguir trabajando y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la “interpretación de Copenhague” de la Mecánica Cuántica. En vez de decir que el electrón se encuentra en el punto x o en el punto y, nosotros hablamos del estado del electrón. Ahora no tenemos el estado “x” o el estado “y”, sino estados “parcialmente x” o “parcialmente y. Un único electrón puede encontrarse, por lo tanto, en varios lugares simultáneamente. Precisamente lo que nos dice la Mecánica Cuántica es como cambia el estado del electrón según transcurre el tiempo.
Un “detector” es un aparato con el cual se puede determinar si una partícula está o no presente en algún lugar pero, si una partícula se encuentra con el detector su estado se verá perturbado, de manera que sólo podemos utilizarlo si no queremos estudiar la evolución posterior del estado de la partícula. Si conocemos cuál es el estado, podemos calcular la probabilidad de que el detector registre la partícula en el punto x.
Las leyes de la Mecánica Cuántica se han formulado con mucha precisión. Sabemos exactamente como calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas simultáneamente. Por ejemplo, podemos determinar la velocidad de una partícula con mucha exactitud, pero entonces no sabremos exactamente dónde se encuentra; o, a la inversa. Si una partícula tiene “espín” (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.
No es fácil explicar con sencillez de dónde viene esta incertidumbre, pero hay ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar.
¿Onda o partícula? ¡Ambas a la vez! ¿Cómo es eso?
Para que las reglas de la Mecánica Cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuanto más grande y más pesado es un objeto más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica.
Me gustaría referirme a esta exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por “holismo”, y que se podría definir como “el todo es más que la suma de las partes”.
Bien, si la Física nos ha enseñado algo, es justamente lo contrario: un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (las partículas): basta que uno sepa sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que yo entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes.
Por ejemplo, la constante de Planck, h = 6,626075…x 10 exp. -34 julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.
Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisenberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros tales como Edwin Schrödinger, siempre presentaron serias objeciones a esta interpretación.
Quizá funcione bien, pero ¿dónde está exactamente el electrón, en el punto x o en el punto y? Em pocas palabras, ¿dónde está en realidad?, ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.
Hasta hoy, muchos investigadores coinciden con la actitud pragmática de Bohr. Los libros de historia dicen que Bohr demostró que Einstein estaba equivocado. Pero no son pocos, incluyéndome a mí, los que sospechamos que a largo plazo el punto de vista de Einstein volverá: que falta algo en la interpretación de Copenhague. Las objeciones originales de Einstein pueden superarse, pero aún surgen problemas cuando uno trata de formular la mecánica cuántica para todo el Universo (donde las medidas no se pueden repetir) y cuando se trata de reconciliar las leyes de la mecánica cuántica con las de la Gravitación… ¡Infinitos!
La mecánica cuántica y sus secretos han dado lugar a grandes controversias, y la cantidad de disparates que ha sugerido es tan grande que los físicos serios ni siquiera sabrían por donde empezar a refutarlos. Algunos dicen que “la vida sobre la Tierra comenzó con un salto cuántico”, que el “libre albedrío” y la “conciencia” se deben a la mecánica cuántica: incluso fenómenos paranormales han sido descritos como efectos mecano-cuánticos.
Yo sospecho que todo esto es un intento de atribuir fenómenos “ininteligibles” a causas también “ininteligibles” (como la mecánica cuántica) dónde el resultado de cualquier cálculo es siempre una probabilidad, nunca una certeza.
Claro que, ahí están esas teorías más avanzadas y modernas que vienen abriendo los nuevos caminos de la Física y que, a mi no me cabe la menor duda, más tarde o más temprano, podrá explicar con claridad esas zonas de oscuridad que ahora tienen algunas teorías y que Einstein señalaba con acierto.
¿No es curioso que, cuando se formula la moderna Teoría M, surjan, como por encanto, las ecuaciones de Einstein de la Relatividad General? ¿Por qué están ahí? ¿Quiere eso decir que la Teoría de Einstein y la Mecánica Cuántica podrán al fin unirse en pacifico matrimonio sin que aparezcan los dichosos infinitos?
Bueno, eso será el origen de otro comentario que también, cualquier día de estos, dejaré aquí para todos ustedes.
Emilio Silvera V.
Sep
9
¿Qué habrá más allá del Modelo Estándar de la Física de Partículas?
por Emilio Silvera ~
Clasificado en General ~
Comments (1)
“Inicialmente, se presenta, de modo simplificado, el Modelo Estándar como una teoría sofisticada que identifica las partículas elementales y sus interacciones. Después, en el ámbito de esa teoría, se enfocan aspectos – el vacuo no es vacío; partículas desnudas y vestidas; materia oscura y viento oscuro; materia y antimateria; el campo y el bosón de Higgs; neutrinos oscilantes – que pueden ser motivadores desde el punto de vista de la enseñanza y del aprendizaje de la Física. Finalmente, se discute la probable superación de esa teoría por otra más completa.”

Los leptones y los quarks son fermiones, las partículas elementales que conforman la materia. Los quarks sienten la fuerza fuerte, se unen para formar partículas más complejas como protones y neutrones, y tienen cargas eléctricas fraccionarias. Los leptones, como los electrones y los neutrinos, no participan en la fuerza fuerte, solo interactúan mediante las fuerzas electromagnética y débil, y tienen cargas eléctricas enteras o son neutros.


La Física actual busca una teoría más amplia que el modelo estándar . Una teoría que dé una descripción completa, unificada y consistente de la estructura fundamental del universo. ¿Será la compleja Teoría de cuerdas, que integra también la interacción gravitatoria?
El modelo estándar es una poderosa herramienta pero no cumple todas las expectativas; no es un modelo perfecto. En primer lugar, podríamos empezar por criticar que el modelo tiene casi veinte constantes que no se pueden calcular. Desde luego, se han sugerido numerosas ideas para explicar el origen de todos estos parámetros o números inexplicables y sus valores, pero el problema de todas estas teorías es que los argumentos que dan nunca han sido enteramente convincentes. ¿Por qué se iba a preocupar la naturaleza de una fórmula mágica si en ausencia de tal fórmula no hubiera contradicciones? Lo que realmente necesitamos es algún principio fundamental nuevo, tal como el principio de la relatividad, pero no queremos abandonar todos los demás principios que ya conocemos. Ésos, después de todo, han sido enormemente útiles en el descubrimiento del modelo estándar. El mejor lugar para buscar un nuevo principio es precisamente donde se encuentran los puntos débiles de la presente teoría y, construímos máquinas como el LHC para que nos diga lo que no sabemos.
Una regla universal en la física de partículas es que para partículas con energías cada vez mayores, los efectos de las colisiones están determinados por estructuras cada vez más pequeñas en el espacio y en el tiempo. El modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aún más pequeñas. Pero existen varias razones para sospechar que sus predicciones pueden, finalmente (cuando podamos emplear más energía en un nivel más alto), resultar equivocadas.
Vistas a través del microscopio, las constantes de la naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son. Hay algo muy erróneo aquí. Desde un punto de vista matemático no hay nada que objetar, pero la credibilidad del modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas, o lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas. ¿Y por qué debería ser el modelo válido hasta aquí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables. ¿Dónde está la partícula de Higgs? ¿Cómo se esconde de nosotros el gravitón?
Parece que el Modelo estándar no admite la cuarta fuerza y tendremos que buscar más profundamente, en otras teorías que nos hablen y describan además de las partículas conocidas de otras nuevas que están por nacer y que no excluya la Gravedad. Ese es el Modelo que necesitamos para conocer mejor la Naturaleza.
Claro que las cosas no son tan sencilla y si deseamos evitar la necesidad de un delicado ajuste de las constantes de la naturaleza, creamos un nuevo problema: ¿cómo podemos modificar el modelo estándar de tal manera que el ajuste fino no sea necesario? Está claro que las modificaciones son necesarias, lo que implica que muy probablemente haya un límite más allá del cual el modelo tal como está deja de ser válido. El modelo estándar no será nada más que una aproximación matemática que hemos sido capaces de crear, de forma que todos los fenómenos que hemos observado hasta el presente están reflejados en él, pero cada vez que se pone en marcha un aparato más poderoso, tenemos que estar dispuestos a admitir que puedan ser necesarias algunas modificaciones del modelo para incluir nuevos datos que antes ignorábamos.
Más allá del modelo estándar habrá otras respuestas que nos lleven a poder hacer otras preguntas que en este momento, no sabemos ni plantear por falta de conocimientos. Si no conociéramos que los protones están formados por Quarks, ¿Cómo nos podríamos preguntar si habrá algo más allá de los Quarks?
El gobierno de Estados Unidos, después de llevar gastados miles de millones de dólares, suspendió la construcción del super-colisionador superconductor de partículas asestando un duro golpe a la física de altas energías, y se esfumó la oportunidad para obtener nuevos datos de vital importancia para el avance de este modelo, que de momento es lo mejor que tenemos.
“Esta relación del modelo estándar se consigue con bosones de Higgs elementales en dobletes electrodébiles; está verificado experimentalmente a más del 1%. Aquí, g y g′ son acoplamientos gauge SU(2) y U(1) y tanθW = g′/g define el ángulo de mezcla débil.
La importante idea de una nueva interacción fuerte de gauge de fermiones sin masa en la escala electrodébil FEW que conducen a la ruptura espontánea de su simetría quiral, de la cual un sugrupo SU(2) ⊗ U(1) es de gauge débil, fue propuesta por primera vez en 1979 por S. Weinberg and L. Susskind. Este mecanismo “technicolor” es natural ya que no necesita ajuste fino de parámetros.”
Se han estado inventando nuevas ideas, como la supersimetría y el technicolor. Los astrofísicos estarán interesados en tales ideas porque predicen una gran cantidad de nuevas partículas superpesadas, y también varios tipos de partículas que interaccionan ultra-débilmente, los technipiones. Éstas podrían ser las WIMP’s (Weakly Interacting Massive Particles, o Partículas Masivas Débilmente Interactivas) que pueblan los huecos entre las galaxias, y serían así las responsables de la masa perdida que los astrofísicos siguen buscando y llaman “materia oscura”.
Que aparezcan “cosas” nuevas y además, imaginarlas antes, no es fácil. Recordemos cómo Paul Dirac se sintió muy incómodo cuando en 1931 dedujo, a partir de su ecuación del electrón, que debería existir una partícula con carga eléctrica opuesta.
Esa partícula no había sido descubierta y le daba reparo perturbar la paz reinante en la comunidad científica con una idea tan revolucionaria, así que disfrazó un poco la noticia: “Quizá esta partícula cargada positivamente, tan extraña, sea simplemente el protón”, sugirió. Cuando poco después se identificó la auténtica antipartícula del electrón (el positrón) se sorprendió tanto que exclamó: “¡Mi ecuación es más inteligente que su inventor!”. Este último comentario es para poner un ejemplo de cómo los físicos trabajan y buscan caminos matemáticos mediante ecuaciones de las que, en cualquier momento (si están bien planteadas), surgen nuevas ideas y descubrimientos que ni se podían pensar. Así pasó también con las ecuaciones de Einstein de la relatividad general, donde Schwarzschild dedujo la existencia de los agujeros negros.
Se piensa que al principio del comienzo del tiempo, cuando surgió el Big Bang, las energías eran tan altas que allí reinaba la simetría total; sólo había una sola fuerza que todo lo englobaba. Más tarde, a medida que el universo se fue expandiendo y enfriando, surgieron las cuatro fuerzas que ahora conocemos y que todo lo rigen. Tenemos los medios, en los supercolisionadores de partículas, para viajar comenzando por 1.000 MeV, hasta finalizar en cerca de 1019 MeV, que corresponde a una escala de longitudes de aproximadamente 10–30 cm. Howard Georgi, Helen Quinn y Steven Weinberg descubrieron que ésta es la región donde las tres constantes de acoplamiento gauge se hacen iguales (U(1), SU(2) y SU(3)); resultan ser lo mismo. ¿Es una coincidencia que las tres se hagan iguales simultáneamente? ¿Es también una coincidencia que esto suceda precisamente en esa escala de longitud? Faltan sólo tres ceros más para alcanzar un punto de retorno. Howard Georgi y Sheldon Glashow descubrieron un modelo genuinamente unificado en el dominio de energías de 1019 MeV tal que, cuando se regresa de allí, espontáneamente surgen las tres fuerzas gauge tal como las conocemos. De hecho, ellos encontraron el modelo; la fórmula sería SU(5), que significa que el multiplote más pequeño debe tener cinco miembros.
Materia y Energía Oscura… Un Misterio…Sin resolver.
Y, a todo esto, ¿dónde está esa energía oculta? ¿Y donde la materia? Podemos suponer que la primera materia que se creo en el Universo fue la que llamamos (algún nom,bre había que ponerle) “Materia Oscura”, esa clase de Ilem o sustancia primera del Universo que mejor sería llamarla invisible, ya que, de no ser así, difícil sería explicar cómo se pudieron formar las primeras estrellas y galaxias de nuestro Universo, ¿Dónde está el origen de la fuerza de Gravedad que lo hizo posible, sino en esa materia escondida?
¡Lo dicho! Necesitamos saber, y, deseo que de una vez por todas, se cumpla lo que dejó dicho Hilbert en su tumba de Gotinga (Alemania): “Tenemos que saber, ¡sabremos!. Pero…
¡Que sea pronto!
Emilio Silvera V.