Dic
11
Velocidades inimaginables
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (1)

En el centro del átomo se encuentra un pequeño grano compacto aproximadamente 100.000 veces más pequeño que el propio átomo: el núcleo atómico. Su masa, e incluso más aún su carga eléctrica, determinan las propiedades del átomo del cual forma parte. Debido a la solidez del núcleo parece que los átomos, que dan forma a nuestro mundo cotidiano, son intercambiables entre sí, e incluso cuando interaccionan entre ellos para formar sustancias químicas (los elementos). Pero el núcleo, a pesar de ser tan sólido, puede partirse. Si dos átomos chocan uno contra el otro con gran velocidad podría suceder que los núcleos llegaran a chocar entre sí y entonces, o bien se rompen en trozos, o se funden liberando en el proceso partículas subnucleares. La nueva física de la primera mitad del siglo XX estuvo dominada por los nuevos acertijos que estas partículas planteaban.

Pero tenemos la mecánica cuántica; ¿es que no es aplicable siempre?, ¿cuál es la dificultad? Desde luego, la mecánica cuántica es válida para las partículas subatómicas, pero hay más que eso. Las fuerzas con que estas partículas interaccionan y que mantienen el núcleo atómico unido son tan fuertes que las velocidades a las que tienen que moverse dentro y fuera del núcleo están cerca de la velocidad de la luz, c, que es de 299.792’458 Km/s. Cuando tratamos con velocidades tan altas se necesita una segunda modificación a las leyes de la física del siglo XIX; tenemos que contar con la teoría de la relatividadespecial de Einstein.
Esta teoría también fue el resultado de una publicación de Einstein de 1905. en esta teoría quedaron sentadas las bases de que el movimiento y el reposo son conceptos relativos, no son absolutos, como tampoco habrá un sistema de referencia absoluto con respecto al cual uno pueda medir la velocidad de la luz.
Pero había más cosas que tenían que ser relativas. En este teoría, la masa y la energía también dependen de la velocidad, como lo hacen la intensidad del campo eléctrico y del magnético. Einstein descubrió que la masa de una partícula es siempre proporcional a la energía que contienen, supuesto que se haya tenido en cuenta una gran cantidad de energía en reposo de una partícula cualquiera, como se denota a continuación:
E = mc2

Como la velocidad de la luz es muy grande, esta ecuación sugiere que cada partícula debe almacenar una cantidad enorme de energía, y en parte esta predicción fue la que hizo que la teoría de la relatividadtuviese tanta importancia para la física (¡y para todo el mundo!). Para que la teoría de la relatividadtambién sea autoconsistente tiene que ser holista, esto es, que todas las cosas y todo el mundo obedezcan a las leyes de la relatividad. No son sólo los relojes los que se atrasan a grandes velocidades, sino que todos los procesos animados se comportan de la forma tan inusual que describe esta teoría cuando nos acercamos a la velocidad de la luz. El corazón humano es simplemente un reloj biológico y latirá a una velocidad menor cuando viaje en un vehículo espacial a velocidades cercanas a la de la luz. Este extraño fenómeno conduce a lo que se conoce como la “paradoja de los gemelos”, sugerida por Einstein, en la que dos gemelos idénticos tienen diferente edad cuando se reencuentran después de que uno haya permanecido en la Tierra mientras que el otro ha viajado a velocidades relativistas.
Einstein comprendió rápidamente que las leyes de la gravedad también tendrían que ser modificadas para que cumplieran el principio relativista.

La formulación de newton es bien conocida, en la segunda imagen que se representan en este esquema dos partículas que se acercan entre sí siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la curvatura de las líneas de universo es la fuerza de interacción gravitatoria entre ambas partículas. Por el contrario, la interpretación einsteiniana supone que las líneas de universo de estas partículas son geodésicas (“rectas”), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación progresiva.
Para poder aplicar el principio de la relatividad a la fuerza gravitatoria, el principio tuvo que ser extendido de la siguiente manera: no sólo debe ser imposible determinar la velocidad absoluta del laboratorio, sino que también es imposible distinguir los cambios de velocidad de los efectos de una fuerza gravitatoria.

Einstein comprendió que la consecuencia de esto era que la gravedad hace al espacio-tiempo lo que la humedad a una hoja de papel: deformar la superficie con desigualdades que no se pueden eliminar. Hoy en día se conocen muy bien las matemáticas de los espacios curvos, pero en el época de Einstein el uso de estas nociones matemáticas tan abstractas para formular leyes físicas era algo completamente nuevo, y le llevó varios años encontrar la herramienta matemática adecuada para formular su teoría general de la relatividad que describe cómo se curva el espacio en presencia de grandes masas como planetas y estrellas.
Einstein tenía la idea en su mente desde 1907 (la relatividad especial la formuló en 1905), y se pasó 8 años buscando las matemáticas adecuadas para su formulación.
Leyendo el material enviado por un amigo al que pidió ayuda, Einstein quedó paralizado. Ante él, en la primera página de una conferencia dada ante el Sindicato de Carpinteros, 60 años antes por un tal Riemann, tenía la solución a sus desvelos: el tensor métrico de Riemann, que le permitiría utilizar una geometría espacial de los espacios curvos que explicaba su relatividad general.

Desde que se puso en órbita el telescopio espacial de rayos gamma Fermi, el 11 de junio de 2008, ha detectado poblaciones enteras de objetos nunca antes vistos. El último hallazgo de Fermi afecta al púlsar J1823-3021A, avistado en 1994 con el radiotelescopio Lovell, en Inglaterra. Un equipo internacional de expertos se ha dado cuenta de que esta estrella pulsante emite rayos gamma y gracias a Fermi ha podido caracterizar sus inusuales propiedades. Los resultados de su investigación se publican en el último número de Science. Lo cierto es que han descubierto el púlsar de milisegundos más joven y con la fuerza magnética más potente.

No está mal que en este punto recordemos la fuerza magnética y gravitatoria que nos puede ayudar a comprender mejor el comportamiento de las partículas subatómicas.
El electromagnetismo, decíamos al principio, es la fuerza con la cual dos partículas cargadas eléctricamente se repelen (si sus cargas son iguales) o se atraen (si tienen cargas de signo opuesto).
La interacción magnética es la fuerza que experimenta una partícula eléctricamente cargada que se mueve a través de un campo magnético. Las partículas cargadas en movimiento generan un campo magnético como, por ejemplo, los electrones que fluyen a través de las espiras de una bobina.
Las fuerzas magnéticas y eléctricas están entrelazadas. En 1873, James Clerk Maxwell consiguió formular las ecuaciones completas que rigen las fuerzas eléctricas y magnéticas, descubiertas experimentalmente por Michael Faraday. Se consiguió la teoría unificada del electromagnetismo que nos vino a decir que la electricidad y el magnetismo eran dos aspectos de una misma cosa.
La interacción es universal, de muy largo alcance (se extiende entre las estrellas), es bastante débil. Su intensidad depende del cociente entre el cuadrado de la carga del electrón y 2hc (dos veces la constante de Planck por la velocidad de la luz). Esta fracción es aproximadamente igual a 1/137’036…, o lo que llamamos α y se conoce como constante de estructura fina.
En general, el alcance de una interacción electromagnética es inversamente proporcional a la masa de la partícula mediadora, en este caso, el fotón, sin masa.
También antes hemos comentado sobre la interacción gravitatoria de la que Einstein descubrió su compleja estructura y la expuso al mundo en 1915 con el nombre de teoría general de la relatividad, y la relacionó con la curvatura del espacio y el tiempo. Sin embargo, aún no sabemos cómo se podrían reconciliar las leyes de la gravedad y las leyes de la mecánica cuántica (excepto cuando la acción gravitatoria es suficientemente débil).

La teoría de Einstein nos habla de los planetas y las estrellas del cosmos. La teoría de Planck, Heisemberg, Schrödinger, Dirac, Feynman y tantos otros, nos habla del comportamiento del átomo, del núcleo, de las partículas elementales en relación a estas interacciones fundamentales. La primera se ocupa de los cuerpos muy grandes y de los efectos que causan en el espacio y en el tiempo; la segunda de los cuerpos muy pequeños y de su importancia en el universo atómico. Cuando hemos tratado de unir ambos mundos se produce una gran explosión de rechazo. Ambas teorías son (al menos de momento) irreconciliables.
- La interacción gravitatoria actúa exclusivamente sobre la masa de una partícula.
- La gravedad es de largo alcance y llega a los más lejanos confines del universo conocido.
- Es tan débil que, probablemente, nunca podremos detectar esta fuerza de atracción gravitatoria entre dos partículas elementales. La única razón por la que podemos medirla es debido a que es colectiva: todas las partículas (de la Tierra) atraen a todas las partículas (de nuestro cuerpo) en la misma dirección.

La partícula mediadora es el hipotético gravitón. Aunque aún no se ha descubierto experimentalmente, sabemos lo que predice la mecánica cuántica: que tiene masa nula y espín 2.
La ley general para las interacciones es que, si la partícula mediadora tiene el espín par, la fuerza entre cargas iguales es atractiva y entre cargas opuestas repulsiva. Si el espín es impar (como en el electromagnetismo) se cumple a la inversa.
Pero antes de seguir profundizando en estas cuestiones hablemos de las propias partículas subatómicas, para lo cual la teoría de la relatividad especial, que es la teoría de la relatividad sin fuerza gravitatoria, es suficiente.

Si viajamos hacia lo muy pequeño tendremos que ir más allá de los átomos, que son objetos voluminosos y frágiles comparados con lo que nos ocupará a continuación: el núcleo atómico y lo que allí se encuentra. Los electrones, que ahora vemos “a gran distancia” dando vueltas alrededor del núcleo, son muy pequeños y extremadamente robustos. El núcleo está constituido por dos especies de bloques: protones y neutrones. El protón (del griego πρώτος, primero) debe su nombre al hecho de que el núcleo atómico más sencillo, que es el hidrógeno, está formado por un solo protón. Tiene una unidad de carga positiva. El neutrón recuerda al protón como si fuera su hermano gemelo: su masa es prácticamente la misma, su espín es el mismo, pero en el neutrón, como su propio nombre da a entender, no hay carga eléctrica; es neutro.
La masa de estas partículas se expresa en una unidad llamada mega-electrón-voltio o MeV, para abreviar. Un MeV, que equivale a 106 electrón-voltios, es la cantidad de energía de movimiento que adquiere una partícula con una unidad de carga (tal como un electrón o un protón) cuando atraviesa una diferencia de potencial de 106 (1.000.000) voltios. Como esta energía se transforma en masa, el MeV es una unidad útil de masa para las partículas elementales.
![]()
La mayoría de los núcleos atómicos contienen más neutrones que protones. Los protones se encuentran tan juntos en el interior de un núcleo tan pequeño que se deberían repeles entre sí fuertemente, debido a que tienen cargas eléctricas del mismo signo. Sin embargo, hay una fuerza que los mantiene unidos estrechamente y que es mucho más potente e intensa que la fuerza electromagnética: la fuerza o interacción nuclear fuerte, unas 102 veces mayor que la electromagnética, y aparece sólo entre hadronespara mantener a los nucleones confinados dentro del núcleo. Actúa a una distancia tan corta como 10-15 metros, o lo que es lo mismo, 0’000000000000001 metros.
La interacción fuerte está mediada por el intercambio de mesones virtuales, 8 gluones que, como su mismo nombre indica (glue en inglés es pegamento), mantiene a los protones y neutrones bien sujetos en el núcleo, y cuanto más se tratan de separar, más aumenta la fuerza que los retiene, que crece con la distancia, al contrario que ocurre con las otras fuerzas.
La luz es una manifestación del fenómeno electromagnético y está cuantizada en “fotones”, que se comportan generalmente como los mensajeros de todas las interacciones electromagnéticas. Así mismo, como hemos dejado reseñado en el párrafo anterior, la interacción fuerte también tiene sus cuantos (los gluones). El físico japonés Hideki Yukawa (1907 – 1981) predijo la propiedad de las partículas cuánticas asociadas a la interacción fuerte, que más tarde se llamarían piones. Hay una diferencia muy importante entre los piones y los fotones: un pión es un trozo de materia con una cierta cantidad de “masa”. Si esta partícula está en reposo, su masa es siempre la misma, aproximadamente 140 MeV, y si se mueve muy rápidamente, su masa parece aumentar en función E = mc2. Por el contrario, se dice que la masa del fotón en reposo es nula. Con esto no decimos que el fotón tenga masa nula, sino que el fotón no puede estar en reposo. Como todas las partículas de masa nula, el fotón se mueve exclusivamente con la velocidad de la luz, 299.792’458 Km/s, una velocidad que el pión nunca puede alcanzar porque requeriría una cantidad infinita de energía cinética. Para el fotón, toda su masa se debe a su energía cinética.
De manera habitual se hacen toda clase de pruebas con aparatos diseñados expresamente para ello y se trata de detectar las partículas presentes en los rayos cósmicos y, también los neutrinos procedentes de agujeros negros y otras fuentes, tratando de resolver el misterio que envuelve a los rayos cósmicos
Los físicos experimentales buscaban partículas elementales en las trazas de los rayos cósmicos que pasaban por aparatos llamados cámaras de niebla. Así encontraron una partícula coincidente con la masa que debería tener la partícula de Yukawa, el pión, y la llamaron mesón (del griego medio), porque su masa estaba comprendida entre la del electrón y la del protón. Pero detectaron una discrepancia que consistía en que esta partícula no era afectada por la interacción fuerte, y por tanto, no podía ser un pión. Actualmente nos referimos a esta partícula con la abreviatura μ y el nombre de muón, ya que en realidad era un leptón, hermano gemelo del electrón, pero con 200 veces su masa.
Antes de seguir veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.
| Nombre | Símbolo | Masa (MeV) | Carga | Espín | Vida media (s) |
| Fotón | γ | 0 | 0 | 1 | ∞ |
| Leptones (L = 1, B = 0) | |||||
| Electrón | e– | 0’5109990 | – | ½ | ∞ |
| Muón | μ– | 105’6584 | – | ½ | 2’1970 × 10-6 |
| Tau | τ | ||||
| Neutrino electrónico | νe | ~ 0 | 0 | ½ | ~ ∞ |
| Neutrino muónico | νμ | ~ 0 | 0 | ½ | ~ ∞ |
| Neutrino tauónico | ντ | ~ 0 | 0 | ½ | ~ ∞ |
| Mesones (L = 0, B = 0) | |||||
| Pión + | π+ | 139’570 | 2’603 × 10-8 | ||
| Pión – | π– | 139’570 | 2’603 × 10-8 | ||
| Pión 0 | π0 | 134’976 | 0’84 × 10-16 | ||
| Kaón + | k+ | 493’68 | 1’237 × 10-8 | ||
| Kaón – | k– | 493’68 | 1’237 × 10-8 | ||
| Kaón largo | kL | 497’7 | 5’17 × 10-8 | ||
| Kaón corto | kS | 497’7 | 0’893 × 10-10 | ||
| Eta | η | 547’5 | 0 | 0 | 5’5 × 10-19 |
| Bariones (L = 0, B = 1) | |||||
| Protón | p | 938’2723 | + | ½ | ∞ |
| Neutrón | n | 939’5656 | 0 | ½ | 887 |
| Lambda | Λ | 1.115’68 | 0 | ½ | 2’63 × 10-10 |
| Sigma + | Σ+ | 1.189’4 | + | ½ | 0’80 × 10-10 |
| Sigma – | Σ– | 1.1974 | – | ½ | 7’4× 10-20 |
| Sigma 0 | Σ0 | 0 | ½ | 1’48 × 10-10 | |
| Ksi 0 | Ξ0 | 1.314’9 | 0 | ½ | 2’9 × 10-10 |
| Ksi – | Ξ– | 1.321’3 | – | ½ | 1’64 × 10-10 |
| Omega – | Ω– | 1.672’4 | – | 1½ | 0’82 × 10-10 |


Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con y el electrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π–, al igual que ocurre con k+ y k–. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.
Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isoespín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos.
Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.

Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planck, h, dividido por 2π. Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.
El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electronespudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.
Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.

Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermionesse comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.

En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.
Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.

Uno de los protones se transmuta en un neutrón por medio de la interacción débil, transformando un quark “up”, en “down”. Este proceso consume energía (el neutrón tiene ligeramente más masa que..
En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:
- La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
- Comparada con las demás interacciones, ésta tiene un alcance muy corto.
- La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinos para poder estudiar tales sucesos.
- Los mediadores de la interacción débil, llamados W+, W– y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.
A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).

La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.

El triplete de Quarks que conforma a protones y neutrones están confinados en el núcleo del átomo y bien atados por los gluones que son los bosones intermediarios de la fuerza. Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10-13 cm aproximadamente).
La interacción es fuerte. En realidad, la más fuerte de todas.

Lo dejaré aquí, en verdad, eso que el Modelo Estándar de la Física, es feo, complejo e incompleto y, aunque hasta el momento ha sido una buena herramienta con la que trabajar, la verdad es que, se necesita un nuevo modelo más avanzado y que incluya la Gravedad.

Existen esperanzas de que el LHC empleando energías más elevadas, nos pueda dar alguna sorpresa y encuentre objetos largamente perseguidos. Entre otros, la partícula de la “materia oscura” si finalmente se descubre que realmente existe.
emilio silvera
Dic
7
Una sola teoría para todas las fuerzas del Universo
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (1)

La discusión de la unificación de las leyes de la Naturaleza fue más bien abstracta, y lo habría seguido siendo si Einstein no hubiese dado el siguiente paso decisivo. Él comprendió que si el espacio y el tiempo pueden unificarse en una sola entidad, llamada espaciotiempo, entonces quizá la materia y la energía pueden unirse también en una relación dialéctica. Si las reglas pueden contraerse y los relojes pueden frenarse, razonó, entonces cualquier cosa que midamos con regla y relojes también debe cambiar. (Es deseable dejar aquí una nota aclaratoria de que, todo lo que ahora se cuenta de Einstein, en parte, tiene su fuente en otros científicos que, aportaron la base de sus ideas en las que él se inspiró para llegar hasta la relatividad, y, su efecto fotoeléctrico -que le valió el Nobel de Física- le llegó desde la mente de Planck que, con su cuento de acción, h, le abrió el camino a aquel trabajo).

Más rápido que la luz, en nuestro Universo conocido, nada puede ir. Ni información, ni objetos inanimados, ni seres vivos. La velocidad de la luz recorre la distancia de la Tierra a la Luna en poco más de un segundo.
Sin embargo, casi todo en el laboratorio de un físico se mide con regla y relojes. Esto significa que los físicos tendrán que recalibrar todas las magnitudes del laboratorio que una vez dieron por hecho que eran constantes.

En concreto, la energía es una cantidad que depende de cómo midamos las distancias y los intervalos de tiempo. Un automóvil de prueba que choca a gran velocidad contra una pared de ladrillos tiene obviamente energía. No obstante, si el veloz automóvil se aproxima a la velocidad de la luz, sus propiedades se distorsionan. Se contrae como un acordeón y los relojes en su interior se frenan.

Lo que es más importante, Einstein descubrió que la masa del automóvil también aumenta cuando reacelera. Pero ¿de dónde procede este exceso de masa? Y él concluyó que procedía de la energía. La masa relativista es la masa de un cuerpo medida por un observador con respecto al cual ese cuerpo se mueve. De acuerdo con la teoría de Einstein, esta masa está dada por:

donde m0 es su masa en reposo y c es la velocidad de la luz. La masa relativista sólo difiere de la masa en reposo si su velocidad es una fracción apreciable de la velocidad de la luz. Si V= c/2, por ejemplo, la masa relativista es un 15% mayor que la masa en reposo.

De hecho, cuando una partícula se acerca a la velocidad de c, su masa … ¡aumenta! El muón, aumentó su masa m´ñas de diez veces al llegar cerca de la velocidad de la luz.
Esto tuvo consecuencias perturbadoras. Dos de los grandes descubrimientos de la física del siglo XIX fueron la conservación de la masa y la conservación de la energía; es decir, la masa total y la energía total de un sistema cerrado, tomadas por separado, no cambian.
Sin embargo, Einstein decía que cuando un cuerpo material se acerca a la velcoidad de la luz, su masa aumenta y, si puediera llegar a la velocidad de c, se haría infinita. Por eso precisamente, nada, en el Universo, puede ir más rápido que la luz. Esa es la frontera que impone el Universo para la velocidad. Nació un nuevo principio de conservación que decía que la suma total de la masa y la energía debe siempre permanecer constante. La materia no desaparece repentinamente, ni la energía brota de la nada. En este sentido, la materia desaparece sólo para liberar enormes cantidades de energía o viceversa.

¿Sabremos alguna vez qué energía es la que sale del “vacío”?
Cuando Einstein tenía 26 años, calculó exactamente cómo debía cambiar la energía si el principio de la relatividad era correcto, y descubrió la relación E=mc2. Puesto que la velocidad de la luz al cuadrado (c2) es un número astronómicamente grande, una pequeña cantidad de materia puede liberar una enorme cantidad de energía. Dentro de las partículas más pequeñas de materia hay un almacén de energía, más de un millón de veces la energía liberada en una explosión química. La materia, en cierto sentido, puede verse como un depósito casi inagotable de energía; es decir, la materia es en realidad, energía condensada.
La materia del Universo…¿donde está? ¡Esa que no podemos ver!
Einstein supo ver que las dimensiones más altas tienen un propósito: unificar los principios de la Naturaleza. Al añadir dimensiones más altas podía unir conceptos físicos que, en un mundo tridimensional, no tienen relación, tales como la materia y la energía o el espacio y el tiempo que, gracias a la cuarta dimensión de la relatividad especial, quedaron unificados.
¿Que pensaba Einstein del puente Einstein-Rosen?

El puente de Einstein-Rosen conecta universos diferentes. Einstein creía que cualquier cohete que entrara en el puente sería aplastado, haciendo así imposible la comunicación entre estos dos universos. Sin embargo, cálculos más recientes muestran que el viaje a través del puente, aunque podría ser muy difícil, no sería imposible; existen ciertas posibilidades de que algún día se pudiera realizar
Posteriormente, los puentes de Einstein-Rosen se encontraron pronto en otras soluciones de las ecuaciones gravitatorias, tales como la solución de Reisner-Nordstrom que describe un agujero eléctricamente cargado. Sin embargo, el puente de Einstein-Rosen siguió siendo una nota a pie de página curiosa pero olvidada en el saber de la relatividad.

Roy Patrick Kerr (16-05-1934- ) es un matemático neozelandés, famoso por haber encontrado en 1963 una solución exacta de la ecuación de campo de la relatividad general, aplicada a un agujero negro en rotación.
Las cosas comenzaron a cambiar con la solución que el trabajo matemático presentado por el neozelandés Roy Kerr, presentado en 1.963, encontró otra solución exacta de las ecuaciones de Einstein. Kerr supuso que cualquier estrella colapsante estaría en rotación. Así pues, la solución estacionaria de Schwarzschild para un Agujero Negro no era la solución físicamente más relevante de las ecuaciones de Einstein.
La solución de Kerr causó sensación en el campo de la relatividad cuando fue propuesta. El astrofísico Subrahmanyan Chandrasekhar llegó a decir:
“La experiencia que ha dejado más huella en mi vida científica, de más de cuarenta años, fue cuando comprendí que una solución exacta de las ecuaciones de Einstein de la relatividad general, descubierta por el matemático Roy Kerr, proporciona la representación absolutamente exacta de innumerables agujeros negros masivos que pueblan el universo. Este estremecimiento ante lo bello, este hecho increíble de que un descubrimiento motivado por una búsqueda de la belleza en matemáticas encontrará su réplica exacta en la naturaleza, es lo que me lleva a decir que la belleza es aquello a lo que lleva la mente humana en su nivel más profundo“.
Si queremos saber, tendremos que desvelar lo que ocurrió y, según la información que el agujero negro retenga de los entes cósmicos que generaron su origen o de las propiedades de su anterior vida como masiva estrella.

La solución de Kerr de un agujeros negros giratorio permite que una nave espacial pase a través del centro del agujero por el eje de rotación y sobrevivir al viaje a pesar de los enormes pero finitos campos gravitorios en el centro, y seguir derecha hacia el otro universo especular sin ser destruida por la curvatura infinita.
Desde entonces, estos conceptos, los tenemos que clasificar, no por separado, sino siempre juntos como dos aspectos de un mismo ente materia-energía por una parte y espacio-tiempo por la otra. El impacto directo del trabajo de Einstein sobre la cuarta dimensión fue, por supuesto, la bomba de hidrógeno, que se ha mostrado la más poderosa creación de la ciencia del siglo XX. Claro que, en contra del criterio de Einstein que era un pacifista y nunca quiso participar en proyectos de ésta índole.

Ernest Mach
Einstein completó su teoría de la relatividad con una segunda etapa que, en parte, estaba inspirada por lo que se conoce como principio de Mach, la guía que utilizó Einstein para crear esta parte final y completar su teoría de relatividad general.
Einstein enunció que, la presencia de materia-energía determina la curvatura del espacio-tiempo a su alrededor. Esta es la esencia del principio físico que Riemann no logró descubrir: la curvatura del espacio está directamente relacionada con la cantidad de energía y materia contenida en dicho espacio.
Esto, a su vez, puede resumirse en la famosa ecuación de Einstein que, esencialmente afirma:
![]()
La ecuación anterior expresa que el contenido material determina la curvatura del espacio-tiempo.
Materia-energía determina la curvatura del espacio-tiempo.
Esa ecuación de arriba de la imagen, engañosamente corta es uno de los mayores triunfos de la mente humana (me he referido a ella en otras muchas ocasiones). De ella emergen los principios que hay tras los movimientos de las estrellas y las galaxias, los agujeros negros, el big bang, y seguramente el propio destino del Universo.
Es curiosa la similitud que se da entre la teoría del electromagnetismo y la relatividad general, mientras que Faraday experimentó y sabía los resultados, no sabía expresarlos mediante las matemáticas y, apareció Maxwell que, finalmente formuló la teoría.
Einstein, al igual que Faraday, había descubierto los principios físicos correctos, pero carecía de un formulismo matemático riguroso suficientemente potente para expresarlo (claro que Faraday no era matemático y Einstein si lo era). Carecía de una versión de los campos de Faraday para la Gravedad. Irónicamente, Riemann tenía el aparato matemático, pero no el principio físico guía, al contrario que Einstein. Así que, finalmente, fue Einstein el que pudo formular la teoría con las matemáticas de Riemann.

Mediante el Tensor métrico de Rieman, Einstein pudo formular su famosa teoría de la relatividad General, sonde el espacio y el tiempo se distorsionan en presencia de grandes masas. El tensor métrico de Riemann le permitió erigir un potente aparato para describir espacios de cualquier dimensión con curvatura arbitraría. Para su sorpresa, encontró que todos estos espacios están bien definidos y son autoconsistentes. Previamente, se pensaba que aparecerían terribles contradicciones al investigar el mundo prohibido de dimensiones más altas. Riemann no encontró ninguna. De hecho, resultaba casi trivial extender su trabajo a un espacio N-dimensional. El tensor métrico se parecía ahora a un tablero de ajedrez de N x N casillas

El tensor de Riemann contiene toda la información necesaria para poder describir un espacio curvo en N-dimensiones. Se necesita dieciséis números para describir el tensor métrico en un espacio tetradimensional. Estos números pueden disponerse en una matriz cuadrada (seis de dichos números son realmente redundantes; de modo que el tensor métrico tiene diez números independientes).
“¡Qué extraño sería que la teoría final se descubriera durante nuestra vida! El descubrimiento de las leyes finales de la Naturaleza marcará una discontinuidad en la Historia del intelecto humano, la más abrupta que haya ocurrido desde el comienzo de la ciencia moderna del siglo XVII. ¿Podemos imaginar ahora como sería?” Así se expresó Steven Weinberg que comprendia la complejidad de la empresa. Él, se refería a las modernas versiones de la teoría de cuerdas.
¿Es la belleza un principio Físico?
Cuando hablamos de las teorías de supercuerdas (todas las versiones), lo hacemos sobre otro universo…En este, de momento, las cuerdas no aparecen y, por lo que parece, durante bastante tiempo no aparecerán.Es una teoría, como nos dice Witten, adelantada a su tiempo y, no disponemos ni de la energía necesaria para poder llegar a ellas (si es que finalmente existen) ni tampoco, las matemáticas actuales son lo suficientemente potentes para poder explicarlas en toda su grandeza.
Un universo de cuerdas que vibran en el espacio-tiempo para producirm partículas…¡Todo podríam ser!
La teoría de supercuerdas nos da una formulación convincente de la teoría del Universo, sin embargo, el problema fundamental radica en que una comprobación de dicha teoría, está más allá de nuestras posibilidades actuales. De hecho, la misma teoría predice que la unificación de todas las fuerzas ocurre a la energía de Planck, o 1019 miles de millones de electronvoltios (eV), que como sabéis, es alrededor de mil billones de veces mayor que las energías actualmente disponibles en nuestros aceleradores de partículas.

Ni el LHC con toda su moderna tecnología, podría encontrar las cuerdas. No dispone de la energía de Planck, es decir 1019 GeV que es la que se calcula podría alcanzar las hipóteticas cuerdas, y, esa energía, está lejos de que la podamos manejar.

Los creadores de la QED: Feynman, Tomonaga, Schwinger y Dyson

Ya he comentado otras veces que el físico David Gross (el de más edad de los miembros conocidos como el “cuarteto de cuerdas” y autores de la teoría llamada la cuerda heterótica) dijo en una ocasión: “El coste de generar esta fantástica energía, necesitaría el dinero de las tesorerías de todos los países del mundo juntos, y quizá, no llegara. Es verdaderamente astronómico.”

Siendo así, de momento estamos condenados a no poder verificar experimentalmente este motor (parado) que haría marchar el vehículo de la Física. La teoría decadimensional está paralizada en dos sentidos: el económico y el técnico – matemático. El primero por falta de dinero que nos pudiera construir aceleradores tan potentes como para descubrir la partícula de Higgs (la única descubierta) los quarks e incluso las cuerdas vibrantes, esos previsibles y minúsculos objetos primordiales que conforman la materia. En segundo lugar, las formulaciones matemáticas complejas que, según parece, aún no se han inventado. Parece que hoy, ni siquiera Witten o Perelman, conocen el secreto de los números mágicos que nos puedan llevar hasta el final del camino iniciado con Einstein y Kaluza-Klein.
Particularmente opino que la teoría de cuerdas nos dará muchas alegrías y que en ella están las respuestas a muchas preguntas que no sabemos contestar. Incluso estaría por apostar alguna cosa (un café), sobre la posibilidad de que, aunque con mucho menos energía de la necesaria para hallar las cuerdas, en el LHC podrían aparecer…las sombras de las mismas.

No, de estas cuerdas no hablamos
Dentro del mundo de la Física, los hay de todas las opiniones: en contra y a favor. Es famosa la postura detractora del Nóbel Sheldoy Glasgow de Harvard, no quiere ni oír hablar de la teoría de supercuerdas a la que califica de física de Teatro.
Otros muchos, la mayoría, como Murray Gell-Marn, Steven Weinberg (ambos Premios Nóbel) o el mismo. E. Witten (Medalla Field), opinan lo contrario y ven en esta teoría de dimensiones más altas el futuro de la Física.
Ya sabemos que en física toda teoría debe ser verificada, una y otra vez, en uno y en otro lugar, experimentalmente, obteniendo siempre el mismo resultado, es la única manera de que sea aceptada por la comunidad científica, mientras tanto, la teoría no es fiable y queda a la espera de ser comprobada, verificada sin ningún lugar para la duda.
Pero, ¿Se puede recrear la creación?

Eso es, precisamente, lo que tratan de hacer aquí, recrear los primeros instantes del Universo
La teoría de supercuerdas trata de eso. Quiere explicarnos todos los misterios del Universo a partir de ese primer momento, ¡la creación!
¿Cuántas y cuántas páginas no habré leído y escrito sobre estos temas fascinantes de los secretos del Universo, las fuerzas que lo rigen, la materia de las Galaxias y de los objetos que lo pueblan?
No podría decirlo. Sin embargo, hay una cosa que sí puede decir: ¡Cuánto más profundizo en estas cuestiones, cuánto más conocimientos adquiero, más fascinación siento y desde luego, mi capacidad de asombro, más crece! Qué verdad dijo aquel sabio: “Siempre seremos aprendices” ¿Porque, quién puede saberlo todo? Es raro el día que nos acostamos sin haber aprendido algo nuevo.

La degradación de los cables superconductores en el corazón de la máquina de fusión ITERamenaza con provocar mayores retrasos. El ITER (International Thermonuclear Experimental Reactor) Son muchos los proyectos que tienen vía libre y otros han sido desechados por su alto costo.

El acelerador de partículas más grande del mundo está abandonado en Texas
¡Qué lastima que no se construyera el súper colisionador superconductor! (SSC), que encontrara los vestigios subatómicos que mostrara una señal característica de la supercuerda, tal como la súpersimetría. Aunque ni con este monstruoso SSC se hubiera podido sondear la distante energía de Planck, si podría habernos ofrecido una evidencia muy fuerte (aunque indirecta) de la corrección de la teoría de supercuerdas.
Este súper colisionador que se hubiese completado en las afueras de Dallas, Texas, hubiera contado con un tubo gigantesco de 85 km. De circunferencia rodeado de enormes bobinas magnéticas. Lanzaría protones a velocidades muy cercanas a la de la luz que, viajarían en el sentido de las aguas del reloj y el sentido contrario, para en un momento dado, hacerlos colisionar a una energía de 40 billones de electronvoltios (TeV), generando una intensa ráfaga de residuos subatómicos analizados por detectores que, en contrarían partículas exóticas que hubieran arrojado luz sobre la forma esencial de la materia. Los campos magnéticos para guiar los protones y los antiprotones dentro del tubo son tan excepcionalmente grandes (del orden de 100.000 veces el campo magnético de la Tierra) que, hubieran sido necesarios procedimientos extraordinarios para generarlos y mantenerlos.
Además del enfriamiento de las bobinas hasta casi el cero absoluto (-273°) y otros problemas que hubieran obligado a enormes avances tecnológicos. Sin embargo, la política, se cargó el proyecto y nos quedamos sin la esperada partícula de Higgs que es la que genera la ruptura de simetría y es por tanto el origen de la masa de los quarks, así que, habríamos podido descubrir el origen de la masa. Sin embargo, no podemos perder la esperanza, el LHC está en marcha y pronto, nos dará muchas alegrías.

Me viene a la memoria que en el siglo XIX, algunos científicos declararon que la composición de las estrellas estaría siempre fuera del alcance del experimento. En 1.825, el filósofo y crítico social francés Auguste Comte, al escribir el Curso de Filosofía, declaraba que nunca conoceríamos las estrellas de otra forma que como inalcanzables puntos de luz en el cielo debido a su enorme distancia de nosotros. Las máquinas del siglo XIX, o de cualquier siglo, argumentaba, no eran suficientemente potentes para escapar de la Tierra y alcanzar las estrellas.

Así que parecía que el determinar la composición de las estrellas era imposible, y, lo curioso es que, casi al mismo tiempo, el físico alemán Joseph Von Fraunhofer estuviera haciendo precisamente eso. Utilizando un prisma y un espectroscópio, pudo descomponer la luz blanca emitida desde las estrellas lejanas y determinar la composición química de dichas estrellas.
De la misma manera, pudiera, en este mismo instante, estar trabajando un físico-matemático en profundizar en la teoría de supercuerdas y estar formulando otro respetable avance hacia nuestro futuro.
¿Qué sería de nosotros sin la Física?
emilio silvera
Dic
6
¡Cuántas maravillas!
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)




No sería descabellado decir que las simetrías que vemos a nuestro alrededor, un arco iris a las flores y a los cristales, pueden considerarse en última instancia como manifestaciones de fragmentos de la teoría decadimensional original. Riemann y Einstein habían confiado en llegar a una comprensión geométrica de por qué las fuerzas pueden determinar el movimiento y la naturaleza de la materia. Por ejemplo, la fuerza de Gravedad generada por la presencia de la materia, determina la geometría del espacio-tiempo.
Dado el enorme poder de sus simetrías, no es sorprendente que la teoría de supercuerdas sea radicalmente diferente de cualquier otro de física. De hecho, fue descubierta casi por casualidad. Muchos físicos han comentado que si este accidente fortuito no hubiese ocurrido, entonces la teoría no se hubiese descubierto hasta bien entrado el siglo XXI. Esto es así porque supone una neta desviación de todas las ideas ensayadas en este siglo. No es una extensión natural de tendencias y teorías populares en este siglo que ha pasado; permanece aparte.


Por el contrario, la teoría de la relatividad general de Einstein tuvo una evolución normal y lógica. En primer lugar, su autor, postula el principio de equivalencia. Luego reformuló principio físico en las matemáticas de una teoría de campos de la gravitación basada en los campos de Faraday y en el tensor métrico de Riemann. Más tarde llegaron las “soluciones clásicas”, tales el agujero negro y el Big Bang. Finalmente, la última etapa es el intento actual de formular una teoría cuántica de la gravedad. Por lo tanto, la relatividad general siguió una progresión lógica, un principio físico a una teoría cuántica.

Geometría → teoría de campos → teoría clásica → teoría cuántica.
Contrariamente, la teoría de supercuerdas ha evolucionando hacia atrás desde su descubrimiento accidental en 1.968. Esta es la razón de que nos parezca extraña y poco familiar, estamos aún buscando un principio físico subyacente, la contrapartida del principio de equivalencia de Einstein.
La teoría nació casi por casualidad en 1.968 cuando dos jóvenes físicos teóricos, Gabriel Veneziano y Mahiko Suzuki, estaban hojeando independientemente libros de matemáticas. Figúrense ustedes que estaban buscando funciones matemáticas que describieran las interacciones de partículas fuertemente interactivas. Mientras estudiaban en el CERN, el Centro Europeo de Física Teórica en Ginebra, Suiza, tropezaron independientemente con la función beta de Euler, una función matemática desarrollada en el S. XIX por el matemático Leonhard Euler. Se quedaron sorprendidos al que la función beta de Euler ajustaba casi todas las propiedades requeridas para describir interacciones fuertes de partículas elementales.

Función beta. Representación de la función valores reales positivos de x e y.
Según he leído, durante un almuerzo en el Lawrence Berkeley Laboratory en California, con una espectacular vista del Sol brillando sobre el puerto de San Francisco, Suzuki le explicó a Michio Kaku mientras almorzaban la excitación de descubrir, prácticamente por casualidad, un resultado parcialmente importante. No se suponía que la física se pudiera hacer de ese modo casual.
Tras el descubrimiento, Suzuki, muy excitado, mostró el hallazgo a un físico veterano del CERN. Tras oír a Suzuki, el físico veterano no se impresionó. De hecho le dijo a Suzuki que otro físico joven (Veneziano) había descubierto la misma función unas semanas antes. Disuadió a Suzuki de publicar su resultado. Hoy, esta función beta se conoce con el de modelo Veneziano, que ha inspirado miles de artículos de investigación iniciando una importante escuela de física y actualmente pretende unificar todas las leyes de la física.

Gabriele Veneziano es un físico italiano
En 1.970, el Modelo de Veneziano-Suzuki (que contenía un misterio), fue parcialmente explicado cuando Yoichiro Nambu, de la Universidad de Chicago, y Tetsuo Goto, de la Nihon University, descubrieron que una cuerda vibrante yace detrás de sus maravillosas propiedades. Así que, la teoría de cuerdas fue descubierta hacia atrás y por casualidad, los físicos aún no conocen el principio físico que subyace en la teoría de cuerdas vibrantes y sus maravillosas propiedades. El último paso en la evolución de la teoría de cuerdas (y el primer paso en la evolución de la relatividad general) aún está pendiente de que alguien sea capaz de darlo.
Así, Witten dice:
“Los seres humanos en el planeta tierra nunca dispusieron del marco conceptual que les llevara a concebir la teoría de supercuerdas de manera intencionada, surgió por razones del azar, por un feliz accidente. Por sus propios méritos, los físicos c del siglo XX no deberían haber tenido el privilegio de estudiar teoría muy avanzada a su tiempo y a su conocimiento. No tenían (ni tenemos ahora mismo) los conocimientos y los prerrequisitos necesarios para desarrollar dicha teoría, no tenemos los conceptos correctos y necesarios.”
Actualmente, como ha quedado dicho en este mismo , Edwar Witten es el físico teórico que, al frente de un equipo de físicos de Princeton, lleva la bandera de la teoría de supercuerdas con aportaciones muy importantes en el desarrollo de la misma. De todas las maneras, aunque los resultados y avances son prometedores, el camino por andar es largo y la teoría de supercuerdas en su conjunto es un edificio con muchas puertas cerradas de las que no tenemos las llaves acceder a su interior y mirar lo que allí nos aguarda.
Ni con colección de llaves podremos abrir la puerta que nos lleve a la Teoría cuántica de la gravedad que, según dicen, subyace en la Teoría M, la más moderna versión de la cuerdas expuesta por E. Witten y que, según contaron los que estuvieron presentes en su presentación, Witten les introdujo en un “universo” fascinante de inmensa belleza que, sin embargo, no puede ser verificado por el experimento.
El problema está en que nadie es lo suficientemente inteligente para resolver la teoría de campos de cuerdas o cualquier otro enfoque no perturbativo de esta teoría. Se requieren técnicas que están actualmente más allá de nuestras capacidades. Para encontrar la solución deben ser empleadas técnicas no perturbativas, que son terriblemente difíciles. Puesto que el 99 por ciento de lo que conocemos sobre física de altas energías se basa en la teoría de perturbaciones, esto significa que estamos totalmente perdidos a la hora de encontrar la verdadera solución de la teoría.

¿Por qué diez dimensiones?
Uno de los secretos más profundos de la teoría de cuerdas, que aún no es comprendido, es por qué está definida sólo en diez, once y veintiséis dimensiones. Si calculamos cómo se rompen y se vuelven a juntar las cuerdas en el espacio N-dimensional, constantemente descubrimos que pululan términos absurdos que destruyen las maravillosas propiedades de la teoría. Afortunadamente, estos términos indeseados aparecen multiplicados por (N-10). Por consiguiente, para hacer que desaparezcan estas anomalías, no tenemos otra elección cuántica que fijar N = 10. La teoría de cuerdas, de hecho, es la única teoría cuántica conocida que exige completamente que la dimensión del espacio-tiempo esté fijada en un número único, el diez.

Por desgracia, los teóricos de cuerdas están, por el , completamente perdidos para explicar por qué se discriminan las diez dimensiones. La respuesta está en las profundidades de las matemáticas, en un área denominada funciones modulares.
Al manipular los diagramas de lazos1 de Kikkawa, Sakita y Virasoro creados por cuerdas en interacción, allí están esas extrañas funciones modulares en las que el 10 aparecen en los lugares más extraños. Estas funciones modulares son tan misteriosas como el hombre que las investigó, el místico del este. Quizá si entendiéramos mejor el trabajo de este genio indio, comprenderíamos por qué vivimos en nuestro universo actual.

nos asomamos a la Teoría de cuerdas, entramos en un “mundo” lleno de sombras en los que podemos ver brillar, a lo lejos, un resplandor cegador. Todos los físicos coinciden en el hecho de que es una teoría muy prometedora y de la que parece se podrán obtener buenos rendimientos en el futuro pero, de momento, es imposible verificarla.
El misterio de las funciones modulares podría ser explicado por quien ya no existe, Srinivasa Ramanujan, el hombre más extraño del mundo de los matemáticos. Igual que Riemann, murió de cumplir cuarenta años, y como Riemann antes que él, trabajó en total aislamiento en su universo particular de números y fue capaz de reinventar por sí mismo lo más valioso de cien años de matemáticas occidentales que, al estar aislado del mundo en las corrientes principales de los matemáticos, le eran totalmente desconocidos, así que los buscó sin conocerlos. Perdió muchos años de su vida en redescubrir matemáticas conocidas.
Dispersas oscuras ecuaciones en sus cuadernos están estas funciones modulares, que figuran entre las más extrañas jamás encontradas en matemáticas. Ellas reaparecen en las ramas más distantes e inconexas de las matemáticas. Una función que aparece una y otra vez en la teoría de las funciones modulares se denomina (como ya he dicho otras veces) hoy día “función de Ramanujan” en su honor. Esta extraña función contiene un término elevado a la potencia veinticuatro.
La magia esconde una realidad
El 24 aparece repetidamente en la obra de Ramanujan. Este es un ejemplo de lo que las matemáticas llaman números mágicos, que aparecen continuamente donde menos se esperan por razones que nadie entiende. Milagrosamente, la función de Ramanujan aparece también en la teoría de cuerdas. El número 24 que aparece en la función de Ramanujan es también el origen de las cancelaciones milagrosas que se dan en la teoría de cuerdas. En la teoría de cuerdas, cada uno de los veinticuatro modos de la función de Ramanujan corresponde a una vibración física de la cuerda. Cuando quiera que la cuerda ejecuta sus movimientos complejos en el espacio-tiempo dividiéndose y recombinándose, deben satisfacerse un gran número de identidades matemáticas altamente perfeccionadas. Estas son precisamente las entidades matemáticas descubiertas por Ramanujan. Puesto que los físicos añaden dos dimensiones más cuando cuentan el número total de vibraciones que aparecen en una teoría relativista, ello significa que el espacio-tiempo debe tener 24 + 2 = 26 dimensiones espacio-temporales.

Para comprender este misterioso factor de dos (que añaden los físicos), consideramos un rayo de luz que tiene dos modos físicos de vibración. La luz polarizada vibrar, por ejemplo, o bien horizontal o bien verticalmente. Sin embargo, un campo de Maxwell relativista Aµ cuatro componentes, donde µ = 1, 2, 3, 4. Se nos permite sustraer dos de estas cuatro componentes utilizando la simetría gauge de las ecuaciones de Maxwell. Puesto que 4 – 2 = 2, los cuatro campos de Maxwell originales se han reducido a dos. Análogamente, una cuerda relativista vibra en 26 dimensiones. Sin embargo, dos de estos modos vibracionales pueden ser eliminados rompemos la simetría de la cuerda, quedándonos con 24 modos vibracionales que son las que aparecen en la función de Ramanujan.
Cuando se generaliza la función de Ramanujan, el 24 queda reemplazado por el 8. Por lo tanto, el número crítico para la supercuerda es 8+2=10. Este es el origen de la décima dimensión que exige la teoría. La cuerda vibra en diez dimensiones porque requiere estas funciones de Ramanujan generalizadas para permanecer auto consistente. Dicho de otra manera, los físicos no tienen la menor idea de por qué 10 y 26 dimensiones se seleccionan como dimensión de la cuerda. Es como si hubiera algún tipo de numerología profunda que se manifestara en estas funciones que nadie comprende. Son precisamente estos números mágicos que aparecen en las funciones modulares elípticas los que determinan que la dimensión del espacio-tiempo sea diez.
En el análisis final, el origen de la teoría decadimensional es tan misterioso como el propio Ramanujan. Si alguien preguntara a cualquier físico del mundo por qué la naturaleza debería existir en diez dimensiones, estaría obligado a responder “no lo sé”. Se sabe en términos difusos, por qué debe seleccionarse alguna dimensión del espacio tiempo (de lo contrario la cuerda no puede vibrar de una cuánticamente autoconsistente), pero no sabemos por qué se seleccionan estos números concretos.
Godfrey Harold Hardy
G. H. Hardy, el mentor de Ramanujan, trató de estimar la capacidad matemática que poseía Ramanujan. Concedió a David Hilbert, universalmente conocido y reconocido uno de los mayores matemáticos occidentales del siglo XIX, una puntuación de 80. A Ramanujan le asignó una puntuación de 100. Así mismo, Hardy se concedió un 25.
Por desgracia, ni Hardy ni Ramanujan parecían interesados en la psicología a los procesos de pensamiento mediante los cuales Ramanujan descubría estos increíbles teoremas, especialmente cuando diluvio material brotaba de sus sueños con semejante frecuencia. Hardy señaló:
“Parecía ridículo importunarle sobre como había descubierto este o ese teorema conocido, cuando él me estaba mostrando media docena día, de nuevos teoremas”.
Ramanujan
Hardy recordaba vivamente:
-”Recuerdo una vez que fui a visitarle cuando estaba enfermo en Putney. Yo había tomado el taxi 1.729, y comenté que el numero me parecía bastante feo, y que esperaba que no fuese mal presagio.”
– No. -Replicó Ramanujan postrado en su cama-. Es un número muy interesante; es el número más pequeño expresable como una suma de dos cubos en dos formas diferentes.
(Es la suma de 1 x 1 x 1 y 12 x 12 x 12, y la suma de 9 x 9 x 9 y 10 x 10 x 10).
Era capaz de recitar en el acto teoremas complejos de aritmética cuya demostración requeriría un ordenador moderno.
En 1.919 volvió a casa, en la India, donde un año más tarde murió enfermo.
El legado de Ramanujan es su obra, que consta de 4.000 fórmulas en cuatrocientas páginas que llenan tres volúmenes de notas, todas densamente llenas de teoremas de increíble fuerza pero sin ningún comentario o, lo que es más frustrante, sin ninguna demostración. En 1.976, sin embargo, se hizo un nuevo descubrimiento. Ciento treinta páginas de borradores, que contenían los resultados del último año de su vida, fueron descubiertas por casualidad en una caja en el Trinity Collage. Esto se conoce ahora con el de “Cuaderno Perdido” de Ramanujan.

Comentando cuaderno perdido, el matemático Richard Askey dice:
“El de este año, mientras se estaba muriendo, era el equivalente a una vida entera de un matemático muy grande”. Lo que él consiguió era increíble. Los matemáticos Jonathan Borwien y Meter Borwein, en relación a la dificultad y la ardua tarea de descifrar los cuadernos perdidos, dijeron: “Que nosotros sepamos nunca se ha intentado una redacción matemática de este alcance o dificultad”.
Por mi creo que, Ramanujan, fue un genio matemático muy adelantado a su tiempo y que pasaran algunos años hasta que podamos descifrar al cien por ciento sus trabajos, especialmente, sus funciones modulares que guardan el secreto de la teoría más avanzada de la física moderna, la única capaz de unir la mecánica quántica y la Gravedad.
Fórmula de Ramanujan determinar los decimales de pi
Las matemáticas de Ramanujan son como una sinfonía, la progresión de sus ecuaciones era algo nunca vísto, él trabajaba otro nivel, los números se combinaban y fluían de su cabeza a velocidad de vértigo y con precisión nunca antes conseguida por nadie. Tenía tal intuición de las cosas que éstas simplemente fluían de su cerebro. Quizá no los veía de una manera que sea traducible y el único lenguaje eran los números.
saben los físicos, los “accidentes” no aparecen sin ninguna razón. Cuando están realizando un cálculo largo y difícil, y entonces resulta de repente que miles de términos indeseados suman milagrosamente cero, los físicos saben que esto no sucede sin una razón más profunda subyacente. Hoy, los físicos conocen que estos “accidentes” son una indicación de que hay una simetría en juego. Para las cuerdas, la simetría se denomina simetría conforme, la simetría de estirar y deformar la hoja del Universo de la cuerda.

Nuestro mundo asimétrico hermosas simetrias
Aquí es precisamente donde entra el trabajo de Ramanujan. Para proteger la simetría conforme original contra su destrucción por la teoría cuántica, deben ser milagrosamente satisfechas cierto número de identidades matemáticas que, son precisamente las identidades de la función modular de Ramanujan. ¡Increíble , cierto.

Aunque el perfeccionamiento matemático introducido por la teoría de cuerdas ha alcanzado alturas de vértigo y ha sorprendido a los matemáticos, los críticos de la teoría aún la señalan su punto más débil. Cualquier teoría, afirman, debe ser verificable. Puesto que ninguna teoría definida a la energía de Planck de 1019 miles de millones de eV es verificable, ¡La teoría de cuerdas no es realmente una teoría!
El principal problema, es teórico más que experimental. Si fuéramos suficientemente inteligentes, podríamos resolver exactamente la teoría y encontrar la verdadera solución no perturbativa de la teoría. Sin embargo, esto no nos excusa de encontrar algún medio por el que verificar experimentalmente la teoría, debemos esperar señales de la décima dimensión.

Volviendo a Ramanujan…
Es innegable lo sorprendente de su historia, un muchacho pobre con escasa preparación y arraigado pocos a sus creencias y tradiciones, es considerado como una de los mayores genios de las matemáticas del siglo XX. Su legado a la teoría de números, a la teoría de las funciones theta y a las series hipergeométricas, además de ser invaluable aún sigue estudiándose por muchos prominentes matemáticos de todo el mundo. Una de sus fórmulas más famosas es
Utilizada para realizar aproximaciones del número Pi con más de dos millones de cifras decimales. Otra de las sorprendentes fórmulas descubiertas por Ramanujan es un igualdad en que era “casi” un entero (la diferencia era de milmillonésimas). De hecho, durante un tiempo se llegó a sospechar que el número era efectivamente entero. No lo es, pero este hallazgo sirvió de base para la teoría de los “Cuasi enteros”. A veces nos tenemos que sorprender al comprobar hasta donde puede llegar la mente humana que, prácticamente de “la nada”, es capaz de sondear los misterios de la Naturaleza para dejarlos al descubierto ante nuestros asombros ojos que, se abren como platos ante tales maravillas.
Publica: emilio silvera
Dic
6
¡Una Singularidad! Extraño Objeto
por Emilio Silvera ~
Clasificado en Física ~
Comments (1)

![]()
El concepto mismo de “singularidad” desagradaba a la mayoría de los físicos, pues la idea de una densidad infinita se alejaba de toda comprensión. La naturaleza humana está mejor condicionada a percibir situaciones que se caracterizan por su finitud, cosas que podemos medir y pesar, y que están alojadas dentro de unos límites concretos; serán más grande o más pequeñas pero, todo tiene un comienzo y un final pero… infinito, es difícil de digerir. Además, en la singularidad, según resulta de las ecuaciones, ni existe el tiempo ni existe el espacio. Parece que se tratara de otro universo dentro de nuestro universo toda la región afectada por la singularidad que, eso sí, afecta de manera real al entorno donde está situada y además, no es pacífica, ya que se nutre de cuerpos estelares circundantes que atrae y engulle.
La complejidad que supone la idea de una singularidad, como he dicho en otras ocasiones, deben ser dejadas a la Metafísica, la rama de la Física que estudia la naturaleza de las cosas complejas como el Ser. la Existencia, el Ente, la causalidad, el Tiempo…

La noción de singularidad empezó a adquirir un mayor crédito cuando Robert Oppenheimer, junto a Hartlan S. Snyder, en el año 1.939 escribieron un artículo anexo de otro anterior de Oppenheimer sobre las estrellas de neutrones. En este último artículo, describió de manera magistral la conclusión de que una estrella con masa suficiente podía colapsarse bajo la acción de su propia gravedad hasta alcanzar un punto adimensional; con la demostración de las ecuaciones descritas en dicho artículo, la demostración quedó servida de forma irrefutable que una estrella lo suficientemente grande, llegado su final al consumir todo su combustible de fusión nuclear, continuaría comprimiéndose bajo su propia gravedad, más allá de los estados de enana blanca o de estrella de neutrones, para convertirse en una singularidad.

Los cálculos realizados por Oppenheimer y Snyder para la cantidad de masa que debía tener una estrella para terminar sus días como una singularidad estaban en los límites másicos de M =~ masa solar, estimación que fue corregida posteriormente por otros físicos teóricos que llegaron a la conclusión de que sólo sería posible que una estrella se transformara en singularidad, la que al abandonar su fase de gigante roja retiene una masa residual como menos de 2 – 3 masas solares.

La figura de la izquierda representa a la nube de polvo en colapso de Oppenhieimer y Snyder, que ilustra una superficie atrapada.
El modelo de Oppenhieimer y Snyder posee una superficie atrapada, que corresponde a una superficie cuya área se iOppenheimer y Snyder desarrollaron el primer ejemplo explícito de una solución a las ecuaciones de Einstein que describía de manera cierta a un agujero negro, al desarrollar el planteamiento de una nube de polvo colapsante. En su interior, existe una singularidad, pero no es visible desde el exterior, puesto que está rodeada de un horizonte de suceso que no deja que nadie se asome, la vea, y vuelva para contarlo. Lo que traspasa los límites del horizonte de sucesos, ha tomado el camino sin retorno. Su destino irreversible, la singularidad de la que pasará a formar parte.
Desde entonces, muchos han sido los físicos que se han especializado profundizando en las matemáticas relativas a los agujeros negros. John Wheeler (que los bautizó como agujeros negros), Roger Penrose, Stephen Hawking, Kip S. Thorne, Kerr y muchos otros nombres que ahora no recuerdo, han contribuido de manera muy notable al conocimiento de los agujeros negros, las cuestiones que de ellas se derivan y otras consecuencias de densidad, energía, gravedad, ondas gravitacionales, etc, que son deducidas a partir de estos fenómenos del cosmos.

Se afirma que las singularidades se encuentran rodeadas por un horizonte de sucesos, pero para un observador, en esencia, no puede ver nunca la singularidad desde el exterior. Específicamente implica que hay alguna región incapaz de enviar señales al infinito exterior. La limitación de esta región es el horizonte de sucesos, tras ella se encuentra atrapado el pasado y el infinito nulo futuro. Lo anterior nos hace distinguir que en esta frontera se deberían reunir las características siguientes:

- Debe ser una superficie nula donde es pareja, generada por geodésicas nulas;
- contiene una geodésica nula de futuro sin fin, que se origina a partir de cada punto en el que no es pareja, y que
- el área de secciones transversales espaciales jamás pueden disminuir a lo largo del tiempo.

Pueden existir agujeros negros supermasivos (de 105 masas solares) en los centros de las galaxias activas. En el otro extremo, mini agujeros negros con un radio de 10-10 m y masas similares a las de un asteroide pudieron haberse formado en las condiciones extremas que se dieron poco después delBig Bang. Diminutos agujeros negros podrían ser capaces de capturar partículas a su alrededor, formando el equivalente gravitatorio de los átomos.

Todo esto ha sido demostrado matemáticamente por Israel, 1.967; Carter, 1.971; Robinson, 1.975; y Hawking, 1.978 con límite futuro asintótico de tal espaciotiempo como el espaciotiempo de Kerr, lo que resulta notable, pues la métrica de Kerr es una hermosa y exacta formulación para las ecuaciones de vacío de Einstein y, como un tema que se relaciona con la entropía en los agujeros negros.
No resulta arriesgado afirmar que existen variables en las formas de las singularidades que, según las formuladas por Oppenheimer y su colaborador Snyder, después las de Kerr y más tarde otros, todas podrían existir como un mismo objeto que se presenta en distintas formas o maneras.
Ahora bien, para que un ente, un objeto o un observador pueda introducirse dentro de una singularidad como un agujero negro, en cualquiera que fuese su forma, tendría que traspasar el radio de Schwarzschild (las fronteras matemáticas del horizonte de sucesos), cuya velocidad de escape es igual a la de la luz, aunque esta tampoco puede salir de allí una vez atrapada dentro de los límites fronterizos determinados por el radio. Este radio de Schwarzschild puede ser calculado usándose la ecuación para la velocidad de escape:

Para el caso de fotones u objeto sin masa, tales como neutrinos, se sustituye la velocidad de escape por la de la luz c2. “En el modelo de Schrödinger se abandona la concepción de los electrones como esferas diminutas con carga que giran en torno al núcleo, … Es cierto que en mecánica cuántica quedan muchos enigmas por resolver. Pero hablando de objetos de grandes masas, veámos lo que tenemos que hacer para escapar de ellos.
Podemos escapar de la fuerza de gravedad de un planeta pero, de un A.N., será imposible.
La velocidad de escape está referida a la velocidad mínima requerida para escapar de un campo gravitacional. El objeto que escapa puede ser cualquier cosa, desde una molécula de gas a una nave espacial. Como antes he reflejado está dada por , donde G es la constante gravitacional, M es la masa del cuerpo y R es la distancia del objeto que escapa del centro del cuerpo del que pretende escapar (del núcleo). Un objeto que se mueva a velocidad menor a la de escape entra en una órbita elíptica; si se mueve a una velocidad exactamente igual a la de escape, sigue una órbita parabólica, y si el objeto supera la velocidad de escape, se mueve en una trayectoria hiperbólica.
Así hemos comprendido que, a mayor masa del cuerpo del que se pretende escapar, mayor será la velocidad que necesitamos para escapar de él. Veamos algunas:
|
Objeto |
Velocidad de escape |
| La Tierra |
………….11,18 Km/s |
| El Sol |
………….617,3 Km/s |
| Júpiter |
………….59,6 Km/s |
| Saturno |
………….35,6 Km/s |
| Venus |
………….10,36 Km/s |
| Agujero negro |
…….+ de 299.000 Km/s |
Como se ve en el cuadro anterior, cada objeto celeste, en función de su masa, tiene su propia velocidad de escape para que cualquier cosa pueda salir de su órbita y escapar de él.

La excepción está en el último ejemplo, la velocidad de escape necesaria para vencer la fuerza de atracción de un agujero negro que, siendo preciso superar la velocidad de la luz 299.792’458 Km/s, es algo que no está permitido, ya que todos sabemos que conforme determina la teoría de la relatividad especial de Einstein, la velocidad de la luz es la velocidad límite en nuestro universo; nada puede ir más rápido que la velocidad de la luz, entre otras razones porque el objeto sufriría la transformación de Lorentz y su masa sería infinita.
Podría continuar explicando otros aspectos que rodean a los agujeros negros, pero estimo que el objetivo que perseguía de hacer conocer lo que es un agujero negro y el origen del mismo, está sobradamente cumplido.
Existen aspectos del A.N. que influyen en el mundo cuántico, y, por ejemplo, el máximo radio que puede tener un agujero negro virtual está dado aproximadamente por
![]()
que equivale a unos 10-³³ centímetros. Esta distancia se conoce como longitud de Planck y es la única unidad de distancia que se puede construir con las tres constantes fundamentales de la naturaleza: G, h y c. La longitud de Planck es tan extremadamente pequeña (10²° veces menor que el radio de un electrón) que debe ser la distancia característica de otro nivel de la naturaleza, subyacente al mundo subatómico, donde rigen las leyes aún desconocidas de la gravedad cuántica.
Así como el océano presenta un aspecto liso e inmóvil cuando se observa desde una gran distancia, pero posee fuertes turbulencias y tormentas a escala humana, el espacio-tiempo parece “liso” y estático a gran escala, pero es extremadamente turbulento en el nivel de la longitud de Planck, donde los hoyos negros se forman y evaporan continuamente. En el mundo de Planck, las leyes de la física deben ser muy distintas de las que conocemos hasta ahora.
La estructura macroscópica del espacio-tiempo parece plana, pero éste debe ser extremadamente turbulento en el nivel de la escala de Planck. Escala en la que parece que entramos en otro mundo… ¡El de la mecánica cuántica! que se aleja de ese mundo cotidinao que conocemos en el que lo macroscópico predomina por todas partes y lo infinitesimal no se deja ver con el ojo desnudo.
¡Existen tantos secretos!
emilio silvera
Nov
30
¡La máquina de Higgs-Kibble! El Vacío superconductor
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)
“El Premio de la Sociedad de Física Americana (APS) para contribuciones a la Física de Partículas Teórica (J. J. Sakurai Prize for Theoretical Particle Physics) de 2010 le fue concedido a Carl R. Hagen (University of Rochester), Francois Englert (Universite Libre de Bruxelles), Gerald S. Guralnik (Brown University), Peter W. Higgs (University of Edinburgh), Robert Brout (Universite Libre de Bruxelles), y T.W.B. Kibble (Imperial College) por sus contribuciones al mecanismo de Higgs–Brout–Englert–Guralnik–Hagen–Kibble para explicar la ruptura espontánea de la simetría electrodébil, mecanismo normalmente abreviado a mecanismo de Higgs.”
(Brout fallecido en 2.011, también era acreedor al Nobel de Física de 2.013)
Como complemento del trabajo que se presenta hoy referido a la concesión del Nobel de Física de 2.013, aquí he recuperado éste trabajo que viene a explicar un poco, lo que antes de todo este jaleo del Higgs, habián hecho los físicos que ahora son premiados. Perdonad que lo expuesto sea algo complejo de comprender para algunos pero, hay veces que no se pueden evitar los guarismos, ecuaciones y signos que, en Física, es el lenguaje que suple a las palabras.
Investigación experimental
Higgs” />
En aquella fecha, el bosón de Higgs no ha sido observado experimentalmente, a pesar de los esfuerzos de los grandes laboratorios de investigación como el CERN o el Fermilab. La no observación de pruebas claras permite estimar un valor mínimo experimental de masa 114.4 GeV para el bosón de Higgs del modelo estándar, con un nivel de confianza del 95%.[6] Experimentalmente se ha registrado un pequeño número de eventos no concluyentes en el colisionador LEP en el CERN. Éstos han podido ser interpretados como resultados de los bosones de Higgs, pero la evidencia no es concluyente.[7] Se espera que el Gran Colisionador de Hadrones, ya construido en el CERN, pueda confirmar o desmentir la existencia de este bosón. El anillo de 27 km de circunferencia (llamado Large Hadron Collider) fue encendido el 10 de septiembre de 2008, como estaba previsto, pero un fallo en el sistema de enfriamiento que debe mantener los imanes a una temperatura aproximada de -271,3 °C detuvo el experimento, hasta el 20 de noviembre del 2009, fecha en que volvió a ser encendido, desde 450 GeV a 2.23 TeV. Pero fue apagado para realizar ajustes, y el 30 de marzo volvió a ser encendido, aunque a potencia de 7 TeV. Eso si, no será hasta 2016 cuando funcione a pleno rendimiento.
La búsqueda del bosón de Higgs es también el objetivo de ciertos experimentos del Tevatrón en el Fermilab

Los cuatro experimentos implicados en el resultado: CDF y DZero (Tevatron
Alternativas al mecanismo de Higgs para la ruptura espontánea de simetría electrodébil
Desde los años en los que fue propuesto el bosón de Higgs, han existido muchos mecanismos alternativos. Todas las otras alternativas usan una dinámica que interactúa fuertemente para producir un valor esperado del vacío que rompa la simetría electrodébil. Una lista parcial de esos mecanismos alternativos es:
Technicolor es la clase de modelo que intenta imitar la dinámica de la fuerza fuerte como camino para romper la simetría electrodébil.
El modelo de Abbott-Farhi de composición de los bosones de vectores W y Z.
Campo de Higgs

El Campo de Higgs es un campo cuántico, que, de acuerdo con una hipótesis del modelo estándar de física de partículas expuesta por el físico Peter Higgs, permearía el universo entero, y cuyo efecto sería que las partículas se comportaran como dotadas de masa, debido a la interacción asociada de partículas elementales, con el bosón de Higgs, cuya existencia aún no ha sido probada directamente y que por la interacción consigo mismo también “adquiriría” masa. Se espera que el Gran Colisionador de Hadrones sirva para probar las hipótesis de Higgs.
Mecanismo de Higgs

Dobletes de Higgs. Potencial de doble pozo en una teoría de campos con ruptura espontánea de simetría.
El mecanismo de Higgs, ideado por Peter Higgs entre otros, es uno de los mecanismos posibles para producir la ruptura espontánea de simetría electrodébil en una Teoría Gauge invariante. Permitió establecer, la unificación entre la teoría electromagnética y la teoría nuclear débil, que se denominó Teoría del campo unificado dando premio Nobel en año 1979 a Steven Weinberg, Sheldon Lee Glashow y Abdus Salam
Este mecanismo también es conocido como mecanismo de Brout–Englert–Higgs, mecanismo de Higgs–Brout–Englert–Guralnik–Hagen–Kibble, o mecanismo de Anderson–Higgs. En 1964, fue inicialmente propuesto por Robert Brout y François Englert, e independientemente por Peter Higgs y por Gerald Guralnik, C. R. Hagen, y Tom Kibble.Fue inspirado en la Teoría BCS de rompimiento de simetría en superconductividad basado en Teoría Ginzburg-Landau, los trabajos de la estructura del vacío de Yoichiro Nambu, y las ideas de Philip Anderson según las cuales la superconductividad podía ser relevante en la relatividad, el electromagnetismo y otros fenomenos clásicos. El nombre de mecanismo de Higgs fue dado por Gerardus ‘t Hooft en 1971. Los tres artículos originales de Guralnik, Hagen, Kibble, Higgs, Brout, y Englert en donde se propone este mecanismo fueron reconocidos como fundamentales en la celebración del aniversario 50 de la revista Physical Review Letters
Campos y partículas

La segunda mitad del siglo XX fue un tiempo de descubrimiento de nuevas partículas elementales, nuevas fuerzas y, sobre todo, nuevos campos. El espacio puede llenarse con una amplia variedad de influencias invisibles que tienen todo tipo de efectos sobre la materia ordinaria. De todos los nuevos campos que se descubrieron, el que tiene más que enseñarnos sobre el paisaje es el campo de Higgs. Existe una relación general entre partículas y campos. Por cada tipo de partícula de la naturaleza hay un campo y por cada tipo de campo hay una partícula. Así campos y partículas llevan el mismo nombre. El campo electromagnético podría denominarse campo de fotones. El electrón tiene un campo, también lo tienen el qua.rk, el gluón y cada miembro del reparto de personajes del modelo Standard, incluida la partícula de Higgs.
El campo de Higgs

En la concepción del Modelo estándar de física de partículas, el boson de Higgs así como otros bosones (encontrados ya experimentalmente) y ligados en esta teoría, se interpretan desde el Bosón de Goldstone donde cada parte del rompimiento de simetría genera un campo, para el cual los elementos que viven en este campo son sus respectivos bosones. Existen teorías creadas a partir del miedo de la no existencia del boson de Higgs donde no es necesaria su aparición. El campo de Higgs es el ente matemático donde existe, su interpretación con la teoría es el producto de él con los otros campos que sale por el mecanismo de ruptura, este producto nos da el acople y la interacción de él, con esta interacción con los otros campos legamos la caracteristica de generador de masa.
Me resistía pero…Formulación matemática
Introducimos un campo adicional ? que rompa la simetría SU(2)L × U(1)Y ? U(1)em. Debido a las condiciones que se exigen a la teoría será un doblete (de SU(2)L) de campos escalares complejos (doblete de Higgs):
![]()
Dobletes de Higgs
![]()
El número total de entradas (número dimensional del vector) de Higgs no está determinado por la teoría y podría ser cualquiera. No obstante la versión mínima del SM posee uno solo de estos dobletes.
El sistema vendrá entonces descrito por un Lagrangiano de la forma:
![]()
tal que:
![]()
donde V(phi) es el potencial renormalizable (y por tanto que mantiene la invarianza gauge) más sencillo. Para que se produzca ruptura espontánea de simetría es necesario que el valor esperado del campo de Higgs en el vacío sea no nulo. Para lambda mayor que 0, si mu 2 menor que 0, el potencial posee infinitas soluciones no nulas (ver figura 1), en las cuales sólo la norma del campo de Higgs está definida:
![]()
Estado fundamental
El estado fundamental está, por consiguiente, degenerado y no respeta la simetría del grupo SU(2)L × U(1)Y. Sin embargo, sí conserva la simetría del grupo U(1)em. El valor de cup ? indica la escala de energía a la que se produce la ruptura de la simetría electrodébil. La ruptura SU(2)L × U(1)Y Phi U(1)em se produce cuando se selecciona un estado del vacío concreto. La elección habitual es aquella que hace que Phi 3 sea no nulo:
![]()
Espectro de partículas

Enormes energías para poder profundizar tanto en el conocimiento de lo muy pequeño
El espectro de partículas físicas resultantes se construye realizando pequeñas oscilaciones en torno al vacío, que pueden ser parametrizadas en la forma:
![]()
donde el vector
y el escalar h(x) son campos pequeños correspondientes a los cuatro grados de libertad reales del campo . Los tres campos
son los bosones de Goldstone, de masa nula, que aparecen cuando una simetría continua es rota por el estado fundamental (teorema de Goldstone).
En este punto aún tenemos 4 bosones gauge (Wi?(x) y B?(x)) y 4 escalares (
y h(x)), todos ellos sin masa, lo que equivale a 12 grados de libertad (Conviene notar que un bosón vectorial de masa nula posee dos grados de libertad, mientras que un bosón vectorial masivo adquiere un nuevo grado de libertad debido a la posibilidad de tener polarización longitudinal: 12 = 4[bosones vectoriales sin masa] × 2 + 4[escalares sin masa]). P. W. Higgs fue el primero en darse cuenta de que el teorema de Goldstone no es aplicable a teorías gauge, o al menos puede ser soslayado mediante una conveniente selección de la representación. Así, basta con escoger una transformación:
![]()
de forma que:

con lo cual desaparecen los tres campos de Higgs no físicos
. Debemos aplicar estas transformaciones sobre la suma de las Lagrangianas para bosones y fermiones:
![]()
Al final del proceso, tres de los cuatro bosones gauge adquieren masa al absorber cada uno de los tres grados de libertad eliminados del campo de Higgs, gracias a los acoplamientos entre los bosones gauge y el campo Phi presentes en la componente cinética de la Lagrangiana SBS:
![]()
Por otro lado, el vacío de la teoría debe ser eléctricamente neutro, razón por la que no existe ningún acoplamiento entre el fotón y el campo de Higgs, h(x), de forma que aquél mantiene una masa nula. Al final, obtenemos tres bosones gauge masivos (W±?, Zµ), un bosón gauge sin masa (A?) y un escalar con masa (h), por lo que seguimos teniendo 12 grados de libertad (del mismo modo que antes: 12 = 3[bosones vectoriales masivos] × 3 + 1[bosón vectorial sin masa] × 2 + 1[escalar]). Los estados físicos de los bosones gauge se expresan entonces en función de los estados originales y del ángulo de mezcla electrodébil ?W:

Ángulo de mezcla
El ángulo de mezcla ?W, se define en función de las constantes de acoplamiento débil, g, y electromagnética, g´, según:
![]()
Las predicciones de las masas de los bosones a nivel de árbol son:

donde (e es la carga eléctrica del electrón):
![]()
Masa del bosón de Higgs
No creo que Homer Simpson predijera la masa del Higgs
La masa del bosón de Higgs se expresa en función de ? y del valor de la escala de ruptura de simetría, ?, como:
![]()
La medida de la anchura parcial de la desintegración:
![]()
a bajas energías en el SM permite calcular la constante de Fermi, GF, con gran precisión. Y puesto que:
![]()
se obtiene un valor de ? = 246 GeV. No obstante el valor de ? es desconocido y por tanto la masa del bosón de Higgs en el SM es un parámetro libre de la teoría.
Bosones gauge y fermiones

Análogamente al caso de los bosones gauge, los fermiones adquieren masa mediante los denominados acoplamientos de Yukawa, que se introducen a través de una serie de nuevos términos en la Lagrangiana:
![]()
donde:

Del mismo modo que antes, se aplica la transformación sobre la parte levógira de los fermiones, mientras que la parte dextrógira no se transforma:
![]()
![]()
Y finalmente se obtienen las masas de los fermiones según:

Es conveniente hacer notar en este punto, que la determinación de la masa del bosón de Higgs, no explica directamente las masas fermiónicas ya que dependen de las nuevas constantes ?e, ?u, ?d, … Por otro lado, se deduce también el valor de los acoplamientos del bosón de Higgs con los distintos fermiones y bosones, los cuales son proporcionales a las constantes de acoplamiento gauge y a la masa de cada partícula.
Ya tendremos más sobre el tema
















Totales: 87.166.718
Conectados: 58
























