miércoles, 15 de abril del 2026 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




De lo pequeño a lo grande y, conocer la Naturaleza…¡No será...

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 
Cómo pegar un puñetazo: zona de contacto y alineamiento de la muñeca | A  base de golpes
“Una formulación muy hermosa que, creo, procede de América es la siguiente: alguien que ha golpeado a otro afirma que sólo ha movido sus puños libremente; el juez, sin embargo, replica: «La libertad de movimiento de tus puños está limitada por la nariz de tu vecino».

 

Imagen relacionada

 

Debido al principio de exclusión de Pauli, es imposible que dos fermiones ocupen el mismo cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental explicar el fenómeno de la super-fluidez. A temperaturas muy bajas (del orden de 2×10-7º K) se formar un condensado de Bose-Einstein, en el que varios miles de átomos forman una única entidad (un super-átomo). efecto ha sido observado con átomos de rubidio y litio. Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.

 

http://www.mpe.mpg.de/410729/orbits3d_small_gif.gif

 

 

Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de ésta teoría en vez de las de la mecánica clásica.  En estadística cuantica, los estados de energía se considera que están cuantizados.  La estadística de Bose-Einstein se aplica si cualquier de partículas puede ocupar un estado cuántico dado. Dichas partículas (como dije antes) son los bosones que, tienden a juntarse.

Los bosones tienen un angular n h / 2p, donde n es cero o un entero y h es la constante de Planck.  bosones idénticos, la función de ondas es siempre simétrica.  Si solo una partícula puede ocupar un cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n+½) h/2p y cualquier función de ondas de fermionesidénticos es siempre antisimétrica.

 

 

http://farm5.static.flickr.com/4140/4745204958_afd02b2486.jpg

 

La mejor teoría explicar el mundo subatómico nació en 1928 cuando el teórico Paul Dirac combinó la mecánica cuántica con la relatividad especial para explicar el comportamiento del electrón. El resultado fue la mecánica cuántica relativista, que se transformó en un ingrediente primario en la teoría cuántica de campos. Con unas pocas suposiciones y ajustes ad-hoc, la teoría cuántica de campos ha probado ser suficientemente poderosa para formar la base del modelo estándar de las partículas y las fuerzas.

 

 

La relación el espín y la estadística de las partículas está demostrada por el teorema espín-estadística. En un espacio de dos dimensiones es posible que existan partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones.  Estas partículas se conocen con el de aiones; para aniones idénticos la función de ondas no es simétrica (un cambio de fase de+1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1.  Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.

 

 

 

 

Resulta  fácil comprender cómo  un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula.

Nuevas medidas de la vida media del neutrón y de la carga débil del protón  - La Ciencia de la Mula Francis

Particularmente creo que, si el neutrón masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es materia. La materia es la luz, la energía, el magnetismo, en definitiva, la fuerza que reina en el universo y que está presente de una u otra forma en todas partes (aunque no podamos verla).

Sea fuere, la rotación del neutrón nos da la respuesta a esas preguntas:

 

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965

¿Qué es el antineutrón? Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo. En realidad, el protón y el antiprotón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos. Es indudable que las antipartículas pueden combinarse para formar la antimateria, de la misma que las partículas corrientes forman la materia ordinaria.

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un anti-deuterón. entonces se ha producido el antihelio 3, y no cabe duda de que se podría crear otros anti-núcleos más complicados aún si se abordara el problema con más interés.

Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el universo? Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente. Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro. Así pues, los astrónomos observan especulativamente las galaxias, tratar de encontrar alguna actividad inusual que delate interacciones materia-antimateria.

…, ¿Hay masas de antimateria en el Universo? ¿Galaxias de antimateria?

 

 

Bueno, sabemos que no son las galaxias las que se alejan, sino que es el espacio el que se expande. Lo que no sabemos es encontrar antimateria en el espacio interestelar y, si la hay y está presente… ¡Aún no la hemos podido localizar! Algunos dicen que hay galaxias de antimateria y, yo digo que tengo un pariente en la galaxia Astrinia del cúmulo Ultramón a diez mil millones de años-luz de nuestra región.

No parece que dichas observaciones, al menos hasta el , hayan sido un éxito.

 

 

http://upload.wikimedia.org/wikipedia/commons/b/b9/Cosmological_composition.jpg

 

Según estimaciones recientes, resumidas en gráfico de la NASA, alrededor del 70% del contenido energético del Universo consiste en energía oscura, cuya presencia se infiere en su efecto sobre la expansión del Universo pero sobre cuya naturaleza última no se sabe casi nada.

¿Es posible que el Universo este formado casi enteramente por materia, con muy poca o ninguna antimateria? Y si es así, ¿por qué? dado que la materia y la antimateria son equivalentes en todos los aspectos, excepto en su oposición electromagnética, cualquier fuerza que crease una originaria la otra, y el Universo debería estar compuesta de iguales cantidades de la una y de la otra.

 

 

Este es el dilema.  La teoría nos dice que debería haber allí antimateria, pero las observaciones lo niegan, no lo respaldan. ¿Es la observación la que falla? ¿Y qué ocurre con los núcleos de las galaxias activas, e incluso más aún, con los causares? ¿Deberían ser estos fenómenos energéticos el resultado de una aniquilación materia-antimateria? ¡No creo! Ni siquiera ese aniquilamiento parece ser suficiente, y los astrónomos prefieren aceptar la noción de colapso gravitatorio y fenómenos de agujeros negros como el único mecanismo conocido para producir la energía requerida.

Estábamos hablando de mecánica cuántica y me pasé, sin que me diera , al ámbito de la antimateria y el espacio del macro universo de las galaxias. Sin embargo, y aunque parezcan temas dispares, lo cierto es que, a medida que profundizamos en estas cuestiones, todas nos llevan, de una u otra manera,  a relacionar el “mundo de lo muy pequeño” con el “mundo” de lo muy grande que, al fín y al cabo, está hecho de lo que existe en el primero, es decir, partículas infinitesimales de materia y… ¡de antimateria! para que todo quede compensado.

 

 

Sus dimensiones y masa le permiten ¡lo imposible! para nosotros. La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos fuerza de Van der Vaalls. esta fuerza tiene un alcance muy corto. para ser más precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente proporcional a 1/r7. Esto significa  que si se reduce la distancia entre dos átomos a la mitad, la fuerza de Van der Vaalls con la que se atraen uno a otro se hace 2 x 2 x 2 x 2 x 2 x 2 x 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza.

La mecánica cuántica domina en el micro-mundo de los átomos y de las partículas “elementales”. Nos enseña que en la naturaleza cualquier masa, por sólida o puntual que pueda parecer, tiene un aspecto ondulatorio. Esta onda no es como una onda de agua. Se parece más a una ola de histeria que se expande: es una onda de información. Nos indica la probabilidad de detectar una partícula. La longitud de onda de una partícula, la longitud cuántica, se hace menor cuanto mayor es la masa de esa partícula.

 

 

Por el contrario, la relatividad general era siempre necesaria cuando se trataba con situaciones donde algo viaja a la velocidad de la luz, o está muy cerca o donde la gravedad es muy intensa. Se utiliza para describir la expansión del universo o el comportamiento en situaciones extremas, como la formación de agujeros negros.

 

 El gluón es una partícula subatómica fundamental que actúa como mediador  de la fuerza nuclear fuerte, una de las cuatro fuerzas fundamentales de la  naturaleza. Esta fuerza es la responsable de

     La fuerza nuclear fuerte es la más potente del Universo. Mantiene a los Quarks cinfinados

Sin embargo, la gravedad es muy débil comparada con las fuerzas que unen átomos y moléculas y demasiado débil para tener cualquier efecto sobre la estructura del átomo o de partículas subatómicas, se trata con masas tan insignificantes que la incidencia gravitatoria es despreciable. Todo lo contrario que ocurre en presencia de masas considerables como planetas, estrellas y galaxias, donde la presencia de la gravitación curva el espacio y distorsiona el tiempo.

Como resultado de estas propiedades antagónicas, la teoría cuántica y la teoría relativista gobiernan reinos diferentes, muy dispares, en el universo de lo muy pequeño o en el universo de lo muy grande. Nadie ha encontrado la manera de unir, sin fisuras, estas dos teorías en una sola y nueva de Gravedad-Cuántica.

Resultado de imagen de Unidades de Planck - Stoney

¿Cuáles son los límites de la teoría cuántica y de la teoría de la relatividad general de Einstein? Afortunadamente, hay una respuesta simple y las unidades de Planck nos dicen cuales son. En realidad, es la propia Naturaleza la que marca esos límites que Stoney-Planck, supieron plasmar en ecuaciones que los marcan.

 

46 - Curso de Relatividad General [Agujero de Gusano de Einstein-Rosen] -  YouTube

 

Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de onda cuántica. Podemos preguntarnos en qué momento esta longitud de onda cuántica del universo visible superará su tamaño.  La respuesta es: cuando el universo sea más pequeño en tamaño que la longitud de Planck, es decir, 10-33 de centímetros, más joven que el tiempo de Planck,  10-43 segundos y supere la temperatura de Planck de 1032 grados.  Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender en que se parece el mundo a una escala menor que la longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la gravedad. Para entender lo que podría haber sucedido cerca del suceso que estamos tentados a llamar el principio del universo, o el comienzo del tiempo, tenemos que penetrar la barrera de Planck. Las constantes de la naturaleza marcan las fronteras de nuestro conocimiento existente y nos dejan al descubierto los límites de nuestras teorías.

 

 

En los intentos más recientes de crear una teoría nueva para describir la naturaleza cuántica de la gravedad ha emergido un nuevo significado para las unidades naturales de Planck. Parece que el concepto al que llamamos “información” tiene un profundo significado en el universo. Estamos habituados a vivir en lo que llamamos “la edad de la información”.  La información puede ser empaquetada en formas electrónicas, enviadas rápidamente y recibidas con más facilidad que nunca antes. Nuestra evolución en el proceso rápido y barato de la información se suele mostrar en una forma que nos permite comprobar la predicción de Gordon Moore, el fundador de Intel, llamada ley de Moore, en la que, en 1.965, advirtió que el área de un transistor se dividía por dos aproximadamente cada 12 meses. En 1.975 revisó su tiempo de reducción a la mitad hasta situarlo en 24 meses. Esta es “la ley de Moore” cada 24 meses se obtiene una circuitería de ordenador aproximadamente el doble, que corre a velocidad doble, por el mismo precio, ya que, el coste integrado del circuito viene a ser el mismo, constante.

Los objetos más extraños del Universo que aún no sabemos qué son9 Objetos sorprendentes descubiertos en el espacio / GenialObjetos extraños del universo: Explorando lo desconocido

El Universo esconde muchos secretos

Siempre hemos tratado de buscar información del Universo para saber de nuestro entorno, de nuestro Sistema solar, de nuestra Galaxias, de las galaxias lejanas, y, de las mismas estrellas que alumbran los mundos y permite la vida con su luz y su calor. Hemos llegado a saber que somos “polvo de estrellas”, que los materiales que nos conforman están “fabricados” en sus “hornos nucleares”, la fusión crea elementos que, más tarde, forman parte de los mundos y de los seres vivos.

 

Viaje espacial en bucle de 4k 60 fps con hipervelocidad. un haz de  estrellas en el universo mientras se mueve a la velocidad de la luz. fondo  cósmico creativo abstracto. Hipersalto a otra galaxia. ...

 

La velocidad de la luz en el vacío es por definición una constante universal de valor 299.792.458 m/s(suele aproximarse a 3·108 m/s), o lo que es lo mismo 9,46·1015 m/año; la segunda cifra es la usada para definir al intervalo llamado año luz. La información se transmitirá a esa velocidad como máximo, nuestro Universo, no permite mayor rapidez, al menos, por los métodos convencionales.

Los límites últimos que podemos esperar para el almacenamiento y los ritmos de procesamiento de la información están impuestos por las constantes de la naturaleza. En 1.981, el físico israelí, Jacob Bekenstein, hizo una predicción inusual que estaba inspirada en su estudio de los agujeros negros.  Calculó que hay una cantidad máxima de información que puede almacenarse dentro de cualquier volumen. Esto no debería sorprendernos.

\ell_P =\sqrt\frac{\hbar G}{c^3} \approx 1.616 199 (97) \times 10^{-35} \mbox{ metros} (Longitud de Planck que al cuadrado sería de 10-66 cm2)

Lo que debería hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen. El número máximo de bits de información que puede almacenarse en un volumen viene dado precisamente por el cómputo de su área superficial en unidades de Planck. Supongamos que la región es esférica. Entonces su área superficial es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud de Planck al cuadrado, 10-66 cm2.  Esto es muchísimo mayor que cualquier capacidad de almacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de información que viene impuesto por las constantes de la naturaleza.

 

George Johnstone Stoney - Wikipedia, la enciclopedia libreMax Planck - Wikipedia, la enciclopedia libre

                       Stoney                                                    Planck

No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, desde el mundo de las partículas elementales hasta las más grandes estructuras astronómicas.  Este fenómeno se puede representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias.

 

 

Todas las estructuras del universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón

 

NeoFronteras » Una posible solución al problema de los 120 órdenes de  magnitud - Portada -Constantes universales : Blog de Emilio Silvera V.

“Tras medir alfa en unas 300 galaxias lejanas, vimos un patrón constante: este número, que nos dice la fuerza del electromagnetismo, no es igual en otras partes que en la Tierra, y parecer variar de forma continua a lo largo de un eje”. Algunos se empeñan en variar la constante de estructura fina y, si eso llegara a producirse… las consecuencias serían funestas para nosotros. Otros estudios nos dicen que esa constante, no ha variado a lo largo de los miles de millones de años del Universo y, así debe ser, o, si varió, lo hizo en una escala ínfima.

α = 2πehc ≈ 1/137

αG = (Gmp2)/ hc ≈ 10-38

Si varian algunas de las dos en sólo una diezmillonésima, muchas de las cosas que conforman el Universo serían imposible y, la consecuencia sería, la ausencia de vida.  La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad puede tener un papel en el mundo a pequeña escala.  La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.

 

La importancia de las constantes universales : Blog de Emilio Silvera V.

 

Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck).  Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

“Todos los físicos del mundo, deberían tener un letrero en el lugar más visible de sus casas, para que al mirarlo, les recordara lo que no saben. En el cartel sólo pondría esto: 137. Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina”

 

ENIGMAS. Desvelando el misterio del "número mágico" 137: por qué este número  es tan importante | La Crónica del Henares137 é un numero MAGICO!

 

Este número guarda relación con la posibilidad de que un electrón emita un fotón o lo absorba. La constante de estructura fina responde también al nombre de “alfa” y sale de dividir el cuadrado de la carga del electrón, por el producto de la velocidad de la luz y la constante de Planck. Tanta palabrería y numerología no significan otra cosa sino que ese solo numero, 137, encierra los misterios del electromagnetismo (el electrón, e), la relatividad (la velocidad de la luz, c), y la teoría cuántica (la constante de Planck, h).

 

 

Todo eso está relacionado: leyes fundamentales, constantes, materia y espacio tiempo… ¡nosotros! Es posible (digo posible), que finalmente no seamos ni tanto ni tan poco como a veces creemos. Dejemos en un término medio nuestra valía en el contexto del Universo, aunque, poder crear ideas y pensamientos… ¡No es cosa baladí!

Emilio Silvera V.

Nuestra Imaginación es mucho más rçapida que la luz

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 

Una de las verdades perdidas en la noche de los Tiempos… ¡Es la ATLANTIDA!

 

Pero veamos si la imaginación es más rápida que la luz.

Primeras imágenes de Marte en 3D: Publican video del planeta hecho por la cámara estéreo

        ¿Cuántas veces habré “visitado” Marte con la Imaginación?

Pero bajemos hasta la realidad y pongamos los pies en el suelo, veamos que cosas pasan por aquí, en nuestro mundo real que, a veces, también resultan tan fantásticas como viajar a Marte con el pensamiento.

 

La misión de la NASA Gravity Probe confirma dos teorías de Einstein

 

Satélite Gravity Probe B. Dedicado a medir la curvatura del campo gravitatorio terrestre debido a la teoría de la relatividad de Einstein. La gravedad ha sido medida y comprobada de muchas maneras pero… ¡Gravedad cuántica! ¿qué es eso? La imaginación anda más rápida que los conocimientos. Sin embargo, así hemos ido avanzando en el transcurrir del Tiempo. Hace algunos miles de años algunos imaginaron la existencia del átomo y de los elementos y, ya sabéis lo que de esas cuestiones sabemos hoy.

 

Gravedad cuántica

 

La llamada gravedad cuántica trata de fundir en una sola las dos teorías físicas más soberbias con las que contamos, la relatividad general y la mecánica cuántica, que en el estado actual de nuestro conocimiento parecen incompatibles. Su estudio, ahora mismo, es en algunos aspectos análogo a la física de hace cien años, cuando se creía en los átomos, pero se ignaraban los detalles de su estructura.

Desde aquel día en que Kaluza, le escribió a Einstein una carta con su teoría de las cinco dimensiones, en la que unía la Gravedad con el Electromagnetismo, la puerta de las dimensiones más altas quedó abierta y a los teóricos se les regaló una herramienta maravillosa: el hiperespacio; todo es posible. Hasta el matrimonio de la relatividad general y la mecánica cuántica, allí sí es posible encontrar esa soñada teoría de la gravedad cuántica.

Así que las teorías se han embarcado a la búsqueda de un objeto audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intenso calor del universo en sus primeros tiempos; una teoría carente de parámetros, donde estén presentes todas las respuestas. Todo debe ser contestado a partir de una ecuación básica.

 

La imagen más completa del universo (incluida una estrella ...

 

Claro que saber, lo que el universo es, leyendo una ecuación, por muy ingeniosa que ésta sea y por mucho que la misma pueda abarcar… Parece poco probable. ¿Dónde radica el problema? El problema está en que la única teoría candidata no tiene conexión directa con el mundo de la observación, o no lo tiene todavía si queremos expresarnos con propiedad. La energía necesaria para ello, no la tiene ni el nuevo acelerador de partículas LHC, la máquina más potente del mundo hasta el momento.

La verdad es que la teoría que ahora tenemos, el modelo estándar, concuerda de manera exacta con todos los datos a bajas energías y contesta cosas sin sentido a altas energías. ¡Necesitamos algo más avanzado!

 

 

A pesar de su grandeza, se queda corto para que nos pueda decir, lo que necesitamos saber: Si nos habló del Bosón de Higgs, por el momento no está nada mal, y, ahora, en su nueva etapa, seguramente nos dará alguna sorpresa y nos puede desvelar algún que otro secreto de la materia, del universo que presentimos y no podemos ver.

Se dijo  que la función de la partícula de Higgs era la de dar masa a las partículas que carecen de ella, disfrazando así la verdadera simetría del mundo. Cuando su autor lanzó la idea a la comunidad científica, resultó además de nueva, muy extraña. El secreto de todo radica en conseguir la simplicidad: el átomo resultó ser complejo, lleno de esas infinitesimales partículas electromagnéticas que bautizamos con el nombre de electrones, y, el núcleo, una parte entre cien mil del total del átomo, resultó ser de una complejidad asombrosa. Allí los nucleones (protones y neutrones) resultaron estar hechos por tripletes de Quarks que, confinados por la fuerza nuclear fuerte, eran rtenidos por los Gluones, los Bosones transmisores de esa fuerza de la naturaleza.  Así que un núcleo que contenía, a pesar de ser tan pequeño, casi toda la masa del átomo, cuando fue descubierto en todo su contenido, fue motivo de un gran asombro entre la comunidad científica. El núcleo, tan pequeño, estaba compuesto de otros objetos más pequeños aún; los quarks que estaban instalados en nubes de otras partículas llamadas gluones, y ahora queremos continuar profundizando, sospechando que después de los quarks puede haber algo más.

 

Nos dicen que existen lugares que llaman los Océanos de Higgs, y, por ellos, circula libremente el dichoso Bosón que, también según nos dicen, proporciona la masa al resto de las partículas. Todo el Universo está permeado por esa especie de sustancia -como el viejo éter- que los griegos llamaban Ilem cósmico y que, a medida que el tiempo avanza, le vamos cambiando el nombre. Pues bien, ahí, en ese “océano” dicen que está el Bosón dador de masas que según parece, descubrieron hace un par de años.

Bueno, la idea nueva que surgió es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes, es decir, que si miramos a las estrellas en una noche clara, estamos mirando el campo de Higgs. Las partículas influidas por este campo toman masa. Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que hemos comentado otras veces, tales como: del campo gravitatorio o del electromagnético.

 

 

Si llevamos un bloque de plomo a lo alto de la Torre Eiffel, el bloque adquirirá energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra. Como E = mc2, ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del sistema Tierra-bloque de plomo. Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein: la masa, m, tiene en realidad dos partes; una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo. La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el acelerador de partículas, o los muones, que aumentan varias veces su masa cuando son lanzados a velocidades cercanas a c) en los aceleradores, o en virtud de su energía potencial de campo. Vemos una dinámica similar en los núcleos atómicos. Por ejemplo, si separamos el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.

 

 

Pero la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo. Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas. Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan estas al campo de Higgs cuando interaccionan con él.

La influencia de Higgs en las masas de los quarks y de los leptones nos recuerda el descubrimiento por Pieter Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo. El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.

 

 

Hasta ahora no tenemos ni idea de qué reglas controlan los incrementos de masa generados por Higgs (de ahí la expectación creada -en su momento- por el nuevo acelerador de partículas LHC), pero el problema es irritante: ¿por qué sólo esas masas ­­- las masas de los W+, W, Z0, y el up, down, encanto, extraño, top y bottom, así como los leptones – que no forman ningún patrón obvio?

Las masas van desde la del electrón (0’0005 GeV) a la del top, que tiene que ser mayor que 91 GeV. Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electrodébil (Weinberg-Salam). Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnética y débil. En la unidad hay cuatro partículas mensajeras sin masa – los W+, W, Z0 y el fotón – que llevan la fuerza electrodébil. Además está el campo de Higgs, y rápidamente, los W y Z absorben la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébil se fragmenta en la débil (débil porque los mensajeros son muy gordos), y la electromagnética, cuyas propiedades determina el fotón, carente de masa. La simetría se rompe espontáneamente, dicen las teorías. Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa.

 

Finalmente todo está hecho de Quarks y Leptones ayudado por los Bosones

“En la actualidad, prácticamente todos los fenómenos subatómicos conocidos son explicados mediante el modelo estándar, una teoría ampliamente aceptada sobre las partículas elementales y las fuerzas entre ellas. Sin embargo, en la década de 1960, cuando dicho modelo aún se estaba desarrollando, se observaba una contradicción aparente entre dos fenómenos. Por un lado, la fuerza nuclear débil entre partículas subatómicas podía explicarse mediante leyes similares a las del electromagnetismo (en su versión cuántica). Dichas leyes implican que las partículas que actúen como intermediarias de la interacción, como el fotón en el caso del electromagnetismo y las partículas W y Z en el caso de la fuerza débil, deben ser no masivas. Sin embargo, sobre la base de los datos experimentales, los bosones W y Z, que entonces sólo eran una hipótesis, debían ser masivos.

En 1964, tres grupos de físicos publicaron de manera independiente una solución a este problema, que reconciliaba dichas leyes con la presencia de la masa. Esta solución, denominada posteriormente mecanismo de Higgs, explica la masa como el resultado de la interacción de las partículas con un campo que permea el vacío, denominado campo de Higgs. El modelo estándar quedó finalmente constituido haciendo uso de este mecanismo.”

 

“¿Qué hace que el bosón de Higgs sea una partícula especial? No, no es que un editor le pusiera un título llamativo a la biografía del premio Nobel Leon Lederman. Tampoco lo es que encontrar esta partícula nos permita entender la condensación del campo de Higgs que llevó a que las partículas ganaran masa. Incluso en las teorías sin Higgs o con un Higgs compuesto, la condensación del campo de Higgs y el proceso de ruptura espontánea de la simetría se da igualmente y de forma muy similar (pues hay muchas pruebas indirectas de este fenómeno).

Tampoco el Higgs es una partícula especial porque sea una excitación del del campo de Higgs que nos permita explorar sus propiedades, porque en las teorías sin Higgs o con Higgs compuesto también hay excitaciones del vacío que nos permiten explorar el campo.” Eso nos dicen en el magnifico Blog de Francis (th)E mule Science’s News.

Partícula Símbolo Masa (en GeV/c2) Carga eléctrica Espín Interacción
Fotón \ \gamma 0 0 1 electromagnética
Bosón W W± 80,4 ± 1 1 débil
Bosón Z Z0 91,187 0 1 débil
Gluón g 0 0 1 fuerte

 

Las masas de los W y Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil, y las relajadas sonrisas de los físicos teóricos nos recuerdan que Hooft y Veltman dejaron sentado que la teoría entera está libre de infinitos.

Todos los intentos y los esfuerzos por hallar una pista de cuál era el origen de la masa fallaron. Feynman escribió su famosa pregunta: “¿por qué pesa el muón?”. Ahora, por lo menos, tenemos una respuesta parcial, en absoluto completa. Una voz potente y segura nos dice “¡Higgs!”. Durante más de sesenta años los físicos experimentadores se rompieron la cabeza con el origen de la masa, y ahora el campo de Higgs presenta el problema en un contexto nuevo; no se trata sólo del muón. Proporciona, por lo menos, una fuente común para todas las masas. La nueva pregunta feynmaniana podría ser: ¿cómo determina el campo de Higgs la secuencia de masas, aparentemente sin patrón, que da a las partículas de la materia?

La variación de la masa con el estado de movimiento, el cambio de masa con la configuración del sistema y el que algunas partículas (el fotón seguramente, y los neutrinos posiblemente) tengan masa en reposo nula son tres hechos que ponen en entredicho que el concepto de masa sea un atributo fundamental de la materia. Habrá que recordar aquel cálculo de la masa que daba infinito y nunca pudimos resolver; los físicos sólo se deshicieron de él “re-normalizando”, ese truco matemático que empleam cuando no saben hacerlo bien.

 

                      ¿Sabremos alguna vez cómo adquieren masa las partículas?

Ese es el problema de trasfondo con el que tenemos que encarar el problema de los quarks, los leptones y los vehículos de las fuerzas, que se diferencian por sus masas. Hace que la historia de Higgs se tenga en pie: la masa no es una propiedad intrínseca de las partículas, sino una propiedad adquirida por la interacción de las partículas y su entorno.

La idea de que la masa no es intrínseca como la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en la que los espines estarían asociados para siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.

 

 

Una cosa más; hemos hablado de los bosones gauge y de su espín de una unidad. Hemos comentado también las partículas fermiónicas de la materia (espín de media unidad). ¿Cuál es el pelaje de Higgs? Es un bosón de espín cero. El espín supone una direccionalidad en el espacio, pero el campo de Higgs da masa a los objetos donde quiera que estén y sin direccionalidad. Al Higgs se le llama a veces “bosón escalar” (sin dirección) por esa razón.

La interacción débil, recordaréis, fue inventada por E. Fermi para describir la desintegración radiactiva de los núcleos, que era básicamente un fenómeno de poca energía, y a medida que la teoría de Fermi se desarrolló, llegó a ser muy precisa a la hora de predecir un enorme número de procesos en el dominio de energía de los 100 MeV. Así que ahora, con las nuevas tecnologías y energías del LHC, las esperanzas son enormes para, por fin, encontrar nuevas partículas que puedan despejar algunos interrogantes.

 

Recuerdo cuando andaban a la caza del Bosón de Higgs y decían “Pero todavía hay que responder montones de preguntas: ¿cuáles son las propiedades de las partículas de Higgs? y, lo que es más importante, ¿cuál es su masa? (Bueno, parece que, en el último experimento apareció se localizó un bosón con ~125 GeV que, según parece, podría ser el esquivo Hihhs)¿Cómo reconoceremos una si nos la encontramos en una colisión del LHC? ¿Cuántos tipos hay? ¿Genera el Higgs todas las masas o sólo las hace incrementarse? ¿Cómo podemos saber más al respecto? Cómo es su partícula, nos cabe esperar que la veremos ahora después de gastar más de 50.000 millones de euros en los elementos necesarios para ello.”

También a los cosmólogos les fascina la idea de Higgs, pues casi se dieron de bruces con la necesidad de tener campos escalares que participasen en el complejo proceso de la expansión del universo, añadiendo pues, un peso más a la carga que ha de soportar el Higgs.

El campo de Higgs, tal como se lo concibe ahora, se puede destruir con una energía grande, o temperaturas altas. Éstas generan fluctuaciones cuánticas que neutralizan el campo de Higgs. Por lo tanto, el cuado que las partículas y la cosmología pintan juntas de un universo primitivo puro y de resplandeciente simetría es demasiado caliente para Higgs. Pero cuando la temperatura cae bajo los 10-5 grados Kelvin o 100 GeV, el Higgs empieza a actuar y hace su generación de masas. Así, por ejemplo, antes del Higgs teníamos unos W, Z y fotones sin masa y la fuerza electrodébil unificada.

 

              No, esto no es el Higgs, es, simplemente, una burbuja multicolor

El universo se expande y se enfría, y entonces viene el Higgs (que “engorda” los W y Z, y por alguna razón ignora el fotón) y de ello resulta que la simetría electrodébil se rompe. Tenemos entonces una interacción débil, transportada por los vehículos de la fuerza W+, W, Z0, y por otra parte una interacción electromagnética, llevada por los fotones. Es como si para algunas partículas del campo de Higgs fuera una especie de aceite pesado a través del que se moviera con dificultad y que les hiciera parecer que tienen mucha masa.  Para otras partículas, el Higgs es como el agua, y para otras, los fotones y quizá los neutrinos, es invisible.

De todas formas, es tanta la ignorancia que tenemos sobre el origen de la masa que nos agarramos como a un clavo ardiendo, en este caso, a la partícula de Higgs, que algunos han llegado a llamar “la partícula divina”. Lo mismo nos pasa con la dichosa “materia oscura” para ocultar lo que no sabemos sobre la expansión del Universo.

¡Ya veremos en qué termina todo esto!

 

John C. Mather | Biography, Nobel Prize, Discoveries, & Facts | BritannicaCarlo Rubbia - Viquipèdia, l'enciclopèdia lliureVeltman, MartinusGerardus 't Hooft - Wikipedia, la enciclopedia libre

 

Arriba tenemos nada más y nada menos que: a John Mather, Carlo Rubbia, Martinus Veltman, Gerardus ‘t Hooft at the Lindau Nobel Meetings 2010. Si científicos  como ellos no vienen a nuestro rescate, y nos sacan del atolladero en el que estamos inmerso y hasta el cuelo de ignorancia…¡Mal hirán las cosas!

Peter Higgs, de la Universidad de Edimburgo, introdujo la idea en la física de partículas. La utilizaron los teóricos Steven Weinberg y Abdus Salam, que trabajaban por separado, para comprender cómo se convertía la unificada y simétrica fuerza electrodébil, transmitida por una feliz familia de cuatro partículas mensajeras de masa nula, en dos fuerzas muy diferentes: la QED con un fotón carente de masa y la interacción débil con sus W+, W y Z0 de masa grande. Weinberg y Salam se apoyaron en los trabajos previos de Sheldon Glashow, quien, tras los pasos de Julian Schwinger, sabía sólo que había una teoría electrodébil unificada, coherente, pero no unió todos los detalles. Y estaban Jeffrey Goldstone y Martinus Veltman y Gerard’t Hooft. También hay otros a los que habría que mencionar, pero lo que siempre pasa, quedan en el olvido de manera injusta. Además, ¿cuántos teóricos hacen falta para encender una bombilla? La verdad es que, casi siempre, han hecho falta muchos. Recordemos el largo recorrido de los múltiples detalles sueltos y físicos que prepararon el terreno para que llegara Einstein y pudiera, uniéndolo todo, exponer su teoría relativista.

 

 

Lo cierto es que (al menos de momento), la materia y energía oscura, las supercuerdas, y el bosón de Higss, sí son la alfonbra que decía Veltman, aquel físico serío y Premio Nobel que, no confesaba con ciertas ruedas de molino. Él, quería hablar de cosas tamgibles y, tampoco le gustaban las partículas virtuales.

Sobre la idea de Peter Higgs, Veltman, uno de sus arquitectos, dice que es una alfombra bajo la que barremos nuestra ignorancia. Glashow es menos amable y lo llamó retrete donde echamos las incoherencias de nuestras teorías actuales. La objeción principal: que no tenemos la menor prueba experimental. Ahora, por fin, la tendremos con el LHC. El modelo estándar es lo bastante fuerte para decirnos que la partícula de Higgs de menor masa (podría haber muchas) debe “pesar” menor de 1 TeV, ¿por qué?; si tiene más de 1 TeV el modelo estándar se vuelve incoherente y tenemos la crisis.

Después de todo esto, podríamos llegar a la conclusión de que el campo de Higgs, el modelo estándar y nuestra idea de cómo surgió el universo dependían de que se pudiera encontrar el bosón de Higgs

.Así, hace dos años, utilizando la energía de 7 TeV, por fin dijeron haber encontrado la partícula dadora de masa y, tendrían que explicar un poco más extensamente sus mecanismos y funciones para que, la gente sencilla, llegara a comprender cómo se produce ese “milagro” de que las partículas adquieran su masa al interaccionar con ese campo. El contertulio Ramón Márquez nos dice que es el “Efecto Frenado” el que produce el “milagro”, cuando las partículas deambulan por el campo de Higgs y se frenan con el roce adquiriendo la masa.

Emilio Silvera v.

Simetría CP y otros aspectos de la Física

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (9)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Dicen que las matemáticas de la teoría relativista no impide los viajes en el Tiempo, y, sobre el tema, la desbocada imaginación, ha construido cientos de historias más o menos sugestivas con sus paradojas de todo tipo. Lo que realmente creo Yo sobre el tema es que, viajar a un Tiempo que se fue, que no existe (el Pasado se extinguió y solo quedó en el recuerdo),  y, de la misma manera, pretender viajar a un Tiempo por venir, que tampoco existe…

Creo que debe existir una especie de Conciencia Cósmica que impida dichos viajes para que, aberraciones irracionales de los sucesos pasados, no puedan cambiar nunca. Y, transportarse a un Tiempo Futuro, mirar qué número salió en le Euro-millón, volver y ganar el Premio, es como cerrar los ojos y ver a la Humanidad viviendo dentro de 4.000 millones de años en un planeta a 2.300 años luz de la Tierra.

Pero somos así.

Resultado de imagen de Los Quarks confinados

 

Los quarks al otro lado del espejo. Científicos del Laboratorio Nacional Jefferson Lab (EEUU) han verificado la rotura de la simetría de paridad (también llamada simetría del espejo) en los quarks mediante el bombardeo de núcleos de deuterio con electrones de alta energía. Los núcleos de deuterio están formados por un protón y un neutrón, es decir, por tres quarks arriba y tres quarks abajo. La dispersión inelástica entre un electrón y un quark, es decir, su colisión, está mediada por la interacción electrodébil, tanto por la fuerza electromagnética como por la fuerza débil. Esta última es la única interacción fundamental que viola la simetría de paridad.

 

 

Tenemos que saber cómo la violación de la simetría CP (el proceso que originó la materia) aparece, y, lo que es más importante, hemos de introducir un nuevo fenómeno, al que llamamos campo de Higgs, para preservar la coherencia matemática del modelo estándar.  La idea de Higgs, y su partícula asociada, el bosón de Higgs, cuenta en todos los problemas que he mencionado antes.  Parece, con tantos parámetros imprecisos (19) que, el modelo estándar se mueve bajo nuestros pies.

 

Violació CP - Viquipèdia, l'enciclopèdia lliure

 

Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “super-gravedad”, “súper-simetría”, “supercuerdas” “teoría M” o, en último caso, “teoría de todo o gran teoría unificada”.

 

Confirman el entrelazamiento cuántico gracias a la luz de una estrella - INVDESFísicos logran récord de entrelazamiento cuántico - INVDES

 

La Física nos lleva de vez en cuando a realizar viajes alucinantes. Se ha conseguido relacionar y vibrar a dos diamantes en el proceso conocido como entrelazamiento cuántico. El misterioso proceso, al que el propio Einstein no supo darle comprensión completa, supone el mayor avance la fecha y abre las puertas de la computación cuántica. que nos hagamos una idea del hallazgo, en 1935 Einstein lo llegó a denominar la “acción fantasmal a distancia”. Un efecto extraño en donde se conecta un objeto con otro de manera que incluso si están separados por grandes distancias, una acción realizada en uno de los objetos afecta al otro.

 

 

Ahí tenemos unas matemáticas exóticas que ponen de punta hasta los pelos de las cejas de algunos de los mejores matemáticos del mundo (¿y Perelman? ¿Por qué nos se ha implicado?).  Hablan de 10, 11 y 26 dimensiones, siempre, todas ellas espaciales menos una que es la temporal.  Vivimos en cuatro: tres de espacio (este-oeste, norte-sur y arriba-abajo) y una temporal. No podemos, ni sabemos o no es posible instruir, en nuestro cerebro (también tridimensional), ver más dimensiones. Pero llegaron Kaluza y Klein y compactaron, en la longitud de Planck las dimensiones que no podíamos ver. ¡Problema solucionado! Pero se sigue hablando de partículas super-simétricas.

 

GAE UNAM: Gravitación y Altas Energías - Cuando uno empieza a estudiar física, seguirle la pista a las unidades parece primero algo molesto; pero pronto se vuelve una herramienta crucial. No tendría

               ¿Quién puede ir a la longitud de Planck para verlas?

La puerta de las dimensiones más altas quedó abierta y, a los teóricos, se les regaló una herramienta maravillosa.  En el Hiperespacio, todo es posible.  Hasta el matrimonio de la relatividad general y la mecánica cuántica, allí si es posible encontrar esa soñada teoría de la Gravedad cuántica.

Así que, los teóricos, se han embarcado a la búsqueda de un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intento calor del universo en sus primeros tiempos, una teoría carente de parámetros, donde estén presentes todas las respuestas.  Todo debe ser contestado a partir de una ecuación básica.

¿Dónde radica el problema?

 

El problema está en que la única teoría candidata no tiene conexión directa con el mundo de la observación, o no lo tiene todavía si queremos expresarnos con propiedad. La energía necesaria para ello,  no la tiene ni la nueva capacidad energético del  acelerador de partículas LHC . Ni sumando todos los aceleradores de partículas de nuestro mundo, podríamos lograr una energía de Planck (1019 GeV), que sería necesaria para poder llegar hasta las cuerdas vibrantes de la Teoría. Ni en las próximas generaciones seremos capaces de poder utilizar tal energía.

 

 1.956 × 109 J  1.22 × 1019 GeV

 

La verdad es que, la teoría que ahora tenemos, el Modelo Estándar, concuerda de manera exacta con todos los datos a bajas energías y contesta cosas sin sentido a altas energías. Sabemos sobre las partículas elementales que conforman la materia bariónica, es decir, los átomos que se juntan para formar moléculas, sustancias y cuerpos… ¡La materia! Pero, no sabemos si, pudiera haber algo más elemental aún más allá de los Quarks y, ese algo, pudieran ser esas cuerdas vibrantes que no tenemos capacidad de alcanzar.

 

               ¡Necesitamos algo más avanzado!

Se ha dicho que la función de la partícula de Higgs es la de dar masa a las Cuando su autor lanzó la idea al mundo, resultó además de nueva muy extraña.  El secreto de todo radica en conseguir la simplicidad: el átomo resulto ser complejo lleno de esas infinitesimales partículas electromagnéticas que bautizamos con el nombre de electrones, resultó que tenía un núcleo que contenía, a pesar de ser tan pequeño, casi toda la masa del átomo.  El núcleo, tan pequeño, estaba compuesto de otros objetos más pequeños aún, los quarks que estaban instalados en nubes de otras partículas llamadas gluones y, ahora, queremos continuar profundizando, sospechamos, que después de los quarks puede haber algo más.

 

Confirman la existencia del bosón de HiggsThe Higgs Boson Explained

                   Con 7 TeV ha sido suficiente para encontrar la famosa partícula de Higgs pero…

Bueno, la idea nueva que surgió es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes. Es decir, que si miramos a las estrellas en una noche clara estamos mirando el campo de Higgs.  Las partículas influidas por este campo, toman masa.  Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que hemos comentado, del campo gravitatorio o del electromagnético.  Si llevamos un bloque de plomo a lo alto de la Torre Eiffel, el bloque adquiriría energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra.

 

 

Como E=mc2, ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del Sistema Tierra-bloque de plomo.  Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein.  La masa, m, tiene en realidad dos partes.  Una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo.  La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el acelerador de partículas, o los muones, que aumentan varias veces su masa cuando son lanzados a velocidades cercanas a c) o en virtud de su energía potencial de campo. Vemos una dinámica similar en los núcleos atómicos.  Por ejemplo, si separamos el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.

 

El estudio del campo de Higgs en el futuro HL-LHC - La ...CPAN - Centro Nacional de Física de Partículas ...

Peor la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo.  Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas.

 

 

Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.

La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por Pietez Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo.  El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.

Hasta ahora no tenemos ni idea de que reglas controlan los incrementos de masa generados por el Higgs (de ahí la expectación creada por el nuevo acelerador de partículas LHC). Pero el problema es irritante: ¿por qué sólo esas masas -Las masas de los W+, W, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?

 

 

Las masas van de la del electrón 0’0005 GeV, a la del top, que tiene que ser mayor que 91 GeV.  Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electrodébil (Weinberg-Salam).  Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles.  En la unidad hay cuatro partículas mensajeras sin masa -los W+, W, Zº y fotón que llevan la fuerza electrodébil.  Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébil se fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa.  La simetría se rompe espontáneamente, dicen los teóricos.  Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa.

Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que Gerard ^t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.

The The Nobel Prize in Physics 1999 - Illustrated presentation - NobelPrize.org

Todos los intentos y los esfuerzos por hallar una pista del cuál era el origen de la masa fallaron.  Feynman escribió su famosa pregunta: “¿Por qué pesa el muón?”.  Ahora, por lo menos, tenemos una respuesta parcial, en absoluto completa.  Una vez potente y segura nos dice: “!Higgs¡” Durante más de 60 años los físicos experimentadores se rompieron la cabeza con el origen de la masa, y ahora el campo Higgs presenta el problema en un contexto nuevo; no se trata sólo del muón. Proporciona, por lo menos, una fuente común para todas las masas. La nueva pregunta feynmariana podría ser: ¿Cómo determina el campo de Higgs la secuencia de masas, aparentemente sin patrón, que da a las partículas de la materia?

La variación de la masa con el estado de movimiento, el cambio de masa con la configuración del sistema y el que algunas partículas (el fotón seguramente y los neutrinos posiblemente) tengan masa en reposo nula son tres hechos que ponen entre dicho que el concepto de masa sea una tributo fundamental de la materia.  Habrá que recordar aquel cálculo de la masa que daba infinito y nunca pudimos resolver; los físicos sólo se deshicieron del “re-normalizándolo”, ese truco matemático que emplean cuando no saben hacerlo bien.

 

Ese es el problema de trasfondo con el que tenemos que encarar el problema de los quarks, los leptones y los vehículos de las fuerzas, que se diferencian por sus masas.  Hace que la historia de Higgs se tenga en pie: la masa no es una propiedad intrínseca de las partículas, sino una propiedad adquirida por la interacción de las partículas y su entorno.

La idea de que la masa no es intrínseca como la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en laque los espines estarían asociados para siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.

¡Ah, una cosa más! Hemos hablado de los bosones gauge y de su espín de una unidad; hemos comentado también las partículas fermiónicas de la materia (espín de media unidad). ¿Cuál es el pelaje de Higgs? Es un bosón de espín cero.  El espín supone una direccionalidad en el espacio, pero el campo de Higgs de masa a los objetos dondequiera que estén y sin direccionalidad.  Al Higgs se le llama a veces “bosón escalar” [sin dirección] por esa razón.

 

Interacción Nuclear Débil - Interacciones Fundamentales

           Basta con cambiar un quark tipo u a uno tipo d

Pues justamente esto es lo que ocurre en la naturaleza cuando entra en acción la fuerza nuclear débil.  Un quark tipo u cambia a uno tipo d por medio de la interacción débil así

 

Interacción débil para Niños

Las otras dos partículas que salen son un anti-electrón y un neutrino. Este mismo proceso es el responsable del decaimiento radiactivo de algunos núcleos atómicos. Cuando un neutrón se convierte en un protón en el decaimiento radiactivo de un núcleo, aparece un electrón y un neutrino. Este es el origen de la radiación beta (electrones).

 

 

La interacción débil, recordareis, fue inventada por E. Fermi para describir la desintegración radiactiva de los núcleos, que era básicamente un fenómeno de poca energía, y a medida que la teoría de Fermi se desarrolló, llegó a ser muy precisa a la hora de predecir un enorme número de procesos en el dominio de energía de los 100 MeV.  Así que ahora, con las nuevas tecnologías y energías del LHC, las esperanzas son enormes para, por fin, encontrar el bosón Higgs origen de la masa… y algunas cosas más.

 

Colisiones a 900 GeV c.m. en ATLAS y CMS del LHC en el CERN - La Ciencia de la Mula Francis

 

Hay que responder montones de preguntas.  ¿Cuáles son las propiedades de las partículas de Higgs y, lo que es más importante, cuál es su masa? ¿Cómo reconoceremos una si nos la encontramos en una colisión de LHC? ¿Cuántos tipos hay? ¿Genera el Higgs todas las masas, o solo las hace incrementarse? ¿Y, cómo podemos saber más al respecto? Como s su partícula, nos cabe esperar que la veamos ahora después de gastar más de 50.000 millones de euros en los elementos necesarios para ello.

 

También a los cosmólogos les fascina la idea de Higgs, pues casi se dieron de bruces con la necesidad de tener campos escalares que participasen en el complejo proceso de la expansión del Universo, añadiendo, pues, un peso más a la carga que ha de soportar el Higgs.

El campo de Higgs, tal y como se lo concibe ahora, se puede destruir con una energía grande, o temperaturas altas. Estas generan fluctuaciones cuánticas que neutralizan el campo de Higgs. Por lo tanto, el cuadro que las partículas y la cosmología pintan juntas de un universo primitivo puso y de resplandeciente simetría es demasiado caliente para Higgs. Pero cuando la temperatura cae bajo los 10′5 grados kelvin o 100 GeV, el Higgs empieza a actuar y hace su generación de masas.  Así por ejemplo, antes de Higgs teníamos unos W, Z y fotones sin masa y la fuerza electrodébil unificada.

El Universo se expande y se enfría, y entonces viene el Higgs (que engorda los W y Z, y por alguna razón ignora el fotón) y de ello resulta que la simetría electrodébil se rompe.

 

 

Tenemos entonces una interacción débil, transportada por los vehículos de la fuerza W+, W, Z0, y por otra parte una interacción electromagnética, llevada por los fotones. Es como si para algunas partículas del campo de Higgs fuera una especie de aceite pesado a través del que se moviera con dificultad y que las hiciera parecer que tienen mucha masa. Para otras partículas, el Higgs es como el agua, y para otras, los fotones y quizá los neutrinos, es invisible.

De todas las maneras, es tanta la ignorancia que tenemos sobre el origen de la masa que, nos agarramos como a un clavo ardiendo el que se ahoga, en este caso, a la partícula de Higgs que, algunos, han llegado a llamar, de manera un poco exagerada:

¡La partícula Divina!

 

 

¡Ya veremos en que termina todo esto! Y que explicación se nos ofrece desde el CERN en cuanto al auténtico escenario que según ellos, existe en el Universo para que sea posible que las partículas tomen su masa de ese oceáno de Higgs, en el que, según nuestro amigo Ramón Márquez, las partículas se frenan al interaccionar con el mismo y toman su masa, el lo llama el “efecto frenado”.

Peter Higgs, de la Universidad de Edimburgo, introdujo la idea en la física de partículas.  La utilizaron los teóricos steven Weinberg y Abdus Salam, que trabajaban por separado, para comprender como se convertía la unificada y simétrica fuerza electrodébil, transmitida por una feliz familia de cuatro partículas mensajeras de masa nula, en dos fuerzas muy diferentes: la QED con un fotón carente de masa y la interacción débil con sus W+, Wy Z0 de masa grande.  Weinberg y Salam se apoyaron en los trabajos previos de Sheldon Glasgow, quien tras los pasos de Julian Schwinger, sabía sólo que había una teoría electrodébil unificada, coherente, pero no unió todos los detalles. Y estaban Jeffrey Goldstone y Martino Veltman y Gerard’t Hooft.  También hay otras a los que había que mencionar, pero lo que siempre pasa, quedan en el olvido de manera muy injusta.  Además, ¿Cuántos teóricos hacen falta para encender una bombilla?

La verdad es que, casi siempre, han hecho falta muchos.  Recordemos el largo recorrido de los múltiples detalle sueltos y físicos que prepararon el terreno para que, llegara Einstein y pudiera, uniéndolo todos, exponer su teoría relativista. (Mach, Maxwell, Lorentz… y otros).

Sobre la idea de Peter Higgs, Veltman, uno de sus arquitectos, dice que es una alfombra bajo la que barremos nuestra ignorancia.  Glasgow es menos amable y lo llamó retrete donde echamos las incoherencias de nuestras teorías actuales.  La objeción principal: que no tenemos la menor prueba experimental.

Sobre el descubrimiento de la materia oscura en el LHC Run 2 - La Ciencia  de la Mula FrancisLa simetría CP y otros aspectos de la Física : Blog de Emilio Silvera V.

 

Ahora, por fin la tenemos con el LHC, y ésta pega, se la traspasamos directamente a la teoría de supercuerdas y a la materia oscura que, de momento, están en la sombra y no brillan con luz propia, toda vez que ninguna de ellas ha podido ser verificada, es decir, no sabemos si el Universo atiende a lo que en ellas se predice.

El modelo estándar es lo bastante fuerte para decirnos que la partícula de Higgs de menor masa (podría haber muchas) debe “pesar” menos de 1 TeV. ¿Por qué? Si tiene más de 1 TeV, el modelo estándar se vuelve incoherente y tenemos la crisis de la unitariedad.

Después de todo esto, llego a la conclusión de que, el campo de Higgs, el modelo estándar y nuestra idea de cómo pudo surgir  el Universo dependen de que se encuentre el bosón de Higgs, Se averigüe si realmente existe la materia oscura, Sepamos llegar al fondo de la Teoría de Cuerdas y confirmarla, Poder crear esa Teoría cuántica de la Gravedad…Y, en fin, seguir descubriendo los muchos misterios que no nos dejan saber lo que el Universo es.  Ahora, por fin, tenemos grandes aceleradores y Telescopios con la energía necesaria y las condiciones tecnológicas suficientes para que nos muestre todo eso que queremos saber y nos digan dónde reside esa verdad que incansables perseguimos.

¡La confianza en nosotros mismos, no tiene límites! Pero, no siempre ha estado justificada.

¿Los secretos del Universo? ¡Persistirán como el Tiempo!

Emilio Silvera Vázquez

El futuro incierto, el mundo del mañana.

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

22 mil resultados de imágenes, fotos de stock e ...

El electrón es poseedor de una carga eléctrica negativa; y, al girar el electrón sobre su propio eje genera un campo magnético que denominamos espín. El espín proporciona una medida del momento angular intrínseco de toda partícula. Añadiendo el espín como un cuarto número cuántico, se logró dar una explicación más completa de las características de los espectros de átomos que poseen un solo electrón. Actualmente, la existencia del espín del electrón está confirmada por muchos resultados experimentales. Pronto, el concepto de espín se amplió a todas las partículas subatómicas, incluidos los protones, los neutrones y las antipartículas.

El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o el antineutrón), y por lo tanto, han sido denominados leptones (de la voz griega leptos, que dignifica “delgado“).

 

Que es el bosón de Higgs? – abcienciade

Los bosones tienen un momento angular nh/2π, donde n es cero o un entero, y h es la constante de Planck. Para bosones idénticos, la función de ondas es siempre simétrica. Si sólo una partícula puede ocupar un estado cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n + ½)h / 2π y cualquier función de ondas de fermiones idénticos es siempre antisimétrica. La relación entre el espín y la estadística de las partículas está demostrada por el teorema espín-estadística.

 

File:Anverso - Billete 10 centavos de Peso Moneda Nacional (Argentina).png

Si miramos un diccionario y queremos saber lo que es “ese mal del mundo”, nos dirá: “Dinero (del latín denarius, denario, moneda romana) es todo medio de intercambio común y generalmente aceptado por una sociedad que es usado para el pago de bienes (mercancías), servicios,  y de cualquier tipo de obligación (deudas). Actualmente, el tipo de dinero que manejamos en el día a día es dinero fiduciario.

 

Inicios de la agricultura y la ganadería - Historia UniversalGanadería y Agricultura en el Neolítico - Claves Históricas

 

En el neolítico con la aparición de la agricultura y la ganadería, apareció la primera economía de producción y se produjo un excedente; una cantidad de bienes que no necesitan ser consumidos. Esto dio lugar a la posibilidad de alimentar a personas que no necesitaban trabajar la agricultura o la ganadería y podían dedicarse a producir otros productos, como la cerámica, e intercambiarlo por el excedente producido. Ello permitió la primera forma de comerciar, el trueque,  intercambiando directamente bienes y servicios por otros. Con el tiempo, esta forma de intercambio se consideró ineficiente y se puede explicar con el siguiente ejemplo:

Ciencia de los Materiales
Más Oscuro Que el Color NegroFoto: Chris Gunn/NASA“Un equipo de ingenieros de la NASA desarrolla actualmente un material más oscuro que el color negro y que ayudará a que los científicos logren realizar mediciones científicas difíciles de llevar a cabo, o consigan observar objetos astronómicos que hoy es difícil o imposible discernir, como por ejemplo planetas semejantes a la Tierra en órbita alrededor de otras estrellas.El material ultraoscuro, basado en la nanotecnología, está siendo desarrollado por un equipo de diez expertos del Centro Goddard de Vuelos Espaciales de la NASA, en Greenbelt, Maryland.

Se trata de un delgado recubrimiento de nanotubos de carbono de pared múltiple, diminutos tubos huecos de carbono puro, aproximadamente 10.000 veces más delgados que un cabello humano. Los nanotubos tienen una multitud de usos potenciales, particularmente en la electrónica y en el campo de los materiales avanzados, gracias a sus propiedades eléctricas únicas y a su extraordinaria robustez. Pero en esta nueva aplicación, la NASA está interesada en usar la nanotecnología para ayudar a suprimir la luz errante que interfiere en las mediciones hechas con instrumental óptico.”

Lo que debe quedarnos claro es que, cada día, avanzamos un poco más en todas las disciplinas del saber humano y, más rápidamente de lo que algunos puedan suponer, nos estamos preparando para un futuro que está a la vuelta de la esquina.

 

 

¿Qué dirían nuestros ancestros de los móviles y de las múltiples aplicaciones que pueden ser aplicadas para realizar funciones asombrosas? Como ha pasado con Internet, el mundo de los teléfonos móviles ha desbordado cualquier previsión que pudiera haberse formalizado de las expectativas de futuro. Cada día, sentado cómodamente en el salón de casa, puedo hablar con mi hija María que estaba en México por razones de trabajo. Es algo que, aunque seamos de este tiempo, no deja de asombrarnos también a nosotros.

Muchos van siendo los logros que todos los campos vamos conquistando y, tanto en nuestro planeta como en el Espacio Interestelar, en el Universo, se van logrando victorias que, en un futuro lejano serán imprescindibles para la continuidad de nuestra especie.

 

Los cinco grandes descubrimientos de la Física de los últimos 25 años
   Se consiguió el teletransporte que  ya es posible en el mundo cuántico… ¡Sólo es cuestión de Tiempo! Acordaos, en 2012, un equipo internacional de científicos logró teletransportar fotones a través de 143 kilómetros de distancia, rompiendo todos los registros anteriores. Además, un grupo de físicos israelíes ha anunciado que ha conseguido entrelazar dos fotones que nunca habían coincidido en el tiempo, esto es, que existieron en momentos diferentes.
La construcción de un ingenio que nos lleve de un lado a otro del Universo burlando la velocidad de la luz, como ocurre en Star Trek, está aún muy lejos de hacerse realidad, pero el teletransporte ya es posible en el mundo cuántico, ese universo extraño que rige el comportamiento de lo diminuto, las moléculas y los átomos, y en el que es posible que ocurran cosas tan mágicas como estar en dos sitios a la vez.
Computación cuántica
Computadoras con velocidad y capacidad descomunales o materiales con “superpoderes” son algunas de las tecnologías desarrolladas a partir de los hallazgos más importantes de la física contemporánea. Son muchos los avanzas que han sido realizados en el campo de la Física y costaría trabajo elegir algunos como los mejores. ¡Todos tienen una importancia enorme!
La creación del primer condensado de Bose-Einstein (1995): El quinto estado de agregación de la materia (los tres más conocidos son sólido, líquido y gaseoso, y el cuarto es el plasma) se produce a temperaturas que se aproximan al cero absoluto. Los átomos se fusionan a baja energía, y comienzan a comportarse como ondas, y no como partículas. A su descubrimiento se le auguran varias aplicaciones: instrumentos de medición y relojes atómicos más exactos, y la capacidad de almacenar información en las futuras computadoras cuánticas. Su creación en laboratorio reforzó las teorías cuánticas fundamentales desarrolladas por el Premio Nobel de Física Enrico Fermi sobre el comportamiento y la interacción de los electrones.
La aceleración de la expansión del Universo (1997): Las evidencias de una misteriosa fuerza anti-gravitatoria, la “energía oscura”, que causa la expansión del Universo a un ritmo cada vez más veloz confirmaron una idea originalmente propuesta -y descartada- por Albert Einstein. Este descubrimiento sacudió las bases de la cosmología observacional y supuso un gran avance en la comprensión de la evolución y el destino final del cosmos, al constatar que está dominado por energía, no por materia.
neutrinos
La prueba de que los neutrinos tienen masa (1998): La evidencia de la ínfima masa de los neutrinos es un paso clave para entender mejor a una de las partículas subatómicas más enigmáticas del modelo estándar –la teoría que describe las interacciones y las partículas elementales de toda la materia– y su relación con la cosmología y la astrofísica. Miles de millones de minúsculos neutrinos nos atraviesan cada segundo, sin tocar nada ni dejar rastro. Pero son esenciales en todos los átomos que existen y tienen la clave para entender lo que hace funcionar al Sol.
Colisión de particulas
El bosón de Higgs (2012): Esta partícula elemental fue propuesta en teoría en 1964 por Peter Higgs para explicar la razón de la existencia de masa en las partículas elementales. Sus rastros físicos fueron descubiertos por científicos de la Organización Europea para la Investigación Nuclear (CERN) en el Acelerador de partículas LHC y, ha hecho posible que uno de los parámetros aleatorios del Modelo Estándar (la masa de las partículas), se confirmara para perfeccionar lo que sabemos que, en no pocos casos, son intuiciones no confirmadas.
         Cinco tecnologías que cambiarán el mundo
– Terapia de hadrones: puede tratar tumores con un acelerador de partículas en miniatura, controlado desde un tablero.
Computación cuántica: permite simular y crear modelos moleculares de nuevos fármacos.
Grafeno: es importante para la electrónica y la creación de materiales muy resistentes.
Super-lentes nanoscópicos: capaces de producir imágenes a partir de luz evanescente.
Recolección de energía cinética: energía portátil basada en la triboelectricidad o electrificación por contacto de materiales.
Como estamos aquí y todo ocurre a nuestro alrededor, estando como estamos inmersos en nuestros pequeños problemas cotidianos, no prestamos o prestamos poca atención a lo que realmente está pasando ¡ahora mismo! en los miles de laboratorios del mundo, en las investigaciones que sobre la materia y el Universo mismo se están realizando y, de los muchos inventos y nuevos ingenios que se están logrando. En menos de 50 años, nuestro mundo, será “otro mundo”.
Nadie ha podido nunca predecir el futuro que, por su naturaleza intrínseca, es y será siempre incierto. Sin embargo, nadie puede negar que no son pocas las cuestiones y los hechos que ahora están aquí con nosotros y que, hace tan sólo unos décadas, eran simples predicciones. Es decir, sí que podemos intuir, en parte, lo que podrá pasar.
Nos estamos preparando para poder tocar, aunque sea con la punta de los dedos, la naturaleza de ese “universo oscuro” que presentimos. La nueva puesta en marcha del LHC buscará esas partículas super-simétricas que confirmarán la existencia de esa materia que llaman oscura y que en realidad, es la sustancia cósmica del universo, la materia primera. Sin ella, ni las galaxias se podrían haber formado debido a la expansión de Hubble.

¿Qué es el tiempo? ¿Lo sabremos alguna vez?

 

 

¿La vida en la Tierra es un fenómeno único? Seguramente no, las probabilidades son muchas para que sea al contrario. Sin embargo… ¡las distancias! No está a nuestro alcance recorrer las distancias del Universo, sólo podemos hacerlo con los grandes telescopios que nos dejan vislumbrar lo que hay más allá. Sin embargo, visitar otros mundos no podemos y no digamos de viajar a otras estrellas, eso, pertenece a un futuro lejano.

 

 

Impresión artística de una hipotética «Nave propulsada por inducción de agujero de susano”, basada indirectamente en un trabajo de 1994 de Miguel Alcubierre. Crédito: NASA CD-98-76634.

 

Los gravitones son el bosón hipotético de la fuerza fundamental gravedad. Con esta partícula se podria unificar la mecánica cuántica y la teoría de la relatividad especial. Un dato interesante es que se según la teoría de cuerdas los gravitones están formados por cuerdas cerradas que les permiten viajar a universos pararlos, tal vez por eso es que es la fuerza fundamental mas débil.

 

Dicen que la gravedad cuántica subyace en la teoría de cuerdas pero… ¿Podremos unificar la mecánica cuántica y la gravedad? Queremos más de lo que podemos. Que se sepa, aún no ha sido hallado el Bosón que transporta la Gravedad, es decir, la particula intermediaria de la fuerza: El Gravitón.

 

 

¿Podemos explotar las rarezas de la mecánica cuántica? ¿Cómo es posible que se produzca el entrelazamiento cuántico? Es cierto que casi todos los avances actuales de la Física, son fruto de la aplicación de la física cuántica, así los ordenadores cuánticos, el teletransporte del que antes se habló y muchos otros, tienen su origen en este fenómeno cuántico que no es bien conocido de todos.

¿Qué es el entrelazamiento cuántico?

Entrelazamiento cuántico y el internet del futuro: cómo la IA hace que el envío de información sea más sencillo | WIRED

 

 Esta propiedad, cuyo término fue introducido en 1935 por Schrödinger (el del famoso gato que lleva su nombre), es un proceso en el que una sola función de onda describe dos objetos separados. Se da la particularidad de que estos dos objetos comparten una misma existencia, como si estuvieran unidos por un cordón umbilical invisible o una onda que, en teoría, se puede propagar por todo el universo.
Ahora amigos, me despido después de haber dejado aquí unas cuantas cuestiones para que os hagan pensar. Ya sabéis, “No solo de Pan vive el Hombre!
Emilio Silvera Vázquez

No siempre la Física se puede explicar con palabras

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Posiblemente el lugar más infernal del universo": el enorme ...

 

Se dice que un agujero negro (una masa M concentrada en un volumen menor que el dictado por su radio de Schwarzschild rs = 2GM/c2 absorbe todo lo que cae sobre él. Sin embargo, Beckenstein y Hawking determinaron que el agujero negro posee entropía (proporcional al área del horizonte) y por ello temperatura, y Hawking concluye (1975) que la temperatura le hace radiar como un cuerpo negro; por tanto, eventualmente el agujero se evapora.

 

Resultado de imagen de Agujero Blanco

 

Aquí viene la paradoja. Si formamos el agujero negro arrojando materia en forma concreta (por ejemplo, un camión), la masa del camión acabaría eventualmente escupida como radiación del cuerpo negro, perdiéndose la preciosa información sobre el camión. Pero se supone que la evolución de “todo” es cuántica, y por ello unitaria. Ahora bien, la evolución unitaria mantiene la información (estados puros van a estados puros, no mezcla…); he ahí la paradoja.

 

Resultado de imagen de La información del agujero negro no se pierde

                    Estaría bien poder entrar en un agujero negro para recabar información

Fue Hawking quien primero presentó la paradoja de “pérdida de información” en contra de otros que, como Gerard’t Hooft y Susskind, quienes mantienen que la información no se puede perder, y que por ello debe haber sutiles correlaciones en la radiación emitida, de las que en principio sería posible extraer la información original sobre que el agujero negro tragó un camión…

Paradogicamente, ha sido, durante el desarrollo de la “Teoría de Cuerdas” cuando se ha podido dilucidar el problema planteado hace veinticinco años por Beckenstein y Hawking que, han resultado llevar razón.

Antes de morir  S. Hawking cambió de opinión y admitió ahora que no hay pérdida de información, al respetarse el sentido unitario de la evolución del sistema, de acuerdo con la mecánica cuántica.

La gravitación y dimensiones extra

 

Qué es la teoría de cuerdas? – Ciencia de Sofá

 

Esas hipotéticas dimensiones extra, necesarias para la existencia de la teoría de cuerdas, muchas las están buscando pero, de momento, nadie las pudo encontrar. Claro que, como para todo en este mundo, se necesita…¡Tiempo! dejemos que transcurra y…¡veremos!

“… la línea tiene magnitud en una dirección, el plano en dos direcciones y el sólido en tres direcciones; a parte de éstas, no hay ninguna magnitud porque las tres son todas…”

 

Resultado de imagen de Sólo tres dimensiones

En nuestro Universo sólo podemos ver tres dimensiones y la temporal

 

Eso nos dijo Aristóteles alrededor de 350 años antes de Cristo, y la verdad, es que desde la experiencia cotidiana es difícil refutarlo. Más aún, la existencia de dimensiones extra podría tener consecuencias desastrosas para la estabilidad de las órbitas atómicas y planetarias, sobre todo en el caso de que dichas dimensiones fuesen de un tamaño comparable al del sistema estudiado. En concreto, Paul Ehrenfest en 1917 demostró que la ley del inverso del cuadrado de la distancia para la fuerza electrostática o gravitatoria se modificaría si hubiera N dimensiones espacial extra, de forma que F ≈ r-2 π. De hecho, ningún experimentado físico realizado hasta la fecha ha revelado la existencia de más de tres dimensiones espaciales, y dicho sea de paso, tampoco más de una dimensión temporal.

Sin embargo, aunque la experiencia ordinaria no necesitase de más de tres más una dimensiones, desde Riemann, Gauss, Ricci y algún otro, el punto de vista matemático permite estudiar de forma consistente la geometría de espacion de dimensión arbitraria que, como digo, lo debemos en gran parte a Bernhard Riemann sobre variedades n-dimensionales (1854), y ello a pesar de que Ptolomeo propusiera una “demostración” de que una cuarta dimensión espacial no tiene magnitud ni definición posibles (Tratado sobre la distancia, 150 a. C.).

 

Resultado de imagen de La relatividad especial de 1095

 

La formulación de la Relatividad Especial de Einstein en 1905 supuso una revolución en nuestra concepción del espacio y del tiempo, y planteó la cuestión de la dimensionalidad desde una perspectiva completamente nueva. En efecto, en la interpretación geométrica que llevó a cabo Herman Minkowski en 1909, la teoría de Einstein podía entenderse de forma simple en términos de una variedad espacio-temporal de cuatro dimensiones, en la que a tres dimensiones espaciales se le añadía en pie de igualdad una cuarta, el tiempo, en la forma itc. El espacio y el tiempo pasaron de entenderse como conceptos independientes a formar un entramado único 4-dimensional, en el que las distancias se miden a través de la métrica de Minkowski:

 

metrica_de_minkowski

Por su parte, Einstein, lejos de considerar el espacio-tiempo de Minkowski como una mera descripción matemática, lo elevó a la categoría de entidad física con su Teoría General de la Relatividad (RG) de 1.915 al considerarlo como objeto dinámico, cuya geometría, dada por la métrica de Riemann gμυ(x), depende de tener en cuenta en cada punto de su contenido de materia y energía. La curvatura del espacio-tiempo determina la trayectoria de las partículas de prueba que se mueven en él, y por tanto, la teoría proporciona una interpretación geométrica de la interacción gravitatoria.

Magnetismo 4. Campos: Gravitacional, Eléctrico y Magnético en imanes.  Gauss, Teslas, Coulomb, Newton

 

La unificación del electromagnetismo y la gravitación, mencionada por mí en anteriores trabajos, fue la primera de las teorías con dimensiones extra. Se la envi´ço un oscuro matemático desconocido a Einstein, en una carta manuscrita en la que, le presentaba la teoría de 5 dimensiones en la que, era posible unificar, las dos teorías más grandes del momento (relatividad y electromagnetismo). Einstein la leyó varias veces y la volvía a guardad y, por fin, después de dos años, se decidió a enviarla para su publicación. Allí nació la teoría primera de más altas dimensiones: la de Kaluza-Klein (este último la mejoró más tarde).

 

Diferencia entre gravedad y magnetismo - Gravedad

 

Está claro que a comienzos del siglo pasado, nuestro conocimiento de las interacciones fundamentales se reducía a dos teorías de campos bien establecidas, el electromagnetismo de Maxwell, en pie desde 1873, y la novedosa Teoría General de la Relatividad para la gravitación, que Einstein comenzara a gestar en 1907 y publicara en 1915. No es por tanto de extrañar que el atractivo de la teoría de Einstein provocara en muchos, incluido el propio Einstein, el impulso de buscar una generalización de la misma, que incluyera también a la teoría de Maxwell, en una descripción geométrica unificada.

Con ese único objetivo, se tomaron varios caminos que, si bien no llegaron al destino deseado, permitieron realizar descubrimientos trascendentales que marcaría la evolución de la física teórica hasta nuestros días. (En aquellos tiempos se desconocían las fuerzas nucleares débil y fuerte).

 

Se representan en este esquema dos partículas que se acercan entre sí siguiendo un movimiento acelerado. La interpretación newtoniana supone que el espacio-tiempo es llano y que lo que provoca la curvatura de las líneas de universo es la fuerza de interacción gravitatoria entre ambas partículas. Por el contrario, la interpretación einsteniana supone que las líneas de universo de estas partículas son geodésicas (“rectas”), y que es la propia curvatura del espacio tiempo lo que provoca su aproximación progresiva.

El primero de estos caminos fue propuesto por Hermann Weyl en 1918. En la Relatividad General, el espacio-tiempo se considera como una variedad pseudo-Riemanniana métrica, esto es, en la que, aunque la orientación de un vector transportado paralelamente de un punto a otro depende del camino seguido, su norma es independiente del transporte. Esta independencia de la norma disgustaba a Weyl que propuso reemplazar el tensor métrico gμυ por una clase de métricas conformemente equivalentes [gμυ] (esto es, equivalentes bajo cambios de escala gμυ → λ gμυ), y el transporte paralelo por otro que respetara esa estructura conforme. Esto se conseguía introduciendo un nuevo campo, Aμ, que al cambiar de representante de la clase de equivalencia [gμυ], se transformaba precisamente como el potencial vector de la teoría de Maxwell:

Aμ → Aμ + ∂μλ

 

Resultado de imagen de Hermann Weyl

           Hermann Weyl

Este tipo de transformación es lo que Weyl denominó trasformación de “gauge, en el sentido de cambio de longitud. En propias palabras de Weyl en una carta dirigida a Einstein en 1.918, con su teoría había conseguido “… derivar la electricidad y la gravitación de una fuente común…“. La respuesta de Einstein no se hizo esperar:

“Aunque su idea es muy elegante, tengo que declarar francamente que, en mi opinión, es imposible que la teoría se corresponda con la naturaleza.”

La objeción de Einstein se basaba en el hecho de que en la propuesta de Weyl, el ritmo de avance de los relojes también dependería del camino seguido por éstos, lo cual entraría en contradicción, por ejemplo, con la estabilidad de los espectros atómicos.

Aunque la teoría de Weyl fue abandonada rápidamente, en ella se introducía por primera vez el concepto de simetría gauge. Varias décadas más tarde, con el desarrollo de las teorías gauge no abelianas por Yang Mills (1954), y del Modelo Estándar de las partículas elementales, se comprobó que la misma noción de invarianza subyacía en la descripción del resto de interacciones fundamentales (electrodébiles y fuertes).

 

Resultado de imagen de Teoría de cinco dimensiones

La teoría de cinco dimensiones de Kaluza Klein fue la precursora de la de cuerdas

El segundo camino en la búsqueda de la unificación comenzó un año antes de la publicación de la Relatividad General. En 1914 Gunnar Nordström propuso una teoría en cinco dimensiones que unificaba el electromagnetismo con la gravitación de Newton. La aparición de la Teoría de la Relatividad General hizo olvidar la teoría de Nordström, pero no la idea de la unificación a través de dimensiones extras.

 

UN FASCINANTE VIAJE A LA QUINTA DIMENSIÓNimage002.jpg

 

Así estaban las cosas cuando en 1.919 recibió Einstein un trabajo de Theodor Kaluza, un privatdozent*en la Universidad de Königsberg, en el que extendía la Relatividad General a cinco dimensiones. Kaluza consideraba un espacio con cuatro dimensiones, más la correspondiente dimensión temporal y suponía que la métrica del espacio-tiempo se podía escribir como:

 

metrica_de_kaluza

 

Donde metrica_4-dimensional_del_espacio-tiempo con μ,υ = 1, 2, 3, 4, corresponde a la métrica 4-dimensional del espacio-tiempo de la RG, Aμproporciona el campo electromagnético, Φ es un campo escalar conocido posteriormente como dilatón, y α = √2k es la constante de acoplo relacionada con la constante de Newton k. Kaluza demostró que las ecuaciones de Einstein en cinco dimensiones obtenidas de esta métrica y linealizadas por los campos, se reducían a las ecuaciones de Einstein ordinarias (en cuatro dimensiones) en vacío, junto con las ecuaciones de Maxwell para Aμ, siempre que se impusiera la condición cilíndrica, esto es, que la métrica metrica_de_kaluza_v2 no dependiera de la quinta coordenada.

El trabajo de Kaluza impresionó muy positivamente a Einstein: “Nunca había caído en la cuenta de lograr una teoría unificada por medio de un cilindro de cinco dimensiones… A primera vista, su idea me gusta enormemente…” (carta de Einstein a Kaluza en 1919, en abril).

 

Gunnar Nordström (1991-1923)

Gunnar Nordström

Este hecho resulta sorprendente si consideramos que el trabajo de Nordström fue publicado cinco años antes. Por motivos desconocidos, en el mes de mayo de 1919, Einstein rebajó su entusiasmo inicial: “Respeto en gran medida la belleza y lo atrevido de su idea, pero comprenderá que a la vista de las objeciones actuales no pueda tomar parte como originalmente se planeó“. Einstein retuvo el trabajo de T. Kaluza durante dos años, hasta que en 1.921 fue presentado por él mismo ante la Academia Prusiana. Hasta 1.926 Einstein guardó silencia acerca de la teoría en cinco dimensiones.

Ese mismo año, Oskar Klein publicaba un trabajo sobre la relación entre la teoría cuántica y la relatividad en cinco dimensiones. Uno de los principales defectos del modelo de Kaluza era la interpretación física de la quinta dimensión. La condición cilíndrica impuesta ad hoc hacía que ningún campo dependiera de la dimensión extra, pero no se justificaba de manera alguna.

Klein propuso que los campos podrían depender de ella, pero que ésta tendría la topología de un círculo con un radio muy pequeño, lo cual garantizaría la cuantización de la carga eléctrica. Su diminuto tamaño, R5 ≈ 8×10-31 cm, cercano a la longitud de Planck, explicaría el hecho de que la dimensión extra no se observe en los experimentos ordinarios, y en particular, que la ley del inverso del cuadrado se cumpla para distancias r » R5. Pero además, la condición de periodicidad implica que existe una isometría de la métrica bajo traslaciones en la quinta dimensión, cuyo grupo U(1), coincide con el grupo de simetría gauge del electromagnetismo.

 

Oskar Klein.jpg

Oskar Benjamin Klein (1894-1977). Fotografía tomada para el Göttingen Bohr-Festspiele, junio de 1922.

Por último, imponiendo que el dilaton es una constante, Klein demostró que las ecuaciones de movimiento reproducen las ecuaciones completas de Einstein y Maxwell. Esta forma de tratar la dimensión extra, bautizada posteriormente como el paradigma de la compactificación, había logrado superar los obstáculos iniciales: “… parece que la unión de la gravitación y la teoría de Maxwell se consigue de una forma completamente satisfactoria con la teoría de cinco dimensiones” (carta de Einstein a Lorentz en 1927), y de hecho, ha sido la única forma consistente de introducir dimensiones extra hasta fechas más recientes.

El propio Einstein había comenzado a trabajar en la teoría de Kaluza con su ayudante Jacob Grommer y en 1.922 publicó un primer trabajo sobre existencia de soluciones esféricamente simétricas, con resultado negativo. Más tarde, en 1927 presentó ante la Academia Prusiana dos trabajos en los que reobtenía los resultados de Klein. Su infructuosa búsqueda de una teoría de campo unificada le haría volver cada pocos años a la teoría en cinco dimensiones durante el resto de su vida. Los resultados de Klein sobre la cuantización de la carga eléctrica pueden entenderse fácilmente considerando el desarrollo en modos de Fourier de los campos con respecto a la dimensión periódica:

modos_fourier_para_campos

La ecuación de ondas en cinco dimensiones puede reescribirse como:

ecuacion_ondas_5_dimensiones

Donde Dμ es una derivada covariante con respecto a transformaciones generales de coordenadas y con respecto a transformaciones gauge con una carga qn = nk/R5. Vemos por tanto que el campo en cinco dimensiones se descompone en una torre infinita de modos 4-dimensionales Ψn(x) con masas masas_5_dimensiones, en unidades naturales ћ = c = 1, y carga qn (modos de Kaluza-Klein).

Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck).  Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

Puesto que el radio de compactificación es tan pequeño, el valor típico de las masas será muy elevado, cercano a la masa de Planck Mp = k-12 = 1’2 × 1019 GeV*, y por tanto, a las energías accesibles hoy día (y previsiblemente, tampoco en un futuro cercano – qué más quisieran E. Witten y los perseguidores de las supercuerdas -), únicamente el modo cero n = 0 será relevante. Esto plantea un serio problema para la teoría, pues no contendría partículas ligeras cargadas como las que conocemos.

Resultado de imagen de Las dimensiones de Kaluza-Klein

¿Y si llevamos a Kaluza-Klein a dimensiones superiores para unificar todas las interacciones?

La descripción de las interacciones débiles y fuertes a través de teorías gauge no abelianas mostró las limitaciones de los modelos en cinco dimensiones, pues éstas requerirían grupos de simetría mayores que el del electromagnetismo. En 1964 Bryce de UIT presentó el primer modelo de tipo Kaluza-Klein-Yang-Mills en el que el espacio extra contenía más de una dimensión.

El siguiente paso sería construir un modelo cuyo grupo de isometría contuviese el del Modelo Estándar SU(3)c × SU(2)l × U(1)y, y que unificara por tanto la gravitación con el resto de las interacciones.

Edward Witten demostró en 1981 que el número total de dimensiones que se necesitarían sería al menos de once. Sin embargo, se pudo comprobar que la extensión de la teoría a once dimensiones no podía contener fermiones quirales, y por tanto sería incapaz de describir los campos de leptones y quarks.

Por otra parte, la supersimetría implica que por cada bosón existe un fermión con las mismas propiedades. La extensión supersimétrica de la Relatividad General es lo que se conoce como supergravedad (supersimetría local).

 

Joël Scherk (1946-1980) (a menudo citado como Joel Scherk) fue un francés teórico físico que estudió la teoría de cuerdas y supergravedad [1] . Junto con John H. Schwarz , pensaba que la teoría de cuerdas es una teoría de la gravedad cuántica en 1974. En 1978, junto con Eugène Cremmer y Julia Bernard , Scherk construyó el lagrangiano y la supersimetría transformaciones para supergravedad en once dimensiones [2] , que es uno de los fundamentos de la teoría-M .

Unos años antes, en 1978, Cremmer, Julia y Scherk habían encontrado que la super-gravedad, precisamente en once dimensiones, tenía propiedades de unicidad que no se encontraban en otras dimensiones. A pesar de ello, la teoría no contenía fermiones quirales, como los que conocemos, cuando se compactaba en cuatro dimensiones. Estos problemas llevaron a gran parte de los teóricos al estudio de otro programa de unificación a través de dimensiones extra aún más ambicioso, la teoría de cuerdas.

No por haberme referido a ella en otros trabajos anteriores estará de más dar un breve repaso a las supercuerdas. Siempre surge algún matiz nuevo que enriquece lo que ya sabemos.

 

Resultado de imagen de Yoichiro Nambu,

 

El origen de la teoría de supercuerdas data de 1968, cuando Gabriela Veneziano introdujo los modelos duales en un intento de describir las amplitudes de interacción hadrónicas, que en aquellos tiempos no parecía provenir de ninguna teoría cuántica de campos del tipo de la electrodinámica cuántica. Posteriormente, en 1979, Yaichiro Nambu, Leonard Susskind y Holger Nielsen demostraron de forma independiente que las amplitudes duales podían obtenerse como resultado de la dinámica de objetos unidimensionales cuánticos y relativistas dando comienzo la teoría de cuerdas.

En 1971, Pierre Ramona, André Neveu y otros desarrollaron una teoría de cuerdas con fermiones y bosones que resultó ser super-simétrica, inaugurando de esta forma la era de las supercuerdas.

Sin embargo, en 1973 David Gross, David Politzer y Frank Wilczek descubrieron que la Cromodinámica Cuántica, que es una teoría de campos gauge no abeliana basada en el grupo de color SU(3)c, que describe las interacciones fuertes en términos de quarks y gluones, poseía la propiedad de la libertad asintótica. Esto significaba que a grandes energías los quarks eran esencialmente libres, mientras que a bajas energías se encontraban confinados dentro de los hadrones en una región con radio R de valor R ≈ hc/Λ ≈ 10-13 cm.

Dicho descubrimiento, que fue recompensado con la concesión del Premio Nobel de Física a sus autores en 2.004, desvió el interés de la comunidad científica hacia la Cromodinámica Cuántica como teoría de las interacciones fuertes, relegando casi al olvido a la teoría de supercuerdas.

 

Resultado de imagen de John Henry Schwarz

                                                        John Henry Schwarz

A pesar de todo, en 1974 Joel Scherk y John Schwarz hicieron la observación de que la teoría de cuerdas podía ser también una teoría cuántica de la gravitación. Sin embargo, este hecho pasó desapercibido durante casi una década. Además, las teorías de cuerdas tenían extrañas propiedades. Su versión más simple, la cuerda bosónica, sólo estaba definida en 26 dimensiones, y por si esto fuese poco, también presentaba un estado taquiónico, es decir, con masa al cuadrado negativa. Por otra parte, las supercuerdas parecían estar plagadas de anomalías (obstrucciones a la cuantización de la teoría que hacían altamente improbable que se los pudiera dar alguna explicación útil para la física fundamental.

Todo cambió, sin embargo, cuando en 1984 Michael Green y John Schwarz demostraron que las teorías de supercuerdas cerradas basadas en los grupos SO(32) y E8 × E8 estaban libres de anomalías si se definían en un espacio-tiempo de 10 dimensiones.

Ese mismo año, Gross, Harvey, Martinec y Rohm encontraron otro tipo de teorías de cuerdas consistentes denominadas heteróticas.

Como resultado de esos y otros muchos trabajos emergieron cinco teorías de cuerdas consistentes denominadas tipo I, tipo IIA, tipo IIB, heterótica SO(32) (HO) y heterótica E8 × E8 (HE). Todas consistentes exclusivamente en 10 dimensiones y estaban libres de taquiones.

 

       David Jonathan Gross

El de más edad de los cuatro, David Gross, hombre de temperamento imperativo, es temible en los seminarios cuando al final de la charla, en el tiempo de preguntas, con su inconfundible vozarrón dispara certeros e inquisidoras preguntas al ponente. Lo que resulta sorprendente es el hecho de que sus preguntas dan normalmente en el clavo.

La posibilidad de construir teorías realistas de las interacciones entre partículas fundamentales (incluyendo la gravitación) a partir de la teoría de supercuerdas surgió del trabajo seminal de Candelas, Strominger, Horowitz y Witten de 1985 donde se proponía el uso de la supercuerda heterótica E8 × E8 y la compactificación de las 6 dimensiones extra para dar lugar a espacios de Calabi-Yan (un tipo especial de propiedades o variedades compactas con tres dimensiones complejas). La idea era que mediante la elección apropiada de la variedad compactificada, el límite de la teoría a bajas energías sería similar al Modelo Estándar definido en las cuatro dimensiones ordinarias; es decir, la teoría cuántica de campos actualmente aceptada como la teoría correcta de las interacciones fuertes y electrodébiles basada en el grupo gauge SU(3)C × SU(2)L × U(1)Y, que incluye la cromodinámica cuántica (grupo de color SU(3)C) y la teoría de las interacciones electrodébiles basada en el grupo conocido como SU(2)L × U(1)Y, desarrollada en 1967 por Steven Weinberg, Abdus Salam y Sheldon Glashow y por la que se les concedió el Premio Nobel de Física en 1979.

 

Resultado de imagen de Espacios compactificados B de dimensión 6, tipo Calabi-YanResultado de imagen de Espacios compactificados B de dimensión 6, tipo Calabi-Yan

 

De esta forma, durante los años ochenta se estudiaron con gran detalle numerosos espacios compactificados B de dimensión 6, tipo Calabi-Yan, junto con otros espacios, como por ejemplo, los llamados orbifoldios (variedades diferenciables cocientadas por grupos discretos) en un intento de tomas contacto con la fenomenología de bajar energías accesibles a los experimentos actuales. Además, las posibilidades podían aumentarse incluyendo campos gauge que podían estar definidos sobre B, dando lugar a diferentes líneas de flujo que se enrollarían y enlazarían de infinidad de formas dentro de B, sacando partido de su habitualmente intrincada topología.

En todo caso, el tamaño típico de espacio B era del orden de la longitud de PlanckLp = 1’6 × 10-33 cm*, que en unidades naturales es la inversa de la masa de Planck. Este hecho situaba fuera de las posibilidades reales el estudio experimental de sus propiedades. Además, a cada espacio B, ataviado de sus líneas de flujo, correspondería un posible vacío (estado fundamental o de menor energía) de la teoría. Sin embargo, en la medida que ésta sólo se podía determinar perturbativamente, es decir, en el régimen de interacción débil, no era posible seleccionar el verdadero vacío de la teoría a partir de primeros principios, sino tan sólo buscar aquellos que podían tener más posibilidades de establecer contacto con el mundo que observamos a nuestro alrededor.

Emilio Silvera V.

 


 Profesor sin plaza ni salario, salvo honorarios según las clases impartidas.

 masa_planck del orden de 10-8 Kg = 1011 GeV; es la masa de una partícula cuya longitud de onda compton es igual a la longitud de Planck.