jueves, 09 de abril del 2026 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Acercarse a la velocidad de la luz… trae consecuencias

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Todos sabemos de los fenómenos que se pueden producir en algunos aspectos de la relatividad especial de Einstein. Él no quiso llamarla de esa manera y, había pensado que “teoría de la invariabilidad” que reflejaba el carácter invariable de la velocidad de la luz, entre otras cosas, estaría bien. Sin embargo, finalmente se quedó como la Teoría de la Relatividad Especial. La obra de Eintein demostraba que conceptos tales como espacio y tiempo, que anteriormente parecían estar sepados y ser absolutos, en realidad están entrelazados y son relativos. Einstein demostró además que otras propiedades físicas del universo, sorprendentemente, también están interrelacionadas. La más famosa de sus fórmulas constituye uno de los ejemplos más importantes.

En esta escueta fórmula Einstein afirma que la energía (E) de un objeto y su masa (m) son conceptos independientes; podemos determinar la energía a partir de la masa del objeto (multiplicando esta dos veces por la velocidad de la luz, o sea por c2) o podemos determinar la masa conociendo su energía (dividiendo esta úlñtima dos veces por la velocidad de la luz). En otras palabras, la energía y la masa son las caras de una misma moneda. Claro que, el tipo de cambio es grande (c2 es una cantidad considerable). Una masa pequeña llega a producir una cantidad considerable de energía.

Nube de hongo sobre Hiroshima después de haber soltado la bomba Little Boy.
La nube de hongo creada por la bomba Fat Man como resultado de la explosión nuclear sobre Nagasaki.
   Nube del hongo sobre Hirosima y
   Nube del hongo sobre Nagasaki
En Hirosima se utilizó como arma el devastador poder destructivo obtenido de la conversión en energía de menos del uno por ciento de 900 gramos de uranio; algún día,  en centrales energéticas de fusiòn podremos utilizar productivamente la fórmula de Eisntein para bien de la Humanidad y satisfacer la demanda de energía del mundo moderno aprovechando la materia prima inagotable que tenemnos en el agua de los mares y océanos de la Tierra.
Resultado de imagen de Haces de muones corriendo a la velocidad de la luz en el LHC multiplican su masa
Los conceptos que ponen de relieve la Teoría de la Relatividad Especial, ponen de relieve principios fundamentales y una de las cosas que nunca podremos hacer es ir más rápido que la velocidad de la luz. Algunos de ustedes se podrá preguntar ¿por qué no podemos coger un objeto, por ejemplo un muón, que un acelerador de partículas haya impulsado hasta conseguir que se mueva a 298 168 Km/s -el 99,5 por ciento de la velocidad de la luz- y “empujarlo un poco más”, consiguiendo que vaya al 99,9 por ciento de la velocidad de la luz, y entonces”empujarlo realmente un poco más” para tratar de que cruce la barrera de la velocidad de la luz.

La energía que se comunica a un cuerpo libre puede integrarse en él de dos maneras distintas:

 

  1. En forma de velocidad, con lo cual aumenta la rapidez del movimiento.
  2. En forma de masa, con lo cual se hace “más pesado”.

La división entre estas dos formas de ganancia de energía, tal como la medimos nosotros, depende en primer lugar de la velocidad del cuerpo (medida, una vez más, por nosotros).

 

 

Resultado de imagen de Puente de Einstein-Rosen

 

Posiblemente, si tenemos el tiempo necesario para ello, al final encontraremos el camino para poder “burlar” (que no superar) la velocidad de la luz en el vacío, y, de esa manera podremos, finalmente, ir a otros mundos allí fuera, en las estrellas.

 

Estamos tratando de cruzar la barrera de la velocidad de la luz pero, Einstein, en su fórmula nos explica que tal cosa no es posible, y, el esfuerzo no tendría éxito precisamente por lo que antes hemos explicado para las dos maneras en que se transmite la energía y se puede incorporar a un cuerpo libre.
Cuanto más rápido se mueve un objeto, más energía tiene y, a partir de la fórmula de Einsteon, vemos que cuanta más energía tiene un objeto, más masa posee. Por ejemplo, los muones que se desplacen al 99,9 por ciento de la velocidad de la luz pesan más que los muónes inmóviles. De hecho, la verdad es que se vuelven 22 veces más pesados.
Resultado de imagen de La masa aumenta a velocidades cercanas a la de la luz
Pero, cuanto más masa tiene un objeto, más difícil es incrementar su velocidad. Una cosa es empujar una ligera bicleta  y otra muy distinta, empujar a un pesado camión. Así, a medida que un muón se mueve más rápido, se hace cada vez más difícil aumentar aún más su velocidad. Cuando se desplaza a un 99,999 por ciento de la velocidad de la luz, la masa de un muón se multiplica por 224; a un 99,99999999 por ciento de la velocidad de la luz se multiplica por un factor que es más de 70 000. Como la masa del muón aumenta sin limiter a medida que su velocidad se aproxima a la de la luz, sería necesario un impulso dado con una cantidad infinita de energía para alcanzar o superar la barrera de la velocidad de la luz. Por supuesto, esto es imposible de alcanzar y, en consecuencia, ningún objeto puede (en nuestro unhiverso) moverse más rápido que la luz (llegaría a tener una masa infinita) que es el limite de velocidad que podemos alcanzar y también, el limite para poder transmitir información.
La velocidad de la luz es de 300.000 kilómetros por segundo. Podría rodear la Tierra casi 7 veces cada segundo. Es una barrera, un límite en el Universo. Nada puede viajar a más velocidad. Además de ser insuperable, la velocidad de la luz parece ser uno de los fundamentos sobre los que se ha construido nuestro Universo.
Desde nuestra nave en reposo relativo vemos cómo la luz recorre más distancia entre los espejos en la nave en movimiento que en la nuestra. El Tiempo transcurre más lento para nave viajera a velocidad relativista.

La luz se propaga en el vacío a una velocidad aproximada a los 30.000 millones (3×1010) de centímetros por segundo. La cantidad c2 representa el producto c×c, es decir: 3×1010 × 3×1010, ó 9×1020. Por tanto, c2 es igual a 900.000.000.000.000.000.000. Así pues, una masa de un gramo puede convertirse, en teoría, en 9×1020 ergios de energía.

El ergio es una unida muy pequeña de energía que equivale a: “Unidad de trabajo o energía utilizado en el sistema c.g.s y actúa definida como trabajo realizado por una fuerza de 1 dina cuando actúa a lo largo de una distancia de 1 cm: 1 ergio = 10-7 julios”. La kilocaloría, de nombre quizá mucho más conocido, es igual a unos 42.000 millones de ergios. Un gramo de materia convertido en energía daría 2’2 × 1010 (22 millones) de kilocalorías.  Una persona puede sobrevivir cómodamente con 2.500 kilocalorías al día, obtenidas de los alimentos ingeridos. Con la energía que representa un solo gramo de materia tendríamos reservas para unos 24.110 años, que no es poco para la vida de un hombre.

O digámoslo de otro modo: si fuese posible convertir en energía eléctrica la energía representada por un solo gramo de materia, bastaría para tener luciendo continuamente una bombilla de 100 vatios durante unos 28.200 años.

Claro que la luz, también es mucho más que todo eso y es una manisfestación electromagnetica como el resto de las radiaciones. A medida que la luz va desde una galaxia a otra más distante, esa luz se extiende como lo hace el espacio y eso hace que la luz, cuya longitud de onda es intrínsecamente corta, se convierta gradualmente en luz roja de longitud de onda más larga. Esa es la causa del desplazamiento hacia el rojo de los espectros de luz de las galaxias distantes.

¿Cómo se convierte el  “desplazamiento hacia el rojo” en una manera para medir distancias en el Universo? Todo se debe a un sorprendente descubrimiento realizado en 1926 en el observatorio del monte Wilson, cerca de Los Ángeles. Allí Edwin Hubble descubrió que el Universo se está expandiendo. Fue un hallazgo increíble, pues nadie se esperaba algo así. Al haber  “desplazamientos hacia el rojo” en todas direcciones, Hubble descubrió que todas las galaxias distantes del Universo se estaban separando entre sí, algo que hoy sabemos que está causado por la expansión del propio espacio.

                                                                           Efecto  Doppler

Vista desde la Tierra una galaxia no parece alejarse, pero sabemos que sí ocurre porque su luz en espectro aparece más desplazada hacia la zona del rojo de lo habitual para los elementos químicos que nos llegan de la misma. Una galaxia que se aleje a poca velocidad adquirirá un ligero tono rojizo, pero una galaxia que se aleje más rápidamente adquirirá un rojo más intenso, un mayor “desplazamiento hacia el rojo”. Pero Hubble también descubrió que las galaxias que se mueven a mayor velocidad, también son las que están más alejadas. Eso significa que cuanto mayor sea el  “desplazamiento hacia el rojo”, más lejos estará la galaxia.

Averiguando la velocidad de expansión del espacio y realizando los cálculos inversos, los cosmólogos han podido estimar la edad del Universo en unos 13700 millones de años. Así que lo más lejos que podemos observar en cualquier dirección es 13700 millones de años luz. La luz no ha podido viajar más. Es el denominado “Universo observable”. Una esfera de poco menos de 13700 millones de años luz en todas direcciones que contiene todo lo que podemos ver. No hay razón para considerar que el “Universo observable” abarque todo el tamaño del Universo. Podría ser mayor, pero eso es lo que podríamos ver dado el tiempo que la luz ha viajado.
Resultado de imagen de El Universo más lejano
Un astrónomo situado en una galaxia del extremo del horizonte no puede ver ninguna de las galaxias situadas en el otro extremo de nuestro Universo. Pero puede ver galaxias situadas a unos 13.700 millones de años luz en la otra dirección y así sucesivamente. Por lo que respecta a los astrónomos de la Tierra, el límite de la velocidad de la luz los tiene atrapados. Si nos preguntáramos que está ocurriendo más allá de nuestro “Universo observable” tendríamos que afrontar el hecho de que la velocidad de la luz es realmente una barrera.

 

El GPS consta de una red de 24 satélites, que orbitan en la Tierra a una altura de 20000 km sobre la superficie. En cualquier momento, cualquier vehículo donde se halle instalado recibe la señal de al menos 4 satélites y compara la duración de las distancias a que se encuentran, a la velocidad de la luz, para calcular su ubicación exacta  en la superficie. Todo el sistema depende de relojes extraordinariamente precisos y cuando los ingenieros los diseñaron sabían que los satélites se moverían a casi 11300 km/h, una velocidad suficiente para ralentizar sus relojes una diminuta fracción de segundo. Los ingenieros incluyeron en el sistema todas las diferencias de tiempo relativistas y eso les ha conferido una precisión impresionante. Como los relojes de los satélites avanzan a unas velocidades diferentes que los relojes situados sobre la Tierra, sin estas correcciones relativistas la posición del vehículo sería errónea.

                                                             Sistema  GPS

La distorsión del tiempo es sólo una de las extrañas consecuencias de viajar con velocidades próximas a las de la luz. Imaginemos que  continuamos con la “bici” pedaleando a velocidades próximas a las de la luz, entonces el espacio comienza a hacer cosas extrañas para el ciclista y para la bicicleta. Un observador apreciaría que la longitud de la bicicleta disminuye en la dirección del movimiento, que se encoge en dicha dirección. Este efecto se conoce como  “contracción de la longitud” y junto con la  “dilatación del tiempo” son percibidos así por un observador inmóvil cuando ve algo que se mueve con velocidades próximas a la de la luz.

Pero también el ciclista que se mueve a esta velocidad experimenta los efectos relativistas y su visión del mundo cambia radicalmente conforme su velocidad se aproxima a la de la luz. Las formas de las cosas comienzan a distorsionarse, todo se curva formándose una especie de túnel y los colores se van deformando también. Los cambios de color se explican por el fenómeno físico denominado  “efecto Doppler”, mientras que la distorsión de la forma ocurre por un fenómeno óptico denominado “aberración”.
La velocidad de la luz tiene otras peculiaridades en el lento movimiento de nuestro mundo. Peculiaridades que sí percibimos muy bien. La velocidad de la luz es constante, pero únicamente en el vacío del espacio. Cuando la luz atraviesa otros medios como el vidrio o algún fluido se ralentiza considerablemente. Si no lo hiciese así los telescopios o la visión humana, por ejemplo, no funcionarían.

La luz viaja más lentamente a través del agua, por eso vemos que la luz se refracta, se curva y se ondula cuando estamos bajo el agua. La vida tal y como la conocemos sería muy diferente si la luz no se propagara a velocidades diferentes a través de materiales diferentes. No podríamos ver y nuestros ojos no funcionarían igual. En un universo donde la luz se moviese a igual velocidad a través de todos los materiales, sabríamos muy poco del mundo que nos rodeara, sólo veríamos vagas manchas de luz y oscuridad. Esto ocurriría porque nuestros ojos dependen de unas lentes biológicas, los cristalinos, para enfocar las imágenes en nuestras  retinas. Al igual que las lentes de cristal funcionan porque la luz se ralentiza cuando las atraviesan. Pero, ¿por qué ocurre eso?. Porque la luz es absorbida por los átomos de cristal que la vuelven a irradiar a continuación, de manera que existe un retardo. La luz golpea un átomo que vibra y entonces reenvía la luz, de ahí viene el retardo. Este retardo también hace que la luz se curve cuando encuentra un cristal en forma de lente. Si se curva de forma adecuada la luz puede ser enfocada, recogida y ampliada. Para los astrónomos nada puede ser más importante. Menos mal que la luz se ralentiza cuando pasa a través del cristal, porque esa es la razón de que poseamos telescopios. Los tenemos gracias a que la luz se curva cuando atraviesa el cristal, así podemos concentrar grandes cantidades de luz en un solo punto y eso nos permite contemplar las lejanas maravillas del Universo. La luz pasa a través de la lente del telescopio a 200000 km/s, 2/3 de su velocidad en el vacío.

Aún nos enfrentamos a la velocidad de la luz como un muro impenetrable. Una velocidad que según Einstein nunca podrá ser rebasada. Sin embargo la Historia está llena de imposibles que se hicieron realidad. Por ejemplo, ¿seremos capaces de alcanzar las estrellas en naves que viajen más rápidas que la velocidad de la luz? Y si es así, ¿cuándo?

Esa es la idea básica del concepto de  “Agujero de gusano”, plegar el espacio sobre sí mismo y tomar un atajo a través del Universo. Hoy, naturalmente, esta idea pertenece aún al ámbito de la ciencia ficción. ¿Pero que aspecto tendría una máquina de agujeros de gusano? Probablemente sería enorme y su equipamiento podría estar situado sobre un gran número de asteroides, dispuestos sobre una esfera gigantesca. Una gran batería de rayos láser concentraría una enorme cantidad de energía sobre un solo punto. Habría que alcanzar una temperatura increíble con el fin de abrir un agujero, una burbuja o puerta que quizás nos llevase a otra parte del  Universo.
                            Nave interestelar de ficción
       
Otra estrategia diferente que nos permitiría viajar por el espacio a mayor velocidad que la luz es el  “Impulso por deformación” que en la literatura de ciencia ficción también se denomina “motor de curvatura”. ¿Qué puede frenar o poner límites a nuestra imaginación.
En realidad, yo estaba hablando de que la masa y la energía son dos aspectos de la misma cosa y de que, la velocidad de la luz produce extraños efectos para los objetos que tratan de sobrepasarlas, ?que digo? que tratan de acercarse a ella. Ya lo hemos visto más arriba con los muones que se transforman en otra cosa a medida que la velcoidad de la luz está más cerca de la que ellos llevan.
                                           Hay cuestiones que aún no podemos explicar
También aquí, en nuestro Sol, está presente la famosa ecuación de Einstein, por medio de lo que ella explica, es posible que las estrellas brillen en el cielo, que la Tierra tenga la luz y el calor necesarios para la vida y que las plantas puedan realizar su necesaria fotosíntesis.
emilio silvera

Simetría CP y otros aspectos de la Física

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Los quarks al otro lado del espejo. Científicos del Laboratorio Nacional Jefferson Lab (EEUU) han verificado la rotura de la simetría de paridad (también llamada simetría del espejo) en los quarksmediante el bombardeo de núcleos de deuterio con electrones de alta energía. Los núcleos de deuterioestán formados por un protón y un neutrón, es decir, por tres quarks arriba y tres quarks abajo. La dispersión inelástica entre un electrón y un quark, es decir, su colisión, está mediada por la interacción electrodébil, tanto por la fuerza electromagnética como por la fuerza débil. Esta última es la única interacción fundamental que viola la simetría de paridad.

Tenemos que saber cómo la violación de la simetría CP (el proceso que originó la materia) aparece, y, lo que es más importante, hemos de introducir un nuevo fenómeno, al que llamamos campo de Higgs, para preservar la coherencia matemática del modelo estándar.  La idea de Higgs, y su partícula asociada, el bosón de Higgs, cuenta en todos los problemas que he mencionado antes.  Parece, con tantos parámetros imprecisos (19) que, el modelo estándar se mueve bajo nuestros pies.

Entre los teóricos, el casamiento de la relatividad general y la teoría cuántica es el problema central de la física moderna. A los esfuerzos teóricos que se realizan con ese propósito se les llama “supergravedad”, “súpersimetría”, “supercuerdas” “teoría M” o, en último caso, “teoría de todo o gran teoría unificada”.

La Física nos lleva de vez en cuando a realizar viajes alucinantes. Se ha conseguido relacionar y vibrar a dos diamantes en el proceso conocido como entrelazamiento cuántico. El misterioso proceso, al que el propio Eisntein no supo darle comprensión completa, supone el mayor avance la fecha y abre las puertas de la computación cuántica. que nos hagamos una idea del hallazgo, en 1935 Einsteinlo llegó a denominar la “acción fantasmal a distancia”. Un efecto extraño en donde se conecta un objeto con otro de manera que incluso si están separados por grandes distancias, una acción realizada en uno de los objetos afecta al otro.

Ahí tenemos unas matemáticas exóticas que ponen de punta hasta los pelos de las cejas de algunos de los mejores matemáticos del mundo (¿y Perelman? ¿Por qué nos se ha implicado?).  Hablan de 10, 11 y 26 dimensiones, siempre, todas ellas espaciales menos una que es la temporal.  Vivimos en cuatro: tres de espacio (este-oeste, norte-sur y arriba-abajo) y una temporal. No podemos, ni sabemos o no es posible instruir, en nuestro cerebro (también tridimensional), ver más dimensiones. Pero llegaron Kaluza y Klein y compactaron, en la longitud de Planck las dimensiones que no podíamos ver. ¡Problema solucionado! Pero se sigue hablando de partículas supersimétricas.

Resultado de imagen de longitud de Planck

                                   ¿Quién puede ir a la longitud de Planck para verlas?

La puerta de las dimensiones más altas quedó abierta y, a los teóricos, se les regaló una herramienta maravillosa.  En el Hiperespacio, todo es posible.  Hasta el matrimonio de la relatividad general y la mecánica cuántica, allí si es posible encontrar esa soñada teoría de la Gravedad cuántica.

Así que, los teóricos, se han embarcado a la búsqueda de un objetivo audaz: buscan una teoría que describa la simplicidad primigenia que reinaba en el intento calor del universo en sus primeros tiempos, una teoría carente de parámetros, donde estén presentes todas las respuestas.  Todo debe ser contestado a partir de una ecuación básica.

¿Dónde radica el problema?

El problema está en que la única teoría candidata no tiene conexión directa con el mundo de la observación, o no lo tiene todavía si queremos expresarnos con propiedad. La energía necesaria para ello,  no la tiene ni la nueva capacidad energético del  acelerador de partículas LHC . Ni sumando todos los aceleradores de partículas de nuestro mundo, podríamos lograr una energía de Planck (1019 GeV), que sería necesaria para poder llegar hasta las cuerdas vibrantes de la Teoría. Ni en las próximas generaciones seremos capaces de poder utilizar tal energía.

La verdad es que, la teoría que ahora tenemos, el Modelo Estándar, concuerda de manera exacta con todos los datos a bajas energías y contesta cosas sin sentido a altas energías. Sabemos sobre las partíoculas elementales que conforman la materia bariónica, es decir, los átomos que se juntan para formar moléculas, sustancias y cuerpos… ¡La materia! Pero, no sabemos si, pudiera haber algo más elemental aún más allá de los Quarks y, ese algo, pudieran ser esas cuerdas vibrantes que no tenemos capacidad de alcanzar.

¡Necesitamos algo más avanzado!

Se ha dicho que la función de la partícula de Higgs es la de dar masa a las Cuando su autor lanzó la idea al mundo, resultó además de nueva muy extraña.  El secreto de todo radica en conseguir la simplicidad: el átomo resulto ser complejo lleno de esas infinitesimales partículas electromagnéticas que bautizamos con el nombre de electrones, resultó que tenía un núcleo que contenía, a pesar de ser tan pequeño, casi toda la masa del átomo.  El núcleo, tan pequeño, estaba compuesto de otros objetos más pequeños aún, los quarks que estaban instalados en nubes de otras partículas llamadas gluones y, ahora, queremos continuar profundizando, sospechamos, que después de los quarks puede haber algo más.

Resultado de imagen de Con 7 TeV ha sido suficiente para encontrar la famosa partícula de Higgs pero…

                  Con 7 TeV fue suficiente para “encontrar” la famosa partícula de Higgs pero…

Bueno, la idea nueva que surgió es que el espacio entero contiene un campo, el campo de Higgs, que impregna el vacío y es el mismo en todas partes. Es decir, que si miramos a las estrellas en una noche clara estamos mirando el campo de Higgs.  Las partículas influidas por este campo, toman masa.  Esto no es por sí mismo destacable, pues las partículas pueden tomar energía de los campos (gauge) de los que hemos comentado, del campo gravitatorio o del electromagnético.  Si llevamos un bloque de plomo a lo alto de la Torre Eiffel, el bloque adquiriría energía potencial a causa de la alteración de su posición en el campo gravitatorio de la Tierra.

Como E=mc2, ese aumento de la energía potencial equivale a un aumento de la masa, en este caso la masa del Sistema Tierra-bloque de plomo.  Aquí hemos de añadirle amablemente un poco de complejidad a la venerable ecuación de Einstein.  La masa, m, tiene en realidad dos partes.  Una es la masa en reposo, m0, la que se mide en el laboratorio cuando la partícula está en reposo.  La partícula adquiere la otra parte de la masa en virtud de su movimiento (como los protones en el acelerador de partículas, o los muones, que aumentan varias veces su masa cuando son lanzados a velocidades cercanas a c) o en virtud de su energía potencial de campo. Vemos una dinámica similar en los núcleos atómicos.  Por ejemplo, si separamos el protón y el neutrón que componen un núcleo de deuterio, la suma de las masas aumenta.

Peor la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo.  Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas.

Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.

La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por Pieter Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo.  El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.

Hasta ahora no tenemos ni idea de que reglas controlan los incrementos de masa generados por el Higgs(de ahí la expectación creada por las nuevas energías del acelerador de partículas LHC). Pero el problema es irritante: ¿por qué sólo esas masas -Las masas de los W+, W, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?

Las masas van de la del electrón 0’0005 GeV, a la del top, que tiene que ser mayor que 91 GeV.  Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electrodébil (Weinberg-Salam).  Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles.  En la unidad hay cuatro partículas mensajeras sin masa -los W+, W, Zº fotón que llevan la fuerza electrodébil.  Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébilse fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa.  La simetría se rompe espontáneamente, dicen los teóricos.  Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa.

Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que ^t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.

Resultado de imagen de Feynman escribió su famosa pregunta: “¿Por qué pesa el muón?

Todos los intentos y los esfuerzos por hallar una pista del cuál era el origen de la masa fallaron.  Feynman escribió su famosa pregunta: “¿Por qué pesa el muón?”.  Ahora, por lo menos, tenemos una respuesta parcial, en absoluto completa.  Una vez potente y segura nos dice: “!Higgs¡” Durante más de 60 años los físicos experimentadores se rompieron la cabeza con el origen de la masa, y ahora el campo Higgs presenta el problema en un contexto nuevo; no se trata sólo del muón. Proporciona, por lo menos, una fuente común para todas las masas. La nueva pregunta feynmariana podría ser: ¿Cómo determina el campo de Higgs la secuencia de masas, aparentemente sin patrón, que da a las partículas de la matería?

La variación de la masa con el estado de movimiento, el cambio de masa con la configuración del sistema y el que algunas partículas (el fotón seguramente y los neutrinos posiblemente) tengan masa en reposo nula son tres hechos que ponen entre dicho que el concepto de masa sea una tributo fundamental de la materia.  Habrá que recordar aquel cálculo de la masa que daba infinito y nunca pudimos resolver; los físicos sólo se deshicieron del “renormalizándolo”, ese truco matemático que emplean cuando no saben hacerlo bien.

Ese es el problema de trasfondo con el que tenemos que encarar el problema de los quarks, los leptones y los vehículos de las fuerzas, que se diferencian por sus masas.  Hace que la historia de Higgs se tenga en pie: la masa no es una propiedad intrinseca de las partículas, sino una propiedad adquirida por la interacción de las partículas y su entorno.

La idea de que la masa no es intrinseca como la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en laque los espines estarían asociados para siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.

¡Ah, una cosa más! Hemos hablado de los bosones gauge y de su espín de una unidad; hemos comentado también las partículas fermiónicas de la materia (espin de media unidad). ¿Cuál es el pelaje de Higgs? Es un bosón de espin cero.  El espín supone una direccionalidad en el espacio, pero el campo de Higgs de masa a los objetos dondequiera que estén y sin direccionalidad.  Al Higgs se le llama a veces “bosónescalar” [sin dirección] por esa razón.

                                                     Basta con cambiar un quark tipo u a uno tipo d.

Pues justamente esto es lo que ocurre en la naturaleza cuando entra en acció la fuerzxa nuclear débil.  Un quark tipo u cambia a uno tipo d por medio de la interacción débil así

Las otras dos partículas que salen son un anti-electrón y un neutrino. Este mismo proceso es el responsable del decaimiento radiactivo de algunos núcleos atómicos. Cuando un neutrón se convierte en un protón en el decaimiento radiactivo de un núcleo, aparece un electrón y un neutrino. Este es el origen de la radiación beta (electrónes).

La interacción débil, recordareis, fue inventada por E.Fermin para describir la desintegración radiactiva de los núcleos, que era básicamente un fenómeno de poca energía, y a medida que la teoría de Fermi se desarrolló, llegó a ser muy precisa a la hora de predecir un enorme número de procesos en el dominio de energía de los 100 MeV.  Así que ahora, con las nuevas tecnologías y energías del LHC, las esperanzas son enormes para, por fin, encontrar el bosón Higgs origen de la masa… y algunas cosas más.

Hay que responder montones de preguntas.  ¿Cuáles son las propiedades de las partículas de Higgs y, lo que es más importante, cuál es su masa? ¿Cómo reconoceremos una si nos la encontramos en una colisión de LHC? ¿Cuántos tipos hay? ¿Genera el Higgs todas las masas, o solo las hace incrementarse? ¿Y, cómo podemos saber más al respecto? Como s su partícula, nos cabe esperar que la veamos ahora después de gastar más de 50.000 millones de euros en los elementos necesarios para ello.

También a los cosmólogos les fascina la idea de Higgs, pues casi se dieron de bruces con la necesidad de tener campos escalares que participasen en el complejo proceso de la expansión del Universo, añadiendo, pues, un peso más a la carga que ha de soportar el Higgs.

El campo de Higgs, tal y como se lo concibe ahora, se puede destruir con una energía grande, o temperaturas altas. Estas generan fluctuaciones cuánticas que neutralizan el campo de Higgs. Por lo tanto, el cuadro que las partículas y la cosmología pintan juntas de un universo primitivo puso y de resplandeciente simetría es demasiado caliente para Higgs. Pero cuando la temperatura cae bajo los 10′5grados kelvin o 100 GeV, el Higgs empieza a actuar y hace su generación de masas.  Así por ejemplo, antes de Higgs teníamos unos W, Z y fotones sin masa y la fuerza electrodébil unificada.

El Universo se expande y se enfría, y entonces viene el Higgs (que engorda los W y Z, y por alguna razón ignora el fotón) y de ello resulta que la simetría electrodébil se rompe.

Resultado de imagen de Interacción electrodébil

Tenemos entonces una interacción débil, transportada por los vehículos de la fuerza W+, W, Z0, y por otra parte una interacción electromagnética, llevada por los fotones. Es como si para algunas partículas del campo de Higgs fuera una especie de aceite pesado a través del que se moviera con dificultad y que las hiciera parecer que tienen mucha masa. Para otras partículas, el Higgs es como el agua, y para otras, los fotones y quizá los neutrinos, es invisible.

De todas las maneras, era tanta la ignorancia que teniamos sobre el origen de la masa que, nos agarrabamos como a un clavo ardiendo el que se ahoga, en este caso, a la partícula de Higgs que, algunos, llegaron a llamar, de manera un poco exagerada:

¡La partícula “Divina”!

¡Ya veremos en que termina todo esto! Y que explicación se nos va ofreciendo desde el CERN en cuanto al auténtico escenario que según ellos, existe en el Universo para que sea posible que las partículas tomen su masa de ese oceáno de Higgs, en el que, según nuestro amigo Ramón Márquez, las partículas se frenan al interaccionar con el mismo y toman su masa, el lo llama el “efecto frenado”.

Peter Higgs, de la Universidad de Edimburgo, introdujo la idea en la física de partículas.  La utilizaron los teóricos Steven Weinberg y Abdus Salam, que trabajaban por separado, para comprender como se convertía la unificada y simétrica fuerza electrodébil, transmitida por una feliz familia de cuatro partículas mensajeras de masa nula, en dos fuerzas muy diferentes: la QED con un fotón carente de masa y la interacción débil con sus W+, W– y Z0 de masa grande.  Weinberg y Salam se apoyaron en los trabajos previos de Sheldon Glasgow, quien tras los pasos de Julian Schwinger, sabía sólo que había una teoría electrodébil unificada, coherente, pero no unió todos los detalles. Y estaban Jeffrey Goldstone y Martines Veltman y Gerard’t Hooft.  También hay otras a los que había que mencionar, pero lo que siempre pasa, quedan en el olvido de manera muy injusta.  Además, ¿Cuántos teóricos hacen falta para encender una bombilla?

La verdad es que, casi siempre, han hecho falta muchos.  Recordemos el largo recorrido de los múltiples detalle sueltos y físicos que prepararon el terreno para que, llegara Einstein y pudiera, uniéndolo todos, exponer su teoría relativista. (Mach, Maxwell, Lorentz… y otros).

Sobre la idea de Peter Higgs, Veltman, uno de sus arquitectos, decía que era una alfombra bajo la que barríamos nuestra ignorancia.  Glasgow era menos amable y lo llamó retrete donde echamos las incoherencias de nuestras teorías actuales.  La objeción principal: que no teníamos la menor prueba experimental parece que se esfumó en 2012 cuando “encontraron” la dichosa partícula.

Ahora, por fin la tenemos con el LHC, y ésta pega, se la traspasamos directamente a la teoría de supercuerdas y a la materia oscura que, de momento, están en la sombra y no brillan con luz propia, toda vez que ninguna de ellas ha podido ser verificada, es decir, no sabemos si el Universo atiende a lo que en ellas se predice.

El modelo estándar es lo bastante fuerte para decirnos que la partícula de Higgs de menor masa (podría haber muchas) debe “pesar” menos de 1 TeV. ¿Por qué? Si tiene más de 1 TeV, el modelo estándar se vuelve incoherente y tenemos la crisis de la unitariedad.

Resultado de imagen de El campo de Higgs y la materia oscura

Después de todo esto, llego a la conclusión de que, el campo de Higgs, el modelo estándar y nuestra idea de cómo pudo surgir  el Universo dependen de que se encuentre (no sólo) el bosón de Higgs, sino los demás parámetros aleatorios y metidos con calzador en el Modelo Estándar. Y se averigúe si realmente existe la materia oscura, Sepamos llegar al fondo de la Teoría de Cuerdas y confirmarla, Poder crear esa Teoría cuántica de la Gravedad…Y, en fín, seguir descubriendo los muchos misterios que no nos ejan saber lo que el Universo es.  Ahora, por fin, tenemos grandes aceleradores y Telescopisos con la energía necesaria y las condiciones tecnológicas suficientes para que nos muestre todo eso que queremos saber y nos digan dónde reside esa verdad que incansables perseguimos.

¡La confianza en nosotros mismos, no tiene límites! Pero, no siempre ha estado justificada.

emilio silvera

La Física relativista, la cuántica y… ¡El futuro!

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 «

 

 

File:Spacetime curvature.png

Esta es una analogía bidimensional de la distorsión del espacio-tiempo debido a un objeto de gran masa

            Hay que entender que el espacio-tiempo es la única descripción en cuatro dimensiones del Universo en la que la posición de un objeto se especifica por tres coordenadas en el espacio y una en el tiempo. De acuerdo con la relatividad especial, no existe un tiempo absoluto que pueda ser medido con independencia del observador, de manera que sucesos simultáneos para un observador ocurren en instantes diferentes vistos desde otro lugar.

          El tiempo puede ser medido, por tanto, de manera relativa, como los son las posiciones en el espacio tridimensional, y esto puede conseguirse mediante el concepto de espacio-tiempo. La trayectoria de un objeto en el espacio-tiempo se denomina por el nombre de línea de Universo. La relatividad general, nos explica lo que es un espacio-tiempo curvo con las posiciones y movimientos de las partículas de materia.

   Presencia de materia y curvatura

 

La densidad de energía-momentum en la teoría de la relatividad se representa por cuadritensor energía-impulso. Las componentes de dicho tensor representan entre otras la densidad de energía y la densidad de momentum y dichas componentes están relacionadas localmente con las componentes del curvatura. La relación entre la presencia de materia y la curvatura debida a dicha materia viene dada por la ecuación de campo de Einstein:

 

 

 

Es una fuerza atractiva que en la comunidad científica actual es concebida como la pensó Einstein: como un efecto de la curvatura del espacio-tiempo en presencia de de objetos masivos y, cuanto más masa tenga el objeto más se curvará el espacio a su alrededor.

 

 

R_{\mu\nu} - {1\over 2}R g_{\mu\nu} + \Lambda g_{\mu\nu} = {8 \pi G \over c^4} T_{\mu\nu}

donde:

 

R_{\mu\nu}\,, es el tensor de curvatura de Ricci
R\, es el escalar de curvatura de Ricci
T_{\mu\nu}\,, es el tensor de energía-impulso

Ejemplos

 

Una representación del paraboloide de Flamm, cuya curvatura geométrica coincide con la del plano de la eclíptica de una estrella esféricamente simétrica. El campo gravitatorio solar viene dado de manera aproximada por la métrica de Schwarzschild, que a distancias muy grandes se aproxima a geometría plana del espacio de Minkowski. La figura de la derecha muestra aproximadamente el plano de la eclíptica del Sistema solar modelizado mediante la métrica de Schwarzschild, una órbita planetaria es una curva cuasi-elíptica alrededor del centro de dicha eclíptica.

          Así, la curvatura del espacio tiempo es la propiedad del espacio-tiempo en la que las leyes familiares de la geometría no son aplicables en regiones donde los campos gravitatorios son intensos. La relatividad general de Einstein, nos explica y demuestra que el espacio-tiempo está íntimamente relacionado con la distribución de materia en el Universo y, nos dice que, el espacio se curva en presencia de masas considerables como planetas, estrellas o Galaxias…

        En realidad, es la presencia de la materia la que determina la geometría del espacio-tiempo

En un espacio de sólo dos dimensiones, como una lámina de goma plana, la geometría de Euclides se aplica de manera que la suma de los ángulos internos de un triángulo en la lámina es de 180º. Si colocamos un objeto masivo sobre la lámina de goma, la lámina se distorsionará y los caminos de los objetos que se muevan sobre ella se curvaran. Esto es en esencia, lo que ocurre en relatividad general.

Lo cierto es que, desde que llegó Einstein con sus versiones de la teoría relativista, muchas fueron las cosas que cambiaron y, nuestros conceptos del mundo…, también. Fenómenos que se crean en la naturaleza y que son la consecuencia de la presencia de masas o de velocidades muy grandes.

¡Los efectos de c -la velocidad de la luz en el espacio vacío-! Recordad la paradoja de los gemelos: Uno de ellos, que es astronauta, hace un viaje a la velocidad de la luz hasta Alfa de Centauri y regresa, cuando baja de la nave espacial, tiene 8,6 años más que cuando partió de la Tierra. Sin embargo, su hermano gemelo que le esperó en el planeta Tierra, era ya un anciano  jubilado. El tiempo transcurrido había pasado más lento para el gemelo viajero. La velocidad ralentiza el transcurrir del tiempo.

El Universo es todo energía que se manifiesta de distintas maneras: bien como masa, o, bien como radiación.

          Otra curiosidad de la relatividad especial es la que expresó Einstein mediante su famosa fórmula de E= mc2 que, nos viene a decir que masa y energía son dos aspectos de una misma cosa. Podríamos considerar que la masa (materia), es energía congelada. Todos sabemos lo que ocurre cuando se desintegra un átomo de materia y la enorme cantidad de energía que tiene concentrada.

          Hay otras implicaciones dentro de esta maravillosa teoría de la relatividad especial, ahí está presente también la contracción de Lorentz. Un objeto que se mueve a velocidad de cercana a c, se achata o contrae en el sentido de la marcha, y, además, a medida que se acerca a la velocidad de la luz (299.752,458 Km/s), su masa va aumentando y su velocidad disminuyendo.

          Así se ha demostrado con muones en los aceleradores de particulas que, lanzados a verlocidades relativista, han alcanzado una masa en 10 veces superior a la suya. Esto quiere decir que la fuerza de inercia que se le está transmitiendo a una nave (por ejemplo), cuando se acerca a la velocidad de la luz, se convierte en masa.

          Así queda demostrado que, masa y energía son dos aspectos de la misma cosa E=mc2. Pero no olvidemos que…

http://4.bp.blogspot.com/_zBAdWxgEeX0/R87vhcBGPII/AAAAAAAACI4/MCE-Wi6d2v0/s320/galatomo.jpg

    Todos hemos llegado a comprender que, todo lo grande está hecho de cosas pequeñas. Sin emnbargo hay cosas que aún no tenemos claras, y, un ejemplo de ello es, ¡El Hiperespacio!

    Esta idea interesante ha sido utilizada en diversas teorías físicas prometedoras que han recurrido formalmente a la introducción de nuevas dimensiones formales para dar cuenta de fenómenos físicos. Así Kaluza y Klein trataron de crear una teoría unificada (clásica) de la gravedad y del electromagnetismo, introduciendo, a las cuatro dimensiones de la teoría relativista, una quinta dimensión adicional. En esta teoría la carga podía relacionarse con la quinta componente de la “pentavelocidad” de la partícula, y otra serie de cuestiones interesantes. El enfoque de varias teorías de supercuerdas es aún más ambicioso y se han empleado esquemas inspirados remotamente en la ideas de Einstein, Kaluza y Klein que llegan a emplear hasta diez y once dimensiones, de las cuales seis o siete estarían compactificadas y no serían detectables más que indirectamente.

Nuestra inemsa imaginación nos ha llevado a buscar teorías que no podemos comprobar de manera experimental y, dentro de esas teorías, están, o, pudieran estar, las claves para viajar a otras regiones del espacio muy distantes de la nuestra por ese medio que intuimos, que pudiera ser accesible para nosotros y que hemos llamado Hiperespacio, que estaría situado en la quinta dimensión.

Resultado de imagen de Mecánica cuántica relativista

Mecánica cuántica, relatividad, átomos, el genóma, agujeros negros, la constante cosmológica, la constante de Planck racionalizada… Sabemos representar muchas otras cosas y estamos a la búsqueda de otras que intuimos como la “materia oscura”, o, ¿por qué no? la quinta dimensióny el hiperespacio. No cejamos en el desarrollo de la “imposible” teoría de cuerdas y también, buscamos bosones dadores de masa en un espacio profundo, de cuyo contenido sabemos poco.

Con los conocimientos de la mecánica cuántica que tenemos, hemos conseguido teletransportar  las propiedades de la materia. Las películas de ciencia ficción -desde Star Trek hasta La Mosca- nos han mostrado un futuro donde las personas pueden teletransportarse sin problemas. Y aunque los científicos aún no logran transferir materia… Creo que, ¡todo se andará!

Resultado de imagen de Teleportación cuántica

La teleportación cuántica no consiste en transportar instantáneamente objetos, sino de transferir el “estado” de una o varias partículas, los constituyentes íntimos de la materia, de un lugar a otro y sin necesidad de enviar físicamente la partícula a través del espacio.  Este sorprendente logro es posible gracias al “entrelazamiento cuántico”, una extraña y aún poco comprendida propiedad de las partículas subatómicas que permite que dos -o más-,  partículas unan sus destinos de tal forma que cualquier cambio de estado que se produzca en una de ellas se refleje de forma instantánea también en la otra, sin importar la distancia que las separe.No sabemos de qué manera, esas partículas permanecen “unidas” y la física clásica no puede darnos una explicación. Sin embargo, siendo conocedores de tal fenómeno, los científicos llevan veinte años intentando sacar rendimiento a esa realidad extraordinaria que nos envía la promesa de que, con ella, podemos traer una nueva revolución al campo de las comunicaciones por satélite, la informática y… ¿quién sabe qué más?

Sí, es cierto que, tanto la teletransportación de personas, como el viaje por el Hiperespacio es -todavía- cosa de la ciencia ficción pero… Acordáos de cuando Arthur Clarke nos hablaba de satélites que orbitaban la Tierra para recoger y enviarnos datos de alto interés en los diversos campos de la actividad humana. Aquello, parecía una fantasía y, sin embargo ahora, es lo cotidiano.

http://3.bp.blogspot.com/_eqb8qL2GKZc/SwWlUSrOYKI/AAAAAAAACTk/EZ68cuxIaAw/s1600/warsp.jpg

¿Quién puede decir ahora qué mundo futuro nos espera? Conforme a los conocimientos que actualmente tenemos, podemos intuir el devenir tecnologíco que los avances de la ciencia nos pueden proporcionar y, entre los muchos que están ahí, en ese horizonte futuro, están todos estos de los que hablamos y, seguramente, muchos más que ni podemos imaginar. Seguramente, como tambioén ahora mismo está pasando, no todos los aspectos de la tecnología futura nos gustarán.

universos paralelos2.gif

La mejor manera de no equivocarse es tener la mente abierta a todo. Negar la existencia de universos paralelos, o, la certeza de la teoría de cuerdas…, ¿A dónde nos lleva? ¡A ninguna parte! Así pues, mantengamos la confianza en nosotros mismos, en lo que nuestras mentes llegan a intuir, y, dejémos, que nuestra “infinita” imaginación siga haciendo su trabajo y dibujando en nuestras mentes esos escenarios de mundos que podrían ser… ¡Una realidad futura!

emilio silvera

Afirmaciones sorprendentes

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (7)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Recreación artística de cómo nacieron las primeras estrellas.

Así nacieron las primeras estrellas: sólo 180 millones de años después del Big Bang

 

Investigadores estadounidenses registran una señal muy precoz de Universo que sugiere una colisión de la materia oscura y la normal.

 

Resultado de imagen de Las primeras estrellas
 

Por primera vez, un equipo de astrónomos ha detectado una señal de estrellas emergentes en el universo más precoz. Usando una antena de radio no mucho más grande que un refrigerador, los investigadores descubrieron que las antiguas estrellas estaban activas sólo 180 millones de años después del Big Bang.

Los astrónomos, de la Universidad Estatal de Arizona (ASU) y el Instituto de Tecnología de Massachusetts (MIT), hicieron el descubrimiento dentro de su experimento Global Signature Epo (Epoch of Reionization) Signature (EDGES), financiado por la National Science Foundation (NSF).

 Imagen relacionada

                                                        El nacimiento de las primeras estrellas

 

Los resultados se han publicado en la edición de marzo de Nature. “Encontrar esta señal minúscula ha abierto una nueva ventana hacia el universo temprano”, dice el astrónomo Judd Bowman de la Universidad de Arizona, el investigador principal del proyecto. “Los telescopios no pueden ver lo suficiente como para obtener imágenes directas de estrellas antiguas, pero hemos visto cuando se activaron en ondas de radio que llegaban del espacio“.

Los modelos del universo más antiguo dan a entender que tales estrellas eran masivas, azules y de corta duración. Sin embargo, debido a que los telescopios no pueden verlos, los astrónomos han estado buscando evidencia indirecta, como un cambio revelador en la radiación electromagnética de fondo que impregna el universo, llamada fondo de microondas cósmico (CMB).

Una línea del tiempo actualizada con los nuevos hallazgos.

 

 

Una línea del tiempo actualizada con los nuevos hallazgos. N.R.Fuller,National Science Foundation

Una pequeña caída en la intensidad, por ejemplo, debería notarse en las señales de radio CMB, pero el ambiente atestado de ondas de radio de la Tierra ha obstaculizado la búsqueda de los astrónomos.
Tales caídas ocurren en longitudes de onda entre 65 y 95 MHz, superponiéndose con algunas de las frecuencias más ampliamente utilizadas en el dial de radio FM, así como con ondas de radio que emanan naturalmente de la galaxia de la Vía Láctea. “Hay un gran desafío técnico para hacer esta detección”, dice Peter Kurczynski, director del programa NSF que supervisó los fondos para EDGES. “Las fuentes de ruido pueden ser 10.000 veces más brillantes que la señal, es como estar en medio de un huracán y tratando de escuchar el aleteo del ala de un colibrí “.
A pesar de los obstáculos, los astrónomos confiaban en que sería posible encontrar tal señal, gracias a investigaciones previas que indicaban que las primeras estrellas liberaron enormes cantidades de luz ultravioleta (UV). Esa luz interactuó con los átomos de hidrógeno flotantes, que comenzaron a absorber los fotones CMB circundantes.
“Uno empieza a ver el gas de hidrógeno en elcontorno de frecuencias de radio particulares“, dice el coautor Alan Rogers del Haystack Observatory del MIT. “Esta es la primera señal real de que las estrellas comienzan a formarse y comienzan a afectar al medio que las rodea“.
El espectómetro EDGES, situado en Australia.

 

El espectómetro EDGES, situado en Australia. CSIRO Australia

En su artículo, el equipo de EDGES informó de que había visto una señal clara en los datos de ondas de radio, detectando una caída en la intensidad de CMB cuando comenzó ese proceso. A medida que la fusión estelar continuó, la luz UV resultante comenzó a desgarrar los átomos de hidrógeno flotando libremente, eliminando sus electrones en un proceso llamado ionización. Cuando las primeras estrellas murieron, los agujeros negros, las supernovas y otros objetos que dejaron continuaron el proceso de ionización y calentaron el hidrógeno libre restante con rayos X, que con el tiempo extinguieron la señal. Los datos EDGES revelan que el hito ocurrió aproximadamente 250 millones de años después del Big Bang.
Un segundo estudio publicado en el mismo número de la revista sugiere que el gas se enfrió por la interacción del hidrógeno con algo aún más frío: la materia oscura. Según la señal observada, los autores argumentan que las partículas de materia oscura no es más pesada que varias masas de protones.

Las Interacciones fundamentales de la Naturaleza

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Como pueden haber deducido por el título, me estoy refiriendo a cualquiera de los cuatro tipos diferentes de interacciones que pueden ocurrir entre los cuerpos.  Estas interacciones pueden tener lugar incluso cuando los cuerpos no están en contacto físico y juntas pueden explicar todas las fuerzas que se observan en el universo.

https://mgmdenia.files.wordpress.com/2014/04/images.jpegLa interacción más potente de todas es la que hace posible que los núcleos atómicos existan al mantener confinados a los quarks dentro de los nucleones (protones y neutrones)

Viene de lejos el deseo de muchos físicos que han tratado de unificar en una teoría o modelo a las cuatro fuerzas, que pudieran expresarse mediante un conjunto de ecuaciones. Einstein se pasó los últimos años de su vida intentándolo, pero igual que otros antes y después de él, aún no se ha conseguido dicha teoría unificadora de los cuatro interacciones fundamentales del universo. Se han hecho progresos en la unificación de interacciones electromagnéticas y débiles.

Figuras

Estos diagramas son una concepción artística de los procesos físicos. No son exactos y no están hechos a escala. Las áreas sombreadas con verde representan la nube de gluones o bien el campo del gluón, las líneas rojas son las trayectorias de los quarks.

Decaimiento del neutrón

En el texto del recuadro dice: Un neutrón decae en un protón, un electrón y un antineutrino, a través de un bosón virtual (mediador). Este es el decaimiento beta del neutrón.

emás emenos hacia <i>B</i>0 <i>B</i>bar0″ align=”LEFT” vspace=”10″ /> <a name=

En el texto del recuadro dice: Una colisión electrón – positrón (antielectrón) a alta energía puede aniquilarlos para producir mesones B0 y Bbarra0 a través de un bosón Z virtual o de un fotón virtual.

eta_c hacia pimás K0 Kmenos

El texto del recuadro dice: Dos protones que colisionan a alta energía pueden producir varios hadrones más partículas de masa muy grande tales como los bosones Z. Este tipo de suceso es raro pero puede darnos claves cruciales sobre cómo es la estructura de la materia.

Aunque no pueda dar esa sensación, todo está relacionado con las interacciones fundamentales de la materia en el entorno del espacio-tiempo en el que se mueven y conforman objetos de las más variadas estructuras que en el Universo podemos contemplar, desde una hormiga a una estrella, un mundo o una galaxia. Las fuerzas fundamentales de la Naturaleza siempre están presentes y de alguna manera, afecta a todo y a todos.

Cuando hablamos de la relatividad general, todos pensamos en la fuerza gravitatoria que es unas 1040 veces más débil que la fuerza electromagnética. Es la más débil de todas las fuerzas y sólo actúa entre los cuerpos que tienen masa. Es siempre atractiva y pierde intensidad a medida que las distancias entre los cuerpos se agrandan. Como ya se ha dicho, su cuanto de gravitación, el gravitón, es también un concepto útil en algunos contextos. En la escala atómica, esta fuerza es despreciablemente débil, pero a escala cosmológica, donde las masas son enormes, es inmensamente importante para mantener a los componentes del universo juntos. De hecho, sin esta fuerza no existiría el Sistema Solar ni las galaxias, y seguramente, nosotros tampoco estaríamos aquí. Es la fuerza que tira de nuestros pies y los mantiene firmemente asentados a la superficie del planeta. Aunque la teoría clásica de la gravedad fue la que nos dejó Isaac Newton, la teoría macroscópica bien definida y sin fisuras de la gravitación universal es la relatividad general deEinstein, mucho más completa y profunda.

Resultado de imagen de La gravedad cuántica

Nadie ha podido lograr, hasta el momento, formular una teoría coherente de la Gravedad Cuántica que unifique las dos teorías. Claro que, la cosa no será nada fácil, ya que, mientras que aquella nos habla del macrocosmos, ésta otra nos lleva al microcosmos, son dos fuerzas antagónicas que nos empeñamos en casar.

       Seguimos empeñados en buscar esa teoría que una lo muy grande con lo muy pequeño y la Gravedad, hasta el momento no da el sí

Por el momento, no hay una teoría cuántica de la interacción gravitatoria satisfactoria. Es posible que la teoría de supercuerdas pueda dar una teoría cuántica de la gravitación consistente, además de unificar la gravedad con los demás interacciones fundamentales sin que surjan los dichosos e indeseados infinitos.

¿Hallado un «agujero» en el modelo estándar de la Física?

      Las partículas colisionan ente sí y se producen cambios y transiciones de fase

Algunos han puesto en duda la realidad del Modelo Estándar que, como se ha dicho aquí en otros trabajos, está construído con el contenido de una veintena de parámetros aleatorios (entre ellos el Bos´çon de Higgs) que no son nada satisfactorios para dar una conformidad a todo su entramado que, aunque hasta el momento ha sido una eficaz herramienta de la física, también es posible que sea la única herramienta que hemos sabido construir pero que no es ¡la herramient! 

Es posible que sola sea cuestión de tiempo y de más investigación y experimento. En el sentido de la insatisfacción reinante entre algunos sectores, se encuentran los físicos del experimento de alta energía BaBar, en el SLAC, un acelerador lineal situado en Stanford (California). Según ellos, la desintegración de un tipo de partículas llamado «B to D-star-tau-nu» es mucho más frecuente de lo predicho por el modelo estándar. Puede que no sea importante y puede que, hasta la existencia del Bosón de Higgs esté en peligro a pesar de que en el LHC digan que se ha encontrado.

                                       Esquema del decaimiento Beta y una sencilla explicación de la interacción débil

La fuerza débil recibe su nombre porque a la escala de sus interacciones es la más débil dentro del modelo estándar. Pero ojo, esto no incluye la gravedad, puesto que la gravedad no pertenece al modelo estándar por el momento. La interacción débil ocurre a una escala de  metros, es decir, la centésima parte del diámetro de un protón y en una escala de tiempos muy variada, desde  segundos hasta unos 5 minutos. Para hacernos una idea, esta diferencia de órdenes de magnitud es la misma que hay entre 1 segundo y 30 millones de años.

La interacción débil, que es unas 1010 veces menor que la interacción  electromagnética, ocurre entre leptones y en la desintegración de los hadrones. Es responsable de la desintegración beta de las partículas y núcleos. En el modelo actual, la interacción débil se entiende como una fuerza mediada por el intercambio de partículas virtuales, llamadas bosones vectoriales intermediarios, que para esta fuerza son las partículas W+, W y Z0.  Las interacciones débiles son descritas por la teoría electrodébil, que las unifica con las interacciones electromagnéticas.

                      Propiedades de los Bosones mediadores intermediarios de la fuerza débil

La teoría electrodébil es una teoría gauge de éxito que fue propuesta en 1.967 por Steven Weinberg y Abdus Salam, conocida como modelo WS.  También Sheldon Glashow, propuso otra similar.

La interacción electromagnética es la responsable de las fuerzas que controlan la estructura atómica, reacciones químicas y todos los fenómenos electromagnéticos. Puede explicar las fuerzas entre las partículas cargadas, pero al contrario que las interacciones gravitacionales, pueden ser tanto atractivas como repulsivas. Algunas partículas neutras se desintegran por interacciones electromagnéticas. La interacción se puede interpretar tanto como un modelo clásico de fuerzas (ley de Coulomb) como por el intercambio de unos fotones virtuales. Igual que en las interacciones gravitatorias, el hecho de que las interacciones electromagnéticas sean de largo alcance significa que tiene una teoría clásica bien definida dadas por las ecuaciones de Maxwell. La teoría cuántica de las interacciones electromagnéticas se describe con la electrodinámica cuántica, que es una forma sencilla de teoría gauge.

                               El electromagnetismo está presente por todo el Universo

La interacción fuerte es unas 102 veces mayor que la interacción electromagnética y, como ya se dijo antes, aparece sólo entre los hadrones y es la responsable de las fuerzas entre nucleones que confiere a los núcleos de los átomos su gran estabilidad. Actúa a muy corta distancia dentro del núcleo (10-15 metros) y se puede interpretar como una interacción mediada por el intercambio de mesones virtuales llamados Gluones. Está descrita por una teoría gauge llamada Cromodinámica cuántica.

CNO Cycle.svg

La interacción fuerte, también conocida como interacción nuclear fuerte, es la interacción que permite unirse a los quarks para formar hadrones. A pesar de su fuerte intensidad, su efecto sólo se aprecia a distancias muy cortas del orden del radio atómico. Según el Modelo estándar, la partícula mediadora de esta fuerza es el Gluón.  La teoría que describe a esta interacción es la cromodinámica cuántica  (QCD) y fue propuesta por David Politzer, Frank Wilczek y David Gross en la década de 1980 y por lo que recibieron el Nobel 30 años más tarde cuando el experimento conformó su teoría.

La interacción fuerte, como se ha explicado muchas veces, es la más fuerte de todas las fuerzas fundamentales de la Naturaleza, es la responsable de mantener unidos los protones y neutrones en el núcleo del átomo. Como los protones y neutrones están compuestos de Quarks, éstos dentro de dichos bariones, están sometidos o confinados en aquel recinto, y, no se pueden separar por impedirlo los gluones que ejercen la fuerza fuerte, es decir, esta fuerza, al contrario que las demás, cuando más se alejan los quarks los unos de los otros más fuerte es. Aumenta con la distancia.

En la incipiente teoría del campo electromagnético sugerida por Faraday, desaparecía la distinción esencial entre fuerza y materia, introduciendo la hipótesis de que las fuerzas constituyen la única sustancia física.

Las características de las fuerzas eran:

  1. Cada punto de fuerza actúa directamente sólo sobre los puntos vecinos.

  2. La propagación de cualquier cambio de la intensidad de la fuerza requiere un tiempo finito.

  3. Todas las fuerzas son básicamente de la misma clase; no hay en el fondo fuerzas eléctricas, magnéticas ni gravitatorias, sino sólo variaciones (probablemente geométricas) de un sólo tipo de fuerza subyacente.

Lo importante al considerar la influencia de la metafísica de Faraday en sus investigaciones, es su suposición de que la teoría de campos ofrece una explicación última a todos los fenómenos. Los cuerpos sólidos, los campos eléctricos y la masa de los objetos son, de alguna forma,  sólo apariencias. La realidad subyacente es el campo, y el problema de Faraday era encontrar un lazo de unión entre las apariencias y la supuesta realidad subyacente

       Estaría bueno que al final del camino se descubriera que todas son una sola fuerza con distintas manifestaciones según el ámbito en el que la podamos encontrar, así se comporta.

El concepto de campo de Faraday ha dado mucho juego en Física, es un concepto ideal para explicar cierttos fenómenos que se han podido observar en las investigaciones de las fuerzas fundamentales y otros. El campo no se ve, sin embargo, está ahí, rodea los cuerpos como, por ejemplo, un electrón o el planeta Tierra que emite su campo electromagnético a su alrededor y que tan útil nos resulta para evitar problemas.

Me he referido a una teoría gauge que son teorías cuánticas de campo creadas para explicar las interacciones fundamentales. Una teoría gauge requiere un grupo de simetría para los campos y las potenciales (el grupo gauge). En el caso de la electrodinámica, el grupo es abeliano, mientras que las teorías gauge para las interacciones fuertes y débiles utilizan grupos no abelianos. Las teorías gauge no abelianas son conocidas como teorías de Yang–Mills. Esta diferencia explica por qué la electrodinámica cuántica es una teoría mucho más simple que la cromodinámica cuántica, que describe las interacciones fuertes, y la teoría electrodébil que unifica la fuerza débil con la electromagnética. En el caso de la gravedad cuántica, el grupo gauge es mucho más complicado que los anteriores necesarios para la fuerza fuerte y electrodébil.

En las teorías gauge, las interacciones entre partículas se pueden explicar por el intercambio de partículas (bosones vectoriales intermediarios o bosones gante), como los gluones, fotones y los W y Z.

El físico Enrico Fermi, refiriéndose al gran número de partículas existentes, dijo: “Si tuviera que saber el nombre de todas las partículas, me habría hecho botánico.” Por todo lo antes expuesto, es preciso conocer los grupos o familias más importantes de partículas, lógicamente  “el espacio tiempo” nos limita y, me remitiré a  las más comunes, importantes y conocidas como:

–  Protón, que es una partícula elemental estable que tiene una carga positiva igual en magnitud a la del electrón y posee una masa de 1’672614×10-27 Kg, que es 1836,12 veces la del electrón. El protón aparece en los núcleos atómicos, por eso es un nucleón que estáformado por partículas más simples, los Quarks. Es decir, un protón está formado por dos quarks up y un quark down.

Estructura de quarks de un neutrón

–  Neutrón, que es un hadrón como el protón pero con carga neutra y también permanece en el núcleo, pero que se desintegra en un protón, un electrón y un antineutrino con una vida media de 12 minutos fuera del núcleo. Su masa es ligeramente mayor que la del protón (símbolo mn), siendo de 1’6749286(10)×10-27 kg. Los neutrones aparecen en todos los núcleos atómicos excepto en el del hidrógeno que está formado por un solo protón. Su existencia fue descubierta y anunciada por primera vez en 1.932 por James Chadwick (1891-1974. El protón está formado por tres quarks, dos quarks down y un quark up. Fijáos en la diferencia entre las dos partículas: la aparentemente minúscula diferencia hace que las dos partículas “hermanas” se comporten de formas muy distintas: la carga del protón es  +2/3 +2/3 -1/3 = +1. Pero como el neutrón tiene up/down/down su carga es +2/3 -1/3 -1/3 = 0. ¡No tiene carga!  No porque no haya nada con carga en él, sino porque las cargas que hay en su interior se anulan.

           Andamos a la caza de los neutrinos

Los neutrinos, se cree que no tienen masa o, muy poca, y, su localización es difícil. Se han imaginado grandes recipientes llenos de agua pesada que, enterrados a mucha profundidad en las entrañas de la Tierra, en Minas abandonadas, captan los neutrinos provenientes del Sol y otros objetos celestes, explosiones supernovas, etc.

–  Neutrino, que es un leptón que existe en tres formas exactas pero (se cree que) con distintas masas. Tenemos el ve (neutrino electrónico) que acompaña al electrón, vμ (neutrino muónico) que acompaña al muón, y vt (neutrino tau) que acompaña a la partícula tau, la más pesada de las tres. Cada forma de neutrino tiene su propia antipartícula.

El neutrino fue postulado en 1.931 para explicar la “energía perdida” en la desintegración beta. Fue identificado de forma tentativa en 1.953 y definitivamente en 1.956. Los neutrinos no tienen carga y se piensa que tienen masa en reposo nula y viajan a la velocidad de la luz, como el fotón. Hay teorías de gran unificación que predicen neutrinos con masa no nula, pero no hay evidencia concluyente.

Se ha conseguido fotografíar a un electrón. Poder filmar y fotografiar un electrón no es fácil por dos razones: primero, gira alrededor del núcleo atómico cada 0,000000000000000140 segundos , y, segundo, porque para fotografiar un electrón es necesario bombardearlo con partículas de luz (y cualquier que haya intentado sacarle una foto a un electrón sabe que hay que hacerlo sin flash).

–  Electrón, que es una partícula elemental clasificada como leptón, con una carga de 9’109 3897 (54)×10-31Kg y una carga negativa de 1´602 177 33 (49) x 10-19 culombios. Los electrones están presentes en todos los átomos en agrupamientos llamados capas alrededor están presentes en todos los átomos en agrupamientos llamados capas alrededor del núcleo; cuando son arrancados del átomo se llaman electrones libres. Su antipartícula es el positrón, predicha por Paul Dirac.

File:Helium atom QM.svg

        El núcleo del átomo constituye el 99,9% de la masa

En los átomos existen el mismo número de protones que el de electrones, y, las cargas positivas de los protones son iguales que las negativas de los electrones, y, de esa manera, se consigue la estabilidad del átomo al equilibrarse las dos fuerzas contrapuestas. El electrón fue descubierto en 1.897 por el físico británico Joseph John Thomson (1.856 – 1940). El problema de la estructura (si la hay) del electrón no está resuelto. Si el electrón se considera como una carga puntual, su autoenergía es infinita y surgen dificultades en la ecuación conocida como de Lorente–Dirac.

Es posible dar al electrón un tamaño no nulo con un radio ro, llamado radio clásico del electrón, dado por e2/(mc2) = 2’82×10-13cm, donde e y m son la carga y la masa, respectivamente, del electrón y c es la velocidad de la luz. Este modelo también tiene problemas, como la necesidad de postular las tensiones de Poincaré.

Muchas son las partículas de las que aquí podríamos hablar, sin embargo, me he limitado a las que componen la materia, es decir Quarks y Leptones que conforman Protones y Neutrones, los nucleaones del átomo que son rodeados por los electrones. El Modelo Estándar es la herramienta con la ue los físicos trabajan (de momento) hasta que surjan nuevas y más avanzadas teorías que permitan un modelo más eficaz y realista. De Wikipedia he cogido el cuadro comparativo de las fuerzas.

Tabla comparativa

 

Interacción7 Teoría descriptiva Mediadores Fuerza relativa Comportamiento con la distancia (r) Alcance (m)
Fuerte Cromodinámica cuántica (QCD) gluones 1038  \frac {e^{- \frac {r}{R}}}{r^2} 10-15
Electromagnética Electrodinámica cuántica (QED) fotones 1036 \frac{1}{r^2} \infty
Débil Teoría electrodébil bosones W y Z 1025 \frac{e^{-m_{W,Z}r}}{r^2} 10-18
Gravitatoria Gravedad cuántica gravitones (hipotéticos) 1 \frac{1}{r^2} \infty

La teoría cuántica de campos es el marco general dentro del cual se inscriben la cromodinámica cuántica, la teoría electrodébil y la electrodinámica cuántica. Por otra parte la “gravedad cuántica” actualmente no consiste en un marco general único sino un conjunto de propuestas que tratan de unificar la teoría cuántica de campos y la relatividad general.

Van surgiendo por ahí nuevas conjeturas como, por ejemplo, las de Maldacena. En 1997 el joven físico argentino Juan Maldacena sugirió utilizar esta solución de gravedad para describir la teoría gauge que vive en las D-Branas.

“Las consecuencias de esta conjetura son muy importantes, pues existe la posibilidad de que el resto de interacciones (electromagnéticas y nucleares) sean tan sólo una ilusión, el reflejo sobre el cristal de un escaparate del contenido de la tienda. Así, podría ser que el electromagnetismo tan sólo sea la imagen proyectada de la interacción de algunas cuerdas en un supuesto interior del espacio-tiempo. De la misma manera, la necesidad de compactificar las dimensiones adicionales desaparece en cierto modo si consideramos que, quizás, nuestro mundo sea solamente la frontera; siendo el interior del espacio-tiempo inaccesible.”

 

Que gran sorpresa sería si al final del camino se descubriera que en realidad solo existe una sola fuerza: La Gravedad, de la que se derivan las otras tres que hemos podido conocer en sus ámbitos particulares y que, ¿por qué no? podrían surgir a partir de aquella primera y única fuerza existente en los principios o comienzos del Universo: ¡La Gravedad! Que no acabamos de comprender.

emilio silvera