Abr
18
La maravilla de… ¡los cuantos!
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (0)

Es una magnitud fundamental llamada cuanto de acción y es el Ser de la Mecánica Cuántica. Planck lo llamó “cuanto” y lo simbolizó con la letra h.
La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos. Planck escribió un artículo de ocho páginas y el resultado fue que cambió el mundo de la física y aquella páginas fueron la semilla de la futura ¡mecánica cuántica! que, algunos años más tardes, desarrollarían físicos como Einstein (Efecto fotoeléctrico), Heisenberg (Principio de Incertidumbre), Feynman, Bhor, Schrödinger, Dirac…

La expresión radiación se refiere a la emisión continua de energía de la superficie de todos los cuerpos. Los portadores de esta energía son las ondas electromagnéticas producidas por las vibraciones de las partículas cargadas que forman parte de los átomos y moléculas de la materia. La radiación electromagnética que se produce a causa del movimiento térmico de los átomos y moléculas de la sustancia se denomina radiación térmica o de temperatura.

Ley de Planck para cuerpos a diferentes temperaturas.
Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía.
Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico o una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a – 273,15 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de la luz visible.

Acero al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:
E = hv
Donde E es la energía del paquete, v es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.
Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck.
El príncipe francés Louis Victor de Broglie, dándole otra vuelta a la teoría, que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta dirección del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.

Es curioso el comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Edwin Schrödinger descubrió como escribir la teoría ondulatoria de De Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar los cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de onda cuántica”.

No hay duda de que la Mecánica Cuántica funciona maravillosamente bien. Sin embargo, surge una pregunta muy formal: ¿qué significan realmente esas ecuaciones?, ¿qué es lo que están describiendo? Cuando Isaac Newton, allá por el año 1687, formuló cómo debían moverse los planetas alrededor del Sol, estaba claro para todo el mundo lo que significaban sus ecuaciones: que los planetas están siempre en una posición bien definida en el espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades con el tiempo.
Pero para los electrones todo esto es muy diferente. Su comportamiento parece estar envuelto en la bruma. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?

Niels Bohr consiguió responder a esta pregunta de forma tal que con su explicación se pudo seguir trabajando y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la “interpretación de Copenhague” de la Mecánica Cuántica. En vez de decir que el electrón se encuentra en el punto x o en el punto y, nosotros hablamos del estado del electrón. Ahora no tenemos el estado “x” o el estado “y”, sino estados “parcialmente x” o “parcialmente y. Un único electrón puede encontrarse, por lo tanto, en varios lugares simultáneamente. Precisamente lo que nos dice la Mecánica Cuántica es como cambia el estado del electrón según transcurre el tiempo.
Un “detector” es un aparato con el cual se puede determinar si una partícula está o no presente en algún lugar pero, si una partícula se encuentra con el detector su estado se verá perturbado, de manera que sólo podemos utilizarlo si no queremos estudiar la evolución posterior del estado de la partícula. Si conocemos cuál es el estado, podemos calcular la probabilidad de que el detector registre la partícula en el punto x.

Las leyes de la Mecánica Cuántica se han formulado con mucha precisión. Sabemos exactamente como calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas simultáneamente. Por ejemplo, podemos determinar la velocidad de una partícula con mucha exactitud, pero entonces no sabremos exactamente dónde se encuentra; o, a la inversa. Si una partícula tiene “espín” (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.
No es fácil explicar con sencillez de dónde viene esta incertidumbre, pero hay ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar.
![]()
¿Onda o partícula? ¡Ambas a la vez! ¿Cómo es eso?
Para que las reglas de la Mecánica Cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuanto más grande y más pesado es un objeto más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica.
Me gustaría referirme a esta exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por “holismo”, y que se podría definir como “el todo es más que la suma de las partes”.
Bien, si la Física nos ha enseñado algo, es justamente lo contrario: un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (las partículas): basta que uno sepa sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que yo entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes.

Por ejemplo, la constante de Planck, h = 6,626075…x 10 exp. -34 julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.
Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisenberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros tales como Edwin Schrödinger, siempre presentaron serias objeciones a esta interpretación.
Quizá funcione bien, pero ¿dónde está exactamente el electrón, en el punto x o en el punto y? Em pocas palabras, ¿dónde está en realidad?, ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.
Hasta hoy, muchos investigadores coinciden con la actitud pragmática de Bohr. Los libros de historia dicen que Bohr demostró que Einstein estaba equivocado. Pero no son pocos, incluyéndome a mí, los que sospechamos que a largo plazo el punto de vista de Einstein volverá: que falta algo en la interpretación de Copenhague. Las objeciones originales de Einstein pueden superarse, pero aún surgen problemas cuando uno trata de formular la mecánica cuántica para todo el Universo (donde las medidas no se pueden repetir) y cuando se trata de reconciliar las leyes de la mecánica cuántica con las de la Gravitación… ¡Infinitos!
La mecánica cuántica y sus secretos han dado lugar a grandes controversias, y la cantidad de disparates que ha sugerido es tan grande que los físicos serios ni siquiera sabrían por donde empezar a refutarlos. Algunos dicen que “la vida sobre la Tierra comenzó con un salto cuántico”, que el “libre albedrío” y la “conciencia” se deben a la mecánica cuántica: incluso fenómenos paranormales han sido descritos como efectos mecano-cuánticos.
Yo sospecho que todo esto es un intento de atribuir fenómenos “ininteligibles” a causas también “ininteligibles” (como la mecánica cuántica) dónde el resultado de cualquier cálculo es siempre una probabilidad, nunca una certeza.
Claro que, ahí están esas teorías más avanzadas y modernas que vienen abriendo los nuevos caminos de la Física y que, a mi no me cabe la menor duda, más tarde o más temprano, podrá explicar con claridad esas zonas de oscuridad que ahora tienen algunas teorías y que Einstein señalaba con acierto.
¿No es curioso que, cuando se formula la moderna Teoría M, surjan, como por encanto, las ecuaciones de Einstein de la Relatividad General? ¿Por qué están ahí? ¿Quiere eso decir que la Teoría de Einstein y la Mecánica Cuántica podrán al fin unirse en pacifico matrimonio sin que aparezcan los dichosos infinitos?
Bueno, eso será el origen de otro trabajo que también, cualquier día de estos, dejaré aquí para todos ustedes.
Emilio Silvera Vázquez
Abr
18
¡La Física! Los Caminos de la Naturaleza
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)
Conexiones sin fin que nos llevan a tener consciencia de Ser
La conciencia con una inmensa diversidad como si de una galaxia se tratara y que contiene tantas neuronas como estrellas tiene aquella. Nuestro cerebro contiene 86.000 millones de neuronas,

- “Todas esas neuronas se comunican a través de unas largas fibras de protoplasma llamadas axones. Aunque parezca mentira, hay 160.934 kilómetros de ellas, lo que supondría dar la vuelta al mundo cuatro veces.
-
- Las neuronas son verdaderos bólidos en ese movimiento, y se estima que los impulsos neuronales se transmiten a velocidades de 350 km por hora.
- Hay 10 billones de sinapsis entre esas neuronas, un número que por ejemplo supera al número total de células del cuerpo humano.
-
- Para regar todo ese sistema hay más de 640 kilómetros de vasos capilares.
- Se estima que nuestro cerebro es capaz de realizar unos 10.000 billones (con b española) de cálculos por segundo, y aquí suelen producirse las comparaciones con los supercomputadores actuales. De momento ninguna máquina es capaz de lograr emular ese rendimiento, pero algunos estudios sostienen que en apenas 10 años llegaremos a contar con esa potencia en uno de esos supercomputadores.
- Esa capacidad de cálculo exige su propia alimentación: el cerebro hace uso de una cantidad de energía equivalente a 25 W para funcionar, y además consume el 20% del oxígeno del cuerpo humano.”
¿La Consciencia? Uno de los mayores misterios del Universo.

Tratamos de recorrer los complicados caminos sin fin de las neuronas, tratamos de encontrar la respuesta, y, la Conciencia no se deja ver. Está ahí pero, ¿Dónde se esconde?

¡Preludio a la relatividad! -Las ecuaciones de Lorentz-Fitzgerald– Éste último pensaba y decía cosas comos estas:

George FitzGerald
“… la telegrafía debe mucho a Euclides y otros geómetras puros, al griego y al árabe que fueron matemáticos magistrales que inventaron nuestra escala de numeración y el álgebra, de Galileo y Newton, que fundaron la dinámica, para que Newton y Leibniz inventaran el cálculo, para que Volta descubriera la galvánica bobina, a Oersted quien descubrió la acción magnética de las corrientes, que a Ampère descubriera las leyes de su acción, a Ohm que descubrió la ley de la resistencia de los cables, a Wheatstone, de Faraday, a Lord Kelvin, a Clerk Maxwell, Hertz a… Sin los descubrimientos, invenciones, y las teorías científicas resumen de estos hombres la telegrafía y otras maravillas y conocimientos… ¡serían imposibles ahora!”
Hendrik Antoon Lorentz
Se le deben importantes aportaciones en los campos de la termodinámica, la radiación, el magnetismo, la electricidad y la refracción de la luz. Formuló conjuntamente con George Francis FitzGerald una teoría sobre el cambio de forma de un cuerpo como resultado de su movimiento; este efecto, conocido como “contracción de Lorentz-FitzGerald”, cuya representación matemática de ella es conocida con el de transformación de Lorentz, fue una más de las numerosas contribuciones realizadas por Lorentz al desarrollo de la teoría de la relatividad.
Fue, al igual que Henri Poincaré, uno de los primeros en formular las bases de la teoría de la relatividad (frecuentemente atribuida primaria o solamente a Albert Einstein). Fue ganador del Premio Nobel de Física en 1902, junto con su pupilo Pieter Zeeman, por su investigación conjunta sobre la influencia del magnetismo en la radiación, originando la radiación electromagnética. fue premiado con la Medalla Rumford en 1908 y la Medalla Coplay en 1918. Lorentz era hombre humilde y sencillo y le gustaba resaltar los logros de los demás:
Michael Faraday
“Como es probable que sepas, gran parte de nuestro conocimiento sobre la electricidad y el magnetismo se basa en los experimentos ingeniosísimos realizados por Michael Faraday en la primera parte del siglo XIX. Faraday era un experimentador genial, y descubrió numerosos fenómenos desconocidos hasta entonces, como la mutua. Estableció diversas leyes, pero no pudo elaborar una teoría global acerca del electromagnetismo porque sus conocimientos matemáticos no iban más allá de la trigonometría: hacía falta un teórico capaz de amalgamar el conocimiento adquirido por Faraday y otros experimentadores, como Hans Christian Ørsted, en una teoría general”.
Ese teórico era otro genio, James Clerk Maxwell, que estableció un conjunto de cuatro ecuaciones diferenciales bellísimas que describían de una manera extraordinariamente precisa los resultados de casi todos los experimentos de Faraday, Ørsted y compañía. Lo más sorprendente, el propio Maxwell y sus contemporáneos, fue una de las consecuencias inevitables de sus ecuaciones: la existencia de perturbaciones del campo eléctrico y el magnético que se propagaban por el espacio.”
![]()
A la contracción, Einstein le dio un marco teórico en la teoría especial de la relatividad. En teoría, un objeto de longitud l0 en reposo en un sistema de referencia parecerá, un observador en otro sistema de referencia que se mueve con velocidad relativa v con respecto al primero, tener longitud
, donde c es la velocidad de la luz. La hipótesis original atribuía contracción a una contracción real que acompaña al movimiento absoluto del cuerpo. La contracción es en cualquier caso despreciable a no ser que v sea del mismo orden o cercana a c.
Un objeto que se moviera a 11,2 Km/s (la velocidad de escape de nuestro planeta) experimentaría sólo una contracción equivalente a 2 partes por cada 1.000 millones en el sentido del vuelo. Pero a velocidades realmente elevadas, tal contracción sería sustancial. A unos 150.000 Km/s (la mitad de la velocidad de la luz) sería del 15%; a 262.000 Km/s (7/8 de la velocidad de la luz), del 50%. Es decir, que una regla de 30 cm que pasara ante nuestra vista a 262.000 Km/s nos parecería que mide sólo 15’24 cm, siempre y cuando conociéramos alguna manera para medir su longitud en pleno vuelo. Y a la velocidad de la luz, es decir, 300.000 Km/s en números redondos, su longitud en la dirección del movimiento sería cero. Puesto que, presuntamente, no puede existir ninguna longitud inferior a cero, se deduce que la velocidad de la luz en el vacío es la mayor que puede imaginarse el universo.
![]()
![]()
experimento conocido de Michelson-Morley
Todo aquello fue posible gracia a que en 1893, el físico irlandés George Francis FitzGerald emitió una hipótesis explicar los resultados negativos del experimento conocido de Michelson-Morley. Adujo que toda materia se contrae en la dirección del movimiento, y que esa contracción es directamente proporcional al ritmo (velocidad) del movimiento.
Según tal interpretación, el interferómetro se quedaba corto en la dirección del “verdadero” movimiento terrestre, y lo hacía precisamente en una cantidad que compensaba con toda exactitud la diferencia de distancias que debería recorrer el rayo luminoso. Por añadidura, todos los aparatos medidores imaginables, incluyendo los órganos sensoriales humanos, experimentarían ese mismo fenómeno.
Parecía como si la explicación de FitzGerald insinuara que la Naturaleza conspiraba con objeto de impedir que el hombre midiera el movimiento absoluto, lo cual introducía un efecto que anulaba cualquier diferencia aprovechable para detectar dicho movimiento.
Este asombroso fenómeno recibió el de “contracción de FitzGerald”, y su autor formuló una ecuación para el mismo que, referido a la contracción de un cuerpo móvil, fue predicha igualmente, y de manera independiente, por H.A.Lorentz (1853-1928) de manera que, finalmente, se quedaron unidas como “Contracción de Lorentz-Fitz Gerald”.
El efecto Fitzgerald sobre longitudes y el efecto Lorentz sobre masas mantuvieron una conexión tan estrecha que aparecieron a menudo agrupadas como las ecuaciones Lorentz-Fitzgerald.

La dilatación del tiempo es el fenómeno predicho por la teorçia de la relatividad, por el cual un observador observa que el reloj de otro (un reloj físicamente idéntico al suyo) está marcando el tiempo a un ritmo menor que el que mide su reloj. Esto se suele interpretar normalmente como que el tiempo se ha ralentizado para el otro reloj, pero eso es cierto solamente en el contexto del sistema de referencia del observador. Localmente, el tiempo siempre está pasando al mismo ritmo. El fenómeno de la dilatación del tiempo se aplica a cualquier proceso que manifieste cambios a través del tiempo.
Donde:
es el intervalo temporal entre dos eventos co-locales para un observador en algún sistema de referencia inercial. (por ejemplo el número de tic tacs que ha hecho su reloj)
es el intervalo temporal entre los dos mismos eventos, tal y como lo mediría otro observador moviéndose inercialmente con velocidad v, respecto al primer observador
es la velocidad relativa entre los dos observadores
la velocidad de la luz y
es el también conocido como factor de Lorentz
De esta manera la duración del un ciclo de reloj del reloj que se mueve se ha incrementado: esta “funcionando más despacio”. Según lo indicado las transformaciones de Lorentz pueden ser utilizadas para casos más generales.
Postulados de la Relatividad Especial

- Primer postulado: Principio especial de relatividad: Las leyes de la física son las mismas en todos los sistemas de referencia inerciales. En otras palabras, no existe un sistema inercial de referencia privilegiado, que se pueda considerar como absoluto.
- Segundo postulado: Invariancia de c: La velocidad de la luz en el vacío es una constante universal, c, que es independiente del movimiento de la fuente de luz.
Einstein que se apropió de aquella idea (de Lorentz) y, además, la amplió al contraer también el Tiempo. La contracción de la longitud ha sido verificada en el diseño, por ejemplo, del acelerador lineal de la Universidad de Stanford. Las partículas salen con una velocidad v = 0,999975c, por tanto, metro de tubo acelerador es “visto” por los electrones como 144 metros. Si, según la expresión anterior, un cuerpo con masa se moviera a la velocidad c desaparecería por contracción de su longitud para un observador en reposo, lo cual refuerza el carácter inalcanzable de velocidad. Si los objetos con masa alcanzan este límite de velocidad la estructura básica de la realidad se desvanece. Por otra parte, vemos que cualquier influencia que afecte al tiempo también lo hará con el espacio. Esto no nos debe de extrañar, ya que ambas magnitudes se encuentran íntimamente relacionadas por lo único que se nos mantiene invariable: la velocidad de la luz. En relatividad hablamos de espacio-tiempo ya que son inseparables.
A la contracción, Einstein, le dio un marco teórico en la teoría especial de la relatividad. En teoría, un objeto de longitud /0 en reposo en un sistema de referencia parecerá, para un observador en otro sistema de referencia que se mueve con velocidad relativa v con respecto al primero, tener longitud /0 , donde c es la velocidad de la luz. La hipótesis original atribuía esta contracción a una contracción real que acompaña al movimiento absoluto del cuerpo. La contracción es en cualquier caso despreciable a no ser que v sea del mismo orden o cercana a c.
Un objeto que se moviera a 11 km/s (la velocidad de escape de nuestro planeta) experimentaría sólo una contracción equivalente a 2 partes por cada 1.000 millones en el sentido del vuelo. Pero a velocidades realmente elevadas, tal contracción sería sustancial. A unos 150.000 km/seg. (la mitad de la velocidad de la luz, c), sería del 15%; a 262.000 km/seg. (7/8 de la velocidad de la luz), del 50% Es decir, que una regla de 30 cm. que pasara ante nuestra vista a 262.000 km (seg., nos parecería que mide sólo 15’54 cm…, siempre y cuando conociéramos alguna manera medir su longitud en pleno vuelo. Y a la velocidad de la luz, es decir, 300.000 km/seg., en números redondos, su longitud, en la dirección del movimiento, sería cero. Puesto que, presuntamente, no puede existir ninguna longitud inferior a cero, se deduce que la velocidad de la luz en el vacío es la mayor que puede imaginarse en el Universo. (Pero ¿existir también?).
El físico holandés Hendrik Antón Lorentz, como hemos dicho, promovió ésta idea pensando en los rayos catódicos (que ocupaban su actividad por aquellas fechas), se hizo el siguiente razonamiento: si se comprimiera la carga de una partícula reducir su volumen, aumentaría su masa. Por consiguiente, una partícula voladora, escorzada en la dirección de su desplazamiento por la contracción de Fitz Gerald, debería crecer en términos de masa.

Un objeto que corra a velocidades cercanas a la de la luz, verá incrementada su masa
Lorentz presentó una ecuación sobre el acrecentamiento de la masa, que resultó muy similar a la ecuación FitzGerald sobre el acortamiento. A 149.637 kilómetros por segundo, la masa de un electrón aumentaría en un 15%; a 262.000 km/seg., en un 100% (es decir, la masa se duplicaría); y a la velocidad de la luz, su masa sería infinita. Una vez más pareció que no podría haber ninguna velocidad superior a la de la luz, pues, ¿cómo podría ser una masa mayor que infinita? El efecto FitzGerald sobre longitudes y el efecto Lorentz sobre masas mantuvieron una conexión tan estrecha que aparecieron a menudo agrupadas las “ecuaciones Lorentz-FitzGerald.”
Mientras que la contracción FitzGerald no podía ser objeto de mediciones, el efecto Lorentz sobre masas si podía serlo…, aunque indirectamente. De hecho, el muón, tomó 10 veces su masa original fue lanzado, a velocidades relativistas, en el acelerador de partículas, lo que confirmó la ecuación de Lorentz. Los experimentos posteriores, han confirmado las ecuaciones de ambos: a velocidades relativistas, las longitudes se contraen y las masas se incrementan.

Nada puede viajar a la velocidad de la luz
Como es conocido por todos, Einstein adoptó estos descubrimientos y los incorporó a su teoría de la relatividad especial que, aunque mucho más amplia, recoge la contracción de FitzGerald y el aumento de la masa de Lorentz cuando se alcanzan grandes velocidades.
¡Qué cosas!
Algunas veces pienso que, los artistas en general, y los poetas en particular, tendrían que adaptar e incluir a sus esquemas artísticos y poéticos, los adelantos científicos, para asimilarlos en las diversas expresiones y sentimientos que serán después puestos al servicio del consumo humano.
Estos adelantos científicos serían así coloreados con las pasiones humanas y transformadas, de alguna manera, en la sangre, y por qué no, los sentimientos de la naturaleza humana.
Posiblemente, de haberlo hecho así, el grado general de conocimiento sería mayor.
Emilio Silvera Vázquez
Abr
17
¡El límite de las teorías!
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (20)
Presentado en la XIX Edición del

Siempre andamos a vueltas con las teorías, y, tenemos que ser conscientes que las teorías tienen unos límites que están bien determinados. Veamos:
Longitud de Planck: valor = 1.616255(18)×10−35 m7.
Masa de Planck: valor = 2.176434(24)×10−8 kg.
Tiempo de Planck: valor = 5.391247(60)×10−44 s.
Temperatura de Planck: valor = 1.416784(16)×1032 K.
Planck consideró sólo las unidades basadas en las constantes universales G, h, c, y kB para llegar a unidades naturales para longitud, tiempo, masa y temperatura. Sus definiciones difieren de las modernas en un factor de 2π, porque las definiciones modernas utilizan ℏ en lugar de h

¿Cuáles son los límites de la teoría cuántica y de la teoría de la relatividad general de Einstein? Afortunadamente, hay una respuesta simple y las unidades de Planck nos dicen cuales son.

Y precisamente esta constante es el segundo motivo por el que no encuentras los muebles en una posición diferente cada vez que entras en el salón.
Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de onda cuántica. Podemos preguntarnos en qué momento esta longitud de onda cuántica del universo visible superará su tamaño. La respuesta es: cuando el universo sea más pequeño en tamaño que la longitud de Planck, es decir, 10-33 centímetros, más joven que el tiempo de Planck 10ˉ⁴³ segundos y supere la temperatura de Planck de 1032 grados. Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender en que se parece el mundo a una escala menor que la longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la gravedad. Para entender lo que podría haber sucedido cerca del suceso que estamos tentados a llamar el principio del universo, o el comienzo del tiempo, tenemos que penetrar la barrera de Planck. Las constantes de la naturaleza marcan las fronteras de nuestro conocimiento existente y nos dejan al descubierto los límites de nuestras teorías.

La Gravedad Cuántica, el eslabón perdido para comprender la evolución del Universo. Los físicos teóricos la han encontrado, ellos saben que dicha teoría subyace en la Teoría de Supercuerdas que, desgraciadamente, es inverificable… ¡Por el momento! Se cree que llegar hasta las cuerdas requeriría disponer de la energía de Planck (1019 GeV).
Siendo cierto que en la actualidad no podemos verificar la Teoría de cuerdas, también lo es que, según todos los indicios, en esa Teoría puede subyacer esa otra Teoría Cuántica de la Gravedad, todos sabemos que cuando se juntan la Cuántica de Planck y la Gravedad de Einstein… ¡Aquello hecha chispas! Surgen los infinitos que no se pueden re-normalizar.
Resulta que, cuando los teóricos de las cuerdas trabajan con las ecuaciones de campo de esa teoría, sin que nadie las llame, allí aparecen las ecuaciones de campo de la Relatividad General, ¡por qué será? El viejo Einstein, socarrón, con su cachimba entre los dientes, allá donde se pueda encontrar, estará sonriendo atento a lo que vendrá.

Sí, al ,menos se cree que, el límite de la información está en el horizonte de sucesos de un agujero negro, donde se pierde de forma permanente.
En los intentos más recientes de crear una teoría nueva para describir la naturaleza cuántica de la gravedad ha emergido un nuevo significado para las unidades naturales de Planck. Parece que el concepto al que llamamos “información” tiene un profundo significado en el universo. Estamos habituados a vivir en lo que llamamos “la edad de la información”.

La información puede ser empaquetada en formas electrónicas, enviadas rápidamente y recibidas con más facilidad que nunca antes. Nuestra evolución en el proceso rápido y barato de la información se suele mostrar en una forma que nos permite comprobar la predicción de Gordon Moore, el fundador de Intel, llamada ley de Moore, en la que, en 1.965, advirtió que el área de un transistor se dividía por dos aproximadamente cada 12 meses. En 1975 revisó su tiempo de reducción a la mitad hasta situarlo en 24 meses. Esta es “la ley de Moore” cada 24 meses se obtiene una circuiteria de ordenador aproximadamente el doble, que corre a velocidad doble, por el mismo precio, ya que, el coste integrado del circuito viene a ser el mismo, constante.
Representación gráfica de la obtención experimental de la constante de Planck
Los límites últimos que podemos esperar para el almacenamiento y los ritmos de procesamiento de la información están impuestos por las constantes de la naturaleza. En 1981, el físico israelí, Jacob Bekenstein, hizo una predicción inusual que estaba inspirada en su estudio de los agujeros negros. Calculó que hay una cantidad máxima de información que puede almacenarse dentro de cualquier volumen. Esto no debería sorprendernos. Lo que debería hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen. El número máximo de bits de información que puede almacenarse en un volumen viene dado precisamente por el cómputo de su área superficial en unidades de Planck. Supongamos que la región es esférica. Entonces su área superficial es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud de Planck al cuadrado, 10-66 cm2. Esto es muchísimo mayor que cualquier capacidad de almacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de información que viene impuesto por las constantes de la naturaleza.


No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, desde el mundo de las partículas elementales hasta las más grandes estructuras astronómicas. Este fenómeno se puede representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias. Todas las estructuras del universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón.
Desde el vuelo del colibrí, hasta u huracán, erupción volcánica, un Tsunami… 0, un embarazo… ¡Todo es energía!
En nuestro Universo todo es energía y el resultado de dos fuerzas contrapuestas que, al ser iguales en potencia, equilibran el todo y hace posible la estabilidad que podemos contemplar en las estrellas y en los átomos.
| α = 2πe2 / hc ≈ 1/137 |
| αG = (Gmp2)2 / hc ≈ 10-38 |
La Constante física que carece de dimensiones, es decir, un número puro sin unidades asociadas, eso es, una constante adimensional. Su valor numérico es independiente del sistema de unidades que se utilice. Un amuestra es el número 137, el de Alfa, la Constante de estructura fina.
La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad puede tener un papel en el mundo a pequeña escala. La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.
Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la Naturaleza (así lo creían Einstein y Planck). Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

Nunca nadie ha explicado el valor numérico de ninguna de las constantes de la naturaleza. ¿Recordáis el 137? Ese número puro, adimensional, que guarda los …
Cuando surgen comentarios de números puros y adimensionales, de manera automática aparece en mi mente el número 137. Ese número encierra más de lo que estamos preparados para comprender; me hace pensar y mi imaginación se desboca en múltiples ideas y teorías. Einstein era un campeón en esta clase de ejercicios mentales que él llamaba “libre invención de la mente”. El gran físico creía que no podríamos llegar a las verdades de la naturaleza sólo por la observación y la experimentación. Necesitamos crear conceptos, teorías y postulados de nuestra propia imaginación que posteriormente deben ser explorados para averiguar si existe algo de verdad en ellos.
Para poner un ejemplo de nuestra ignorancia poco tendríamos que buscar, tenemos a mano miles de millones.

Hablamos de portales cuánticos, fluctuaciones de vacío… Cuerdas y de Taquiones pero…
Un gran Físico nos decía:
“Todos los físicos del mundo, deberían tener un letrero en el lugar más visible de sus casas, para que al mirarlo, les recordara lo que no saben. En el cartel sólo pondría esto: 137. Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina”.
Este número guarda relación con la posibilidad de que un electrón emita un fotón o lo absorba. La constante de estructura fina responde también al nombre de “alfa” y sale de dividir el cuadrado de la carga del electrón, por el producto de la velocidad de la luz y la constante de Planck. Tanta palabrería y numerología no significan otra cosa sino que ese solo numero, 137, encierra los misterios del electromagnetismo (el electrón, e–), la relatividad (la velocidad de la luz, c), y la teoría cuántica (la constante de Planck, h).
¡Sabemos tan poco! ¡Son tantas las preguntas que no tienen respuestas! Pocas dudas nos podrían caber si nos propusieran cambiar, todo lo que sabemos por la mitad de lo que ignoramos. Y, como decía el sabio:
“Cuanto más profundizo en el saber de las cosas, más consciente soy delo poco que se. Mis conocimientos son limitados, mi ignorancia infinita.”
Sócrates lo simplificaba con su: “Solo se que no se nada!.
Emilio Silvera Vázquez
Abr
15
¿Qué no será capaz de inventar el hombre, para descubrir la Naturaleza?
por Emilio Silvera ~
Clasificado en Física, Física-química ~
Comments (2)
Sir William Crookes
Hacia principios del siglo pasado, se hicieron una serie de observaciones desconcertantes, que condujeron al esclarecimiento de secretos que permanecen muy bien guardados por la Naturaleza. El inglés William Crookes, logró disociar del uranio una sustancia cuya ínfima cantidad resultó ser mucho más radiactiva que el propio uranio. Apoyándose en su experimento, afirmó que el uranio no tenía radiactividad, y que ésta procedía exclusivamente de dicha impureza, que él denomino “uranio X”. Por otra parte, Henri Becquerel descubrió que el uranio purificado y ligeramente radiactivo adquiría mayor radiactividad con el tiempo, por causas desconocidas. Si se dejan reposar durante algún tiempo, se podía extraer de él repetidas veces uranio activo X. Para decirlo de otra manera: por su propia radiactividad, el uranio se convertía en el uranio X, más activo aún
Por entonces, Rutherford, a su vez, separó del torio un “torio X” muy radiactivo, y comprobó también que el torio seguía produciendo más torio X. Hacia aquellas fechas se sabía ya que el más famoso de los elementos radiactivos, el radio, emitía un gas radiactivo, denominado radón. Por tanto, Rutherford y su ayudante, el químico Frederick Soddy, dedujeron que, durante la emisión de sus partículas, los átomos radiactivos de transformaban en otras variedades de átomos radiactivos.


Varios químicos, que investigaron tales transformaciones, lograron obtener un surtido muy variado de nuevas sustancias, a los que dieron nombres tales como radio A, radio B, mesotorio I, mesotorio II y Actinio C. Luego los agruparon todos en tres series, de acuerdo con sus historiales atómicos. Una serie se originó del uranio disociado; otra, del torio, y la tercera, del actinio (si bien más tarde se encontró un predecesor del actinio, llamado “protactinio”).
En total se identificaron unos cuarenta miembros de esas series, y cada uno se distinguió por su peculiar esquema de radiación. Pero los productos finales de las tres series fueron idénticos: en último término, todas las cadenas de sustancias conducían al mismo elemento, estable: PLOMO.

Sí, el uranio-238 se desintegra en plomo-206 a través de una serie de pasos que dura miles de millones de años. Este proceso se conoce como datación uranio-plomo y se utiliza para determinar la edad de muestras.
Ahora bien, esas cuarenta sustancias no podían ser, sin excepción, elementos disociados, entre el uranio (92) y el plomo (82) había sólo diez lugares en la tabla periódica, y todos ellos, salvo dos, pertenecían a elementos conocidos.
En realidad, los químicos descubrieron que aunque las sustancias diferían entre sí por su radiactividad, algunas tenían propiedades químicas idénticas. Por ejemplo, ya en 1.907, los químicos americanos Herbert Newby Mc Coy y W.H. Ross descubrieron que el “radio-torio” (uno entre los varios productos de la desintegración del torio) mostraba el mismo comportamiento químico que el torio, y el “radio D”, el mismo que el del plomo; tanto, que era llamado a veces “radio plomo”. De todo lo cual se infirió que tales sustancias eran en realidad variedades del mismo elemento: el radio-torio, una forma de torio; el radio-plomo, un miembro de una familia de plomos, y así sucesivamente.
En 1.913, Soddy esclareció esa idea y le dio más amplitud. Demostró que cuándo un átomo emitía una partícula alfa, se transformaba en un elemento que ocupaba dos lugares más abajo en la lista de elementos, y que cuando emitía una partícula beta, ocupaba, después de su transformación, el lugar inmediatamente superior. Con arreglo a tal norma, el “radio-torio” descendería en la tabla hasta el lugar del torio, y lo mismo ocurría con las sustancias denominadas “uranio X” y “uranio Y”, es decir, que los tres serían variedades del elemento 90. Así mismo, el “radio D”, el “radio B” el “torio B” y el “actinio B” compartirían el lugar del plomo como variedades del elemento 82.
Soddy dio el nombre de “isótopos” (del griego iso y topos, “el mismo lugar”) a todos los miembros de una familia de sustancias que ocupaban el mismo lugar en la tabla periódica. En 1.921 se le concedió el premio Nóbel de Química.
El modelo protón-electrón del núcleo concordó perfectamente con la teoría de Soddy sobre los isótopos. Al retirar una partícula de dicho núcleo, exactamente lo que necesitaba para bajar dos lugares en la tabla periódica. Por otra parte, cuando el núcleo expulsaba un electrón (partícula beta), quedaba sin neutralizar un protón adicional, y ello incrementaba en una unidad la carga positiva del núcleo, lo cual era como agregar una unidad al número atómico, y, por tanto, el elemento pasaba a ocupar la posición inmediatamente superior en la tabla periódica de elementos.
¡Maravilloso!
(Lo de maravilloso, esa exclamación ante ante tan fascinante panorama, está dada por el enorme entusiasmo que en mí producen los movimientos que lleva a cabo la Naturaleza para conseguir sus fines.)
El elemento número 90 de la Tabla periódica, el Torio, y cómo tiene distribuido los electrones
¿Cómo se explica que cuando el torio se descompone en “radio-torio” después de sufrir no una, sino tres desintegraciones, el producto siga siendo torio? Pues bien, en este proceso el átomo de torio pierde una partícula alfa, luego una partícula beta y, más tarde, una segunda partícula beta. Si aceptamos la teoría sobre el bloque constitutivo de los protones, ello significa que el átomo ha perdido cuatro electrones (dos de ellos, contenidos presuntamente en la partícula alfa) y cuatro protones. (La situación actual difiere bastante de este cuadro, aunque, en cierto modo, esto no afecta al resultado.)
Elemento químico, símbolo Th, número atómico 90. Es uno de los elementos de la serie de los actínidos. Es radiactivo con una vida media de aproximadamente 1.4 x 1010años.
El núcleo de torio constaba inicialmente (según se suponía) de 232 protones y 142 electrones. Al haber perdido cuatro protones y otros cuatro electrones, quedaba reducido a 228 protones y 138 electrones. No obstante, conservaba todavía y el número atómico 90, es decir, el mismo antes.
Así, pues, el “radio-torio”, a semejanza del torio, posee 90 electrones planetarios, que giran alrededor del núcleo. Puesto que las propiedades químicas de átomo están sujetas al número de sus electrones planetarios, el torio y el “radio-torio” tienen el mismo comportamiento químico, sea cual fuere su diferencia en peso atómico (232 y 228, respectivamente).
Los isótopos de un elemento se identifican por su peso atómico, o “número másico”. Así, el torio corriente se denomina torio 232, y el “radio-torio”, torio 228. Los isótopos radiactivos del plomo se distinguen también por estas denominaciones:
Plomo 210 – Plomo 214-Plomo 212 y Plomo 211
“radio D” – “radio B” – “Torio B” y “Actinio B”
Se descubrió que la noción de isótopos podía aplicarse indistintamente tanto a los elementos estables como a los radiactivos. Por ejemplo, se comprobó que las tres series radiactivas anteriormente mencionadas terminaban en tres formas distintas de plomo. La serie del uranio acababa en plomo 206; la del torio, en el plomo 208, y la del actinio, en el plomo 207. Cada uno de estos era un isótopo estable y “corriente” del plomo, pero los tres plomos diferían por su peso atómico.
Mediante un dispositivo inventado por cierto ayudante de J.J.Thomson, llamado Francis William Aston, se demostró la existencia de los isótopos estables. En 1.919, Thomson, empleando la versión primitiva de aquel artilugio, demostró que el neón estaba constituido por dos variedades de átomos: una cuyo número de masa era 20, y otra, 22. El neón 20 era el isótopo común; el neón 22 lo acompañaba en la proporción de un átomo por cada diez. (Mas tarde se descubrió un tercer isótopo, el neón 21, cuyo porcentaje en el neón atmosférico era de un átomo por cada 400.)
Entonces fue posible, al fin, razonar el peso atómico fraccionario de los elementos. El peso atómico del neón (20, 183) representaba el peso conjunto de los tres isótopos, de pesos diferentes, que integraban, el elemento en su estado natural. Cada átomo individual tenía un número másico entero, pero el promedio de sus masas –el peso atómico- era un número fraccionario.
Azufre ← Cloro → Argón
17 Cl Tabla completa • Tabla ampliada
Aston procedió a mostrar que varios elementos estables comunes eran, en realidad, mezclas de isótopos. Descubrió que el cloro, con un peso atómico fraccionario de 35’453, estaba constituido por el cloro 35 y el cloro 37, en la “proporción” de cuatro a uno. En 1.922 se le otorgó el premio Nóbel de Química.
Arthur Jeffrey Dempster
En el discurso pronunciado al recibir el premio, Aston predijo la posibilidad de aprovechar la energía almacenada en el núcleo atómico, vislumbrando ya las futuras y nefastas bombas y centrales nucleares. Allá por 1.935, el físico canadiense Arthur Jeffrey Dempster empleó el instrumento de Aston para avanzar sensiblemente en esa dirección. Demostró que, si bien 993 de cada 1.000 átomos de uranio, corresponden al uranio 238 (no válido para combustible nuclear), los siete átomos restantes eran de uranio 235 (buen combustible nuclear). Y, muy pronto se haría evidente el profundo significado de tal descubrimiento.
Así, después de estar siguiendo huellas falsas durante un siglo, se reivindicó definitivamente la teoría de Prout. Los elementes estaban constituidos por bloques estructurales uniformes; si no átomos de hidrógeno, sí, por lo menos, unidades con masa de hidrógeno.
¿Qué no será capaz de inventar el hombre para descubrir los misterios de la naturaleza?
Emilio Silvera Vázquez
Abr
9
Descubren la quinta fuerza de la naturaleza gracias a una partícula
por Emilio Silvera ~
Clasificado en Física ~
Comments (2)
LA FUERZA NUCLEAR FUERTE
La fuerza nuclear fuerte se presenta en el núcleo de un átomo y mantiene unido entre si los neutrones y los protones. Estos últimos, de carga positiva, se separarían si no fuera por la fuerza nuclear fuerte. Las partículas encargadas de transmitirla son los gluones.
El átomo es un objeto complejo, y, sobre todo, su gran complejidad reside en el núcleo, ese infinitesimal puntito que está colocado en el centro del átomos y que tiene el 99,9% de toda la masa del conjunto atómico, y, solo supone (a pesar de ello), una parte de 100.000.
![]()
Así que, como hemos dicho, el núcleo atómico es la parte central de un átomo, tiene carga positiva, y concentra más del 99,999 % de la masa total del átomo. El núcleo fue deducido a partir del experimento de Rutherford y supone el 1/100.000 del átomo.
“Isótopos del carbono, nitrógeno y oxígeno ordenados según el número atómico Z y el número neutrónico N.
En física y química, el número atómico (o también, número de carga nuclear) de un elemento químico es el número total de protones que tiene cada átomo de dicho elemento. El símbolo convencional y su representación “Z” proviene de la palabra alemana Atomzahl (número atómico).”

Los protones son, junto a los neutrones, los llamados nucleones que están conformados por tripletes de Quarks
Está formado por protones y neutrones (denominados nucleones) que se mantienen unidos por medio de la interacción fuerte, la cual está intermediada por los Bosones llamados gluones y permite que el núcleo sea estable, a pesar de que los protones se repelen entre sí (como los polos iguales de dos imanes).
Los Gluones confinan a los Quarks dentro de los nucleones
La cantidad de protones en el núcleo (número atómico), determina el elemento químico al que pertenece. Los núcleos atómicos no necesariamente tienen el mismo número de neutrones, ya que átomos de un mismo elemento pueden tener masas diferentes, es decir son isótopos del elemento.
Los nucleones, es decir, los hadrones llamados protones y neutrones, están formados (como antes decía), a su vez, por tripletes de Quarks. Dos quarks up y un quark down para protones y dos quark down y un quark up para neutrones-
INTERACCIÓN DÉBIL
LA FUERZA ELECTROMAGNÉTICA


La gravedad es la fuerza que mantiene unidas las galaxias y que hace que una aguja caiga al suelo. Cuanto mayor es la masa de dos cuerpos y más cerca están, más fuerte es la atracción gravitatoria que ejercen entre sí. Algunos científicos creen que unas partículas llamadas gravitones se encargan de transportar la gravedad pero todavía no las han detectado en ningún experimento.
La gravedad es un fenómeno natural por el cual los objetos con masa son atraídos entre sí, efecto mayormente observable en la interacción entre los planeta y galaxias y demás objetos del Universo. Es una de las cuatro interacciones fundamentales que origina la aceleración que experimenta un cuerpo físico en las cercanías de un objeto astronómico. También se denomina interacción gravitatoria o gravitación.
La Ley de la gravitación universal fue expuesta por Newton y más tarde, Einstein la amplió con su teoría de la Relatividad General. En el Modelo Estándar de la física de partículas están presentes todas las fuerzas menos la de Gravedad.
LAS CUATRO FUERZAS FUNDAMENTALES
- Las fuerzas actuales son: la gravedad, la electromagnética y la nuclear fuerte y débil


Universidad de California en Irvine ( EE- UU.)
Recientes hallazgos realizados por físicos teóricos de la Universidad de California en Irvine (UCI) indican el posible descubrimiento de una partícula subatómica previamente desconocida que, además, pueden ser evidencia de una quinta fuerza fundamental de la naturaleza.
Según han explicado los autores en el artículo, publicado en Physical Review Letters, se trata de un hallazgo “revolucionario” porque una quinta fuerza podría “cambiar completamente la comprensión del Universo”, con consecuencias para “la unificación de las fuerzas y la materia oscura”.
Los investigadores de la UCI llegaron a mediados de 2015 hasta un estudio realizado por los físicos nucleares húngaros que estaban buscando “fotones oscuros”, unas partículas que significarían la materia oscura invisible, que los físicos dicen que representa aproximadamente el 85% de la masa del Universo. El trabajo de los húngaros descubrió una anomalía de la desintegración radiactiva que apunta a la existencia de una partícula de luz sólo 30 veces más pesada que un electrón.

“Los científicos no fueron capaces de afirmar que era una fuerza nueva. Simplemente registraron un exceso de eventos que indicaban una nueva partícula, pero no estaba claro para ellos si se trataba de una partícula de materia o una partícula portadora de fuerza”, ha apuntado el autor principal Jonathan Feng.
Ante esto, el grupo estudió los datos, así como todos los demás experimentos anteriores en este área, y demostraron que la evidencia desfavorece firmemente a ambas partículas de materia oscura y fotones.
Así, propusieron una nueva teoría que, a su juicio, “sintetiza todos los datos existentes y determina que el descubrimiento podría indicar una quinta fuerza fundamental”.
Una nueva partícula

El trabajo de la UCI demuestra que en lugar de ser un fotón oscuro, la partícula puede ser una X Higgs protophobic. Mientras que la fuerza eléctrica normal actúa sobre los electrones y protones, esta nueva partícula de Higgs interactúa únicamente con electrones y neutrones y en una gama muy limitada.
Otro de los responsables de este trabajo, Timothy Tait, ha señalado que “no se ha observado que haya otra Higgs con esta misma característica”. “A veces también lo llamamos el bosón X, donde X significa desconocido”, ha explicado.
“Feng ha señalado que hay otros experimentos que pueden ser cruciales para este hallazgo. A su juicio, “la partícula no es muy pesada, y los laboratorios han tenido las energías necesarias para descubrirlo desde los años 50 y 60”, pero “hay sido difícil de encontrar hasta ahora porque sus interacciones son muy débiles”.
Debido a que la nueva partícula es tan ligera, hay muchos grupos experimentales que trabajan en pequeños laboratorios de todo el mundo que ahora pueden hacer un seguimiento de las solicitudes iniciales, según apuntan los expertos. “Ahora saben dónde buscar”, han concluido.
Como se podrá ver, siempre quedan rincones oscuros que tendremos que enfocar mejor llevando allí la luz del conocimiento para dejar de hacer conjeturas en lugar de afirmaciones.
Emilio Silvera Vázquez
















Totales: 81.721.591
Conectados: 50






































