May
25
El Universo de las partículas II
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)
Goudsmit fue el primer físico junto a George Eugene Uhlenbeck( 1900-1988) y Ralph Kronig (1904-1995) en proponer el concepto de espín del electrón en 1925. Por este descubrimiento ambos físicos fueron galardonados con la Medalla Max Planck en 1964.
Estamos hablando de las partículas y no podemos dejar a un lado el tema del movimiento rotatorio de las mismas. Usualmente se ve cómo la partícula gira sobre su eje, a semejanza de un trompo, o como la Tierra o el Sol, o nuestra galaxia o, si se me permite decirlo, como el propio universo. En 1.925, los físicos holandeses George Eugene Uhlenbeck y Samuel Abraham Goudsmit aludieron por primera vez a esa rotación de las partículas. Éstas, al girar, generan un minúsculo campo electromagnético; tales campos han sido objeto de medidas y exploraciones, principalmente por parte del físico alemán Otto Stern y el físico norteamericano Isaac Rabi, quienes recibieron los premios Nobel de Física en 1.943 y 1.944 respectivamente, por sus trabajos sobre dicho fenómeno.
Esas partículas (al igual que el protón, el neutrón y el electrón), que poseen espines que pueden medirse en números mitad, se consideran según un sistema de reglas elaboradas independientemente, en 1.926, por Fermi y Dirac; por ello, se las llama y conoce como estadísticas Fermi-dirac. Las partículas que obedecen a las mismas se denominan fermiones, por lo cual el protón, el electrón y el neutrón son todos fermiones.
Hay también partículas cuya rotación, al duplicarse, resulta igual a un número par. Para manipular sus energías hay otra serie de reglas, ideadas por Einstein y el físico indio S. N. Bose. Las partículas que se adaptan a la estadística Bose-Einstein son bosones, como por ejemplo la partícula alfa.
Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de esta teoría en vez de los de la mecánica clásica. En estadística cuántica, los estados de energía se considera que están cuantizados. La estadística de Bose-Einstein se aplica si cualquier número de partículas puede ocupar un estado cuántico dad. Dichas partículas (como dije antes) son bosones, que tienden a juntarse.
Los bosones tienen un momento angular nh/2π, donde n es 0 o un entero, y h es la constante de Planck. Para bosones idénticos, la función de ondas es siempre simétrica. Si sólo una partícula puede ocupar un estado cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n + ½)h / 2π y cualquier función de ondas de fermiones idénticos es siempre antisimétrica. La relación entre el espín y la estadística de las partículas está demostrada por el teorema espín-estadística.
En un espacio de dos dimensiones es posible que haya partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones. Estas partículas se conocen con el nombre de aniones; para aniones idénticos, la función de ondas no es simétrica (un cambio de fase de +1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1. Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.
Debido al principio de exclusión de Pauli, es imposible que dos fermiones ocupen el mismo estado cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental para explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7K) se puede formar un condensado de Bose-Einstein, en el que varios miles de átomos forman una única entidad (un super-átomo).
Este efecto ha sido observado con átomos de rubidio y litio. Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.
Si nos fijamos en todo lo que estamos hablando aquí, es fácil comprender cómo forma un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula.
Particularmente creo que, si el neutrón tiene masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es materia. La materia es la luz, la energía, el magnetismo, en definitiva, la fuerza que reina en el universo y que está presente de una u otra forma en todas partes (aunque no podamos verla).
Sea como fuere, la rotación del neutrón nos da la respuesta a esas preguntas:
¿Qué es el anti-neutrón? Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo. En realidad, el protón y el anti-protón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos.
Es indudable que las antipartículas pueden combinarse para formar la antimateria, de la misma forma que las partículas corrientes forman la materia ordinaria.
La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un anti-deuterón. Desde entonces se ha producido el antihelio 3, y no cabe duda de que se podría crear otros anti-núcleos más complicados aún si se abordara el problema con más interés.
Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el universo? Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente. Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro. Así pues, los astrónomos observan especulativamente las galaxias, para tratar de encontrar alguna actividad inusual que delate interacciones materia-antimateria.
No parece que dichas observaciones fuesen un éxito. ¿Es posible que el universo esté formado casi enteramente por materia, con muy poca o ninguna antimateria? Y si es así, ¿por qué? Dado que la materia y la antimateria son equivalente en todos los aspectos, excepto en su oposición electromagnética, cualquier fuerza que crease una originaría la otra, y el universo debería estar compuesto de iguales cantidades de la una y de la otra.
Aquí detectaron y lograron encontrar la anti-materia por primera vez
Este es el dilema. La teoría nos dice que debería haber allí antimateria, pero las observaciones lo niegan, no lo respaldan. ¿Es la observación la que falla? ¿Y qué ocurre con los núcleos de las galaxias activas, e incluso más aún, con los quásares? ¿Deberían ser estos fenómenos energéticos el resultado de una aniquilación materia-antimateria? ¡No creo! Ni siquiera ese aniquilamiento parece ser suficiente, y los astrónomos prefieren aceptar la noción de colapso gravitatorio y fenómenos de agujeros negros, como el único mecanismo conocido para producir la energía requerida.
Con esto de la antimateria me ocurre igual que con el hecho, algunas veces planteado, de la composición de la materia en lugares lejanos del universo. “Ha caído una nave extraterrestre y nuestros científicos han comprobado que está hecha de un material desconocido, casi indestructible”. Este comentario se ha podido oír en alguna película de ciencia ficción. Podría ser verdad (un material desconocido), sin embargo, no porque la nave esté construida por una materia distinta, sino porque la aleación es distinta y más avanzada a partir de los materiales conocidos del universo. En cualquier parte del universo, por muy lejana que pueda estar, rigen los mismos principios y las mismas fuerzas: la materia y la energía son las mismas en cualquier parte. Lo único que puede diferir es la forma en que se utilice, el tratamiento que se le pueda dar, y sobre todo, el poseer el conocimiento y la tecnología necesarios para poder obtener el máximo resultado de las propiedades que dicha materia encierra, porque, en última instancia, ¿es en verdad inerte la materia?
Todo lo que podemos ver en el Universo, sin excepción, está hecho de materia
Tiene y encierra tantos misterios la materia que estamos aún a años luz de saber y conocer sobre su verdadera naturaleza. Nos podríamos preguntar miles de cosas que no sabríamos contestar. Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos, pero que tampoco sabemos, en realidad, a qué son debidas. Sí, sabemos ponerles etiquetas como la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio, y con mayor frecuencia, en los elementos que conocemos como transuránicos.
A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta. En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de su ruptura, sobrepasando a la emisión de partículas alfa. ¡Parece que la materia está viva! Son muchas las cosas que desconocemos, y nuestra curiosidad nos empuja continuamente a buscar esas respuestas.
El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o el anti-neutrón), y por lo tanto, han sido denominados leptones (de la voz griega leptos, que dignifica “delgado“).
Aunque el electrón fue descubierto en 1.897 por el físico británico Joseph John Thomson (1.856 – 1.940), el problema de su estructura, si la hay, aún no está resuelto. Conocemos su masa y su carga negativa que responden a 9’1093897 (54) × 10-31 Kg la primera, y 1’60217733 (49) × 10-19 culombios la segunda, y también su radio clásico r0 igual a e2/(mc2) = 2’82 × 10-13 cm. No se ha descubierto aún ninguna partícula que sea menos masiva que el electrón (o positrón) y que lleve una carga eléctrica, sea la que fuese (sabemos cómo actúa y cómo medir sus propiedades, pero aún no sabemos qué es), que tenga asociada un mínimo de masa.
Lo cierto es que el electrón es una maravilla en sí mismo. El universo no sería como lo conocemos si el electrón fuese distinto a como es; bastaría un cambio infinitesimal para que, por ejemplo, nosotros no pudiéramos estar aquí ahora.
Muchos granos de arena conforman la inmensa playa
¡No por pequeño se es insignificante!
Recordémoslo, todo lo grande está hecho de cosas pequeñas. En realidad, existen partículas que no tiene asociada ninguna masa en absoluto, es decir, ninguna masa en reposo. Por ejemplo, las ondas de luz y otras formas de radiación electromagnética se comportan como partículas (Einstein en su efecto fotoeléctrico y De Broglie en la difracción de electrones*). Esta manifestación en forma de partículas de lo que, de ordinario, concebimos como una onda, se denomina fotón, de la palabra griega que significa “luz”.
El fotón tiene una masa de 1, una carga eléctrica de 0, pero posee un espín de 1, por lo que es un bosón. ¿Cómo se puede definir lo que es el espín? Los fotones toman parte en las reacciones nucleares, pero el espín total de las partículas implicadas antes y después de la reacción deben permanecer inmutadas (conservación del espín). La única forma de que esto suceda en las reacciones nucleares que implican a los fotones radica en suponer que el fotón tiene un espín de 1. El fotón no se considera un leptón, puesto que este término se reserva para la familia formada por el electrón, el muón y la partícula tau, con sus correspondiente neutrinos: υe, υμ y υτ.
Existen razones teóricas para suponer que cuando las masas se aceleran (como cuando se mueven en órbitas elípticas en torno a otra masa o llevan a cabo un colapso gravitacional), emiten energía en forma de ondas gravitaciones. Esas ondas pueden, así mismo, poseer aspecto de partícula, por lo que toda partícula gravitacional recibe el nombre de gravitón.
La forma gravitatoria es mucho, mucho más débil que la fuerza electromagnética. Un protón y un electrón se atraen gravitacionalmente con sólo 1/1039 de la fuerza en que se atraen electromagnéticamente. El gravitón (aún sin descubrir) debe poseer, correspondientemente, menos energía que el fotón, y por tanto, ha de ser inimaginablemente difícil de detectar.
No será fácil detectar gravitones
De todos modos, el físico norteamericano Joseph Weber emprendió en 1.957 la formidable tarea de detectar el gravitón. Llegó a emplear un par de cilindros de aluminio de 153 cm de longitud y 66 de anchura, suspendidos de un cable en una cámara de vacío. Los gravitones (que serían detectados en forma de ondas) desplazarían levemente esos cilindros, y se empleó un sistema para detectar el desplazamiento que llegase a captar la cien billonésima parte de un centímetro. Las débiles ondas de los gravitones, que proceden del espacio profundo, deberían chocar contra todo el planeta, y los cilindros separados por grandes distancias se verán afectados de forma simultánea. En 1.969, Weber anunció haber detectado los efectos de las ondas gravitacionales. Aquello produjo una enorme excitación, puesto que apoyaba una teoría particularmente importante (la teoría de Einstein de la relatividad general). Desgraciadamente, nunca se pudo comprobar mediante las pruebas realizadas por otros equipos de científicos que duplicaron el hallazgo de Weber.
En cualquier caso, no creo que a estas alturas alguien pueda dudar de la existencia de los gravitones, el bosón mediador de la fuerza gravitatoria. La masa del gravitón es 0, su carga es 0, y su espín es 2. Como el fotón, no tiene antipartícula; ellos mismos hacen las dos versiones.
Emilio Silvera Vázquez
May
25
La importancia de las constantes universales
por Emilio Silvera ~
Clasificado en Física ~
Comments (7)
La afirmación “Lo que sucede primero no es necesariamente el principio” sugiere que la secuencia de eventos no siempre refleja la verdadera naturaleza del origen o la causa de algo. En términos filosóficos, esto puede relacionarse con conceptos como la causa, la razón y la determinación.
Para que esto llegara a suceder, antes tuvieron que pasar muchas cosas
Lo que sucede primero, no es necesariamente el principio. Antes de ese “Principio”, suceden algunas cosas que nosotros no hemos podido o sabido percibir. Sin embargo, hay cosas que no cambian nunca. Hace tiempo, los sucesos que constituían historias eran las irregularidades de la experiencia. Sabemos que lo que no cambia son las Constantes de la Naturaleza pero, tampoco cambian el Amor de una madre por un hijo, la salida y la puesta del Sol, nuestra curiosidad, y otras muchas cosas que conviven con nosotros en lo cotidiano:
Hay cosas en la Naturaleza que no son inmutables: La salida y la puesta del Sol, el día y la noche, la lluvia en Invierno, la calor en Verano, las erupciones volcánicas, las nevadas… Pero todos esos fenómenos naturales se producen reiteradamente pero de manera distinta en tiempo, intensidad y otros parámetros que no olas permiten ser Constantes de la Naturaleza.
Sin embargo otras si lo son: La Gravedad, la velocidad de la luz en el vacío, la Constante de estructura fina, la masa del protón, la carga del electrón entre otros, sí que son Constantes de la Naturaleza, sus valores no varían. Por ejemplo, si la masa de los protones o la carga de los electrones, variaran aunque solo fuese una diezmillonésima parte, la vida no podría existir.
La velocidad de la luz en el vacío (c), La Gravitación universal (G), la constante de estructura fina (σ), la constante de Planck (h), la carga del electrón o masa del protón…. Si cualquiera de ellas variara aunque sólo fuese una diezmillonésima… la vida no sería posible.
Las Constantes Universales son valores físicos fundamentales que no cambian a lo largo del tiempo ni en diferentes ubicaciones del Universo. Algunos ejemplos incluyen la constante de gravitación universal (G), la velocidad de la luz (c), la constante de Planck (h), y la constante de Boltzmann (k).
Poco a poco, los científicos llegaron a apreciar el misterio de la regularidad y lo predecible del mundo. Pese a la concatenación de movimientos caóticos e impredecibles de átomos y moléculas, nuestra experiencia cotidiana es la de un mundo que posee una profunda consistencia y continuidad. Nuestra búsqueda de la fuente de dicha consistencia atendía primero a las leyes de la Naturaleza que son las que gobiernan como cambian las cosas. Sin embargo, y al mismo tiempo, hemos llegado a identificar una colección de números misteriosos arraigados en la regularidad de la apariencia. Son las Constantes de la Naturaleza que, como la carga y la masa del electrón o la velocidad de la luz, le dan al Universo un carácter distintivo y lo singulariza de otros que podríamos imaginar. Todo esto, unifica de una vez nuestro máximo conocimiento y también, nuestra infinita ignorancia.
En esta galaxia también están presentes las constantes de la Naturaleza
Esos números misteriosos (el valor de esas constantes fundamentales), son medidos con una precisión cada vez mayor y modelamos nuestros patrones fundamentales de masa y tiempo alrededor de su invariancia. Sin embargo, no podemos explicar sus valores. ¿Por qué la constante de estructura fina vale 1/137? Nadie puede contestar a esa “simple” pregunta. Sabemos que ahí, en esa constante, están involucrados los tres guarismos h, e, y c. El primero es la constante de Planck (la mecánica cuántica), el segundo el Electrón (el electromagnetismo), y, el tercero, la velocidad de la luz (la relatividad especial de Einstein).
Es prodigioso que nuestras Mentes evolucionadas hayan podido dilucidar esos misterios
A pesar del cambio incesante y la dinámica del mundo visible, existen aspectos misteriosos del ritmo del Universo que son inquebrantables en su constancia, así lo podemos comprobar en la fuerza gravitatoria o en la velocidad de la luz en el vacío entre otros. Son estas misteriosas cosas invariables las que hacen de nuestro Universo el que es y lo distingue de otros muchos que pudiéramos imaginar. Existe un hilo invisible que teje incesante una continuidad a lo largo y a lo ancho de toda la Naturaleza: Algunas cosas cambian para que todo siga igual.
Detalle de la estrella ‘Mira’ (NASA)
La estela que arrastra Mira mide 13 años luz; es decir, tres veces la distancia que separa el sol de su estrella más cercana, alfa-centauro. Sin embargo, la estela nunca había sido observada porque sólo brilla en la luz ultravioleta. Precisamente el satélite Galex, puesto en órbita en abril de 2003, posee un telescopio de 50 centímetros de diámetro que observa galaxias en busca de fuentes de luz ultravioleta. Fue así como se topó como la estela de Mira.
Allí lejos, en esos otros mundos que, situados en galaxias lejanas son parecidos al nuestro, seguramente también, pasarán las mismas cosas que aquí
En regiones lejanas del Universo, por muy extrañas que nos pudieran parecer, también estarían regidas por las mismas constantes de la Naturaleza que en la nuestra, el Sistema solar. Esas constantes están presentes en todas partes y, al igual que las cuatro fuerzas fundamentales, disponen que todo transcurra como debe ser.
Así que, tomando como patrón universal esas constantes, podemos esperar que ciertas cosas sean iguales en otros lugares del espacio además de la Tierra, lo único que in situ, conocemos. Hasta donde nuestros conocimientos han llegado también parece razonable pensar que dichas constantes fueron y serán las mismas en otros tiempos además de hoy, ya que, para algunas cosas, ni la historia ni la geografía importan. De hecho, quizá sin un substrato semejante de realidades invariables no podrían existir corrientes superficiales de cambio ni ninguna complejidad de mente y materia. Todos sabemos, por ejemplo que, si la carga del electrón variara aunque sólo fuese una diez millonésima parte de la que es, la vida no podría existir.
Esas constantes hacen posible nuestra presencia aquí
La invariancia de las constantes hace posible que nuestro Universo contenga las maravillas que podemos en él observar. Sin embargo, a lo largo de la historia muchos se han empeñado en hacerlas cambiar…pero no lo consiguieron. No pocas veces tenemos que leer en la prensa o revistas “especializadas” noticas como estas:
“Nueva evidencia sostiene que los seres humanos vivimos en un área del Universo que está hecha especialmente para nuestra existencia. ¿Según los científicos? Esto es lo que más se aproxima a la realidad. El controversial hallazgo se obtuvo observando una de las constantes de la naturaleza, la cual parece ser diferente en distintas partes del cosmos.”
A día de hoy, las constantes universales son la velocidad de la luz en el vacío, que sustituye al metro; la constante de planck, que sustituiría al kilogramo; el número de avogadro, que reemplazaría al mol; la eficacia luminosa, que supliría a la candela; la constante de Boltzmann, que relevaría al Kelvin y el segundo de un reloj atómico de cesio para el segundo tradicional. Estos valores se ajustan mucho mejor a las necesidades y medidas físicas, pero recordemos que no son las únicas que le dan «vida» al universo.
Pero, ¿Qué son en realidad las constantes? Aunque apenas hemos comenzado a profundizar sobre este tema, ahora que tenemos más clara la identidad de algunas constantes será más fácil definirlas. Una constante física es el valor de una magnitud que permanece invariable en los procesos físicos a lo largo del tiempo. Las magnitudes pueden variar, cosa que tiene sentido, o estaríamos ante un universo muerto. Sin embargo, como veíamos, existen valores que no lo hacen, convirtiéndose en auténticas piedras de toque existenciales.
Si algunas de estas constantes variara, probablemente el universo dejaría de ser como es. Los valores son muy finos, verdaderamente delicados, lo que ha llevado a numerosas cuestiones filosóficas:
¿por qué justo estos valores?
Unas cifras constantes que permiten la existencia. Pero dejando de lado las hipótesis y cábalas más díscolas, lo cierto es que por el momento no concebimos que el universo pudiera ser de otra forma. Los valores son lo que tienen que ser, sin más.Decíamos que no sólo se trata de las constantes universales, sino que hay muchísimas más: la permitividad en el vacío, el radio de Bohr, la constante de Faraday… aunque en cierto sentido, la gran mayoría de estas son manifestaciones de los valores intrínsecos constantes. ¿Y para qué sirven? Las constantes universales sirven, sobre todo, para construir nuestro entendimiento en torno al universo en el que vivimos. Con estos valores podemos formular modelos y plantear hipótesis que nos den respuestas. Como explicábamos, son las piedras de toque, varas de medida, ejemplos perfectos. Son, nunca mejor dicho, lo que el metro sería a la distancia, pero llevado mucho más allá.
Arnold Sommerfeld
La constante de estructura fina es un número del que se habla poco en los medios y que es, quizás por ello, poco conocida entre los matemáticos. Para darse cuenta de su importancia, valgan dos citas de dos genios de la ciencia: Richard Feynman: «un número mágico que llega a nosotros sin ser comprendido»; Paul Dirac: «el problema más fundamental sin resolver de la física»
La Constante de estructura fina, simbolizada como α (alfa), es una constante física fundamental que describe la fuerza de la interacción electromagnética entre partículas cargadas. Es una cantidad adimensional y su valor numérico es independiente del sistema de unidades usado.
“Su valor aproximado es 1/137, y CODATA (Comité de Información para Ciencia y Tecnología) recomendó en 2018 usar este valor 137.035999084. Su origen se remonta a Arnold Sommerfeld, quien, en 1916, amplió el modelo de Bohr para incluir órbitas elípticas y la dependencia relativista de la masa con respecto a la velocidad. El espectro del átomo de hidrógeno había sido medido con mucha precisión por Michelson y Morley en 1887. La primera interpretación física de la constante de estructura fina α fue como la relación entre la velocidad del electrón en la primera órbita circular del átomo relativista de Bohr y la velocidad de la luz en el vacío. Equivalentemente, era el cociente entre el momento angular mínimo permitido por la relatividad para una órbita cerrada, y el momento angular mínimo permitido por la mecánica cuántica. Es decir, que determina el tamaño de la división o estructura fina de las líneas espectrales del átomo de hidrógeno. En 1928, Paul Dirac presentó una fórmula para su cálculo.”
El problema de si las constantes físicas son constantes se las trae. Aparte del trabalenguas terminológico arrastra tras de sí unas profundas consecuencias conceptuales. Lo primero, uno de los pilares fundamentales de la relatividad especial es el postulado de que las leyes de la física son las mismas con independencia del observador. Esto fue una generalización de lo que ya se sabía cuando se comenzó a estudiar el campo electromagnético, pero todo lo que sabemos en la actualidad nos lleva a concluir que Lo que ocurra en la Naturaleza del Universo está en el destino de la propia Naturaleza del Cosmos, de las leyes que la rigen y de las fuerzas que gobiernan sus mecanismos sometidos a principios y energías que, en la mayoría de los casos, se pueden escapar a nuestro actual conocimiento.
Los posibles futuros de nuestro universo, se estima que está predestinado en función de la masa que contenga, lo que los cosmólogos llaman Omega Negro, la Densidad Crítica
Yo aconsejaría a los observadores que informaron y realizaron “el estudio” (que se menciona más arriba) que prestaran más atención o que cambiaran los aparatos e instrumentos de los que se valieron para llevarlo a cabo, toda vez que hacer tal afirmación, además de osados, se les podría calificar de incompetentes.
De estar en lo cierto, tal informe se opondría al principio de equivalencia de Albert Einstein, el cual postula que las leyes de la física son las mismas en cualquier región del Universo. “Este descubrimiento fue una gran sorpresa para todos”, dice John Webb, de la Universidad de New South Wales, en Sidney (Australia ), líder del estudio que sigue diciendo: Aún más sorprendente es el hecho de que el cambio en la constante parece tener una orientación, creando una “dirección preferente”, o eje, a través del Universo. Esa idea fue rechazada más de 100 años atrás con la formulación de la teoría de la relatividad de Einstein que, de momento, no ha podido ser derrocada (aunque muchos lo intentaron).
Los autores de tal “estudio” se empeñaron en decir que:
“La Tierra se ubica en alguna parte del medio de los extremos, según la constante “alpha”. Si esto es correcto, explicaría por qué dicha constante parece tener un valor sutilmente sintonizado que permite la química, y por lo tanto la vida, como la conocemos.
Con un aumento de 4% al valor de “alpha”, por ejemplo, las estrellas no podrían producir carbón, haciendo nuestra bioquímica imposible, según información de New Scientist.”
Siendo cierto que una pequeña variación de Alfa, no ya el 4%, sino una simple diezmillonésima, la vida no podría existir en el Universo. Está claro que algunos, no se paran a la hora de adquirir una efímera notoriedad, ya que, finalmente, prevalecerá la verdad de la invariancia de las constantes que, a lo largo de la historia de la Física y la Cosmología, muchas veces han tratado de hacerlas cambiantes a lo largo del tiempo, y, sin embargo, ahí permanecen con su inamovible estabilidad.
Veamos por encima, algunas constantes:
La Constante de Gravitación Universal: G
La primera constante fundamental es G, la que ponemos delante de la fórmula de la gravedad de Newton. Es una simple constante de proporcionalidad pero también ajusta magnitudes: se expresa en N*m2/Kg2.
Es tal vez la constante peor medida (sólo se está seguro de las tres primeras cifras…), y como vemos la fuerza de la gravedad es muy débil (si no fuera porque siempre es atractiva ni la sentiríamos).
La Constante Electrica: K
No confundir con la constante K Bolztman para termodinámica y gases..
La ley de Coulom es practicamente igual a la de la gravitación de Newton, si sustituimos las masas por las cargas, es inversa al cuadrado de la distancia y tiene una constante de proporcionalidad llamada K. La constante es la de de Coulomb y su valor para unidades del SI es K = 9 * 109 * N * m2 / C2
La velocidad de la luz c = 299.792.458 m/s y se suele aproximar por 3·10^8m/s
Según la teoría de la relatividad de Einstein, ninguna información puede viajar a mayor velocidad que la luz. Científicos australianos afirman, sin embargo, haber desarrollado las fórmulas que describen viajes más allá de este límite.
Que la velocidad de la luz es una constante se comprobó hasta la saciedad en diversos experimentos, como el famoso experimento Michelson-Morley que determinó mediante un interferómetro que la velocidad de la luz no dependía de la velocidad del objeto que la emitía, esto descartó de golpe la suposición de que hubiera un “eter” o sustancia necesaria por la que se propagara la luz.
En su lugar aparecieron las famosas transformaciones de Lorentz. La contracción de Lorentz explicaba el resultado del experimento. La rapidez constante de la luz es uno de los postulados fundamentales (junto con el principio de causalidad y la equivalencia de los marcos de inercia) de la Teoría de la Relatividad Especial.
Así que, amigos míos, esas cantidades conservarán su significado natural mientras la ley de gravitación y la de la propagación de la luz en el vacío y los dos principios de la termodinámica sigan siendo válidos. A tal respecto Max Planck solía decir:
“Por lo tanto, al tratarse de números naturales que no inventaron los hombres, siempre deben encontrarse iguales cuando sean medidas por las inteligencias más diversas con los métodos más diversos” .
En sus palabras finales alude a la idea de observadores situados en otros lugares del Universo que definen y entienden esas cantidades de la misma manera que nosotros, sin importar que aparatos o matemáticas pudieran emplear para realizar sus comprobaciones.
Estaba claro que Planck apelaba a la existencia de constantes universales de la Naturaleza como prueba de una realidad física completamente diferente de las mentes humanas. Pero él quería ir mucho más lejos y utilizaba la existencia de estas constantes contra los filósofos positivistas que presentaban la ciencia como una construcción enteramente humana: puntos precisos organizados de una forma conveniente por una teoría que con el tiempo sería reemplazada por otra mejor. Claro que Planck reconocía que la inteligencia humana, al leer la naturaleza había desarrollado teorías y ecuaciones para poder denotarlas pero, sin embargo, en lo relativo a las constantes de la naturaleza, éstas habían surgido sin ser invitadas y, como mostraban claramente sus unidades naturales (unidades de Planck) no estaban escogidas exclusivamente por la conveniencia humana.
La velocidad de c incide en todo el universo
Las constantes de la Naturaleza inciden en todos nosotros y, sus efectos, están presentes en nuestras mentes que, sin ellas, no podrían funcionar de la manera creadora e imaginativa que lo hacen. Ellas le dan el ritmo al Universo y hacen posible que todo transcurra como debe transcurrir.
Es curioso comprobar que, una de las paradojas de nuestro estudio del Universo circundante es que a medida que las descripciones de su funcionamiento se hacen más precisas y acertadas, también se alejan cada vez más de toda la experiencia humana que, al estar reducidas a un ámbito muy local y macroscópico, no puede ver lo que ocurre en el Universo en su conjunto y, por supuesto, tampoco en ese otro “universo” de lo infinitesimal que nos define la mecánica cuántica en el que, cuando nos acercamos, podemos observar cosas que parecen fuera de nuestro mundo, aunque en realidad, sí que están aquí.
La revolución de la mecánica cuántica empieza a materializarse, y el qubit es el principal protagonista. Siendo la unidad mínima de información de este extraño mundo, permitirá procesar toda la información existente en segundos. La revolución de la mecánica cuántica empieza a materializarse, y el qubit es el principal protagonista. Siendo la unidad mínima de información de este extraño mundo, permitirá procesar toda la información existente en segundos.
No podemos descartar la idea de que, en realidad, puedan existir “seres también infinitesimales” que, en sus “pequeños mundos” vean transcurrir el tiempo como lo hacemos nosotros aquí en la Tierra. En ese “universo” especial que el ojo no puede ver, podrían existir otros mundos y otros seres que, como nosotros, desarrollan allí sus vidas y su tiempo que, aunque también se rigen por las invariantes constantes univerales, para ellos, por su pequeñez, el espacio y el tiempo tendrán otros significados. Si pensamos por un momento lo que nosotros y nuestro planeta significamos en el contexto del inmenso universo… ¿No viene a suponer algo así?
Einstein nos dejó dichas muchas cosas interesantes sobre las constantes de la Naturaleza en sus diferentes trabajos. Fue su genio e intuición sobre la teoría de la relatividad especial la que dotó a la velocidad de la luz en el vacío del status especial como máxima velocidad a la que puede transmitirse información en el Universo. El supo revelar todo el alcance de lo que Planck y Stoney simplemente habían supuesto: que la velocidad de la luz era una de las constantes sobrehumanas fundamentales de la Naturaleza.
La luz se expande por nuestro Universo de manera isotrópica, es decir, se expande por igual en todas las direcciones. Así actúan las estrellas que emiten su luz o la bombilla de una habitación. Cuando es anisotrópica, es decir que sólo se expande en una dirección, tendríamos que pensar, por ejemplo, en el foco de un teatro que sólo alumbra a la pianista que nos deleita con una sonata de Bach.
La luz de las estrellas: Podemos ver como se expande por igual en todas las direcciones del espacio (Isotrópica)
Claro que, cuando hablamos de las constantes, se podría decir que algunas son más constantes que otras. La constante de Boltzmann es una de ellas, es en realidad una constante aparente que surge de nuestro hábito de medir las cosas en unidades. Es sólo un factor de conversión de unidades de energía y temperatura. Las verdaderas constantes tienen que ser números puros y no cantidades con “dimensiones”, como una velocidad, una masa o una longitud.
Las cantidades con dimensiones siempre cambian sus valores numéricos si cambiamos las unidades en las que se expresan.
Las constantes fundamentales determinan el por qué, en nuestro Universo, las cosas son como las observamos.
Y, a todo esto, la teoría cuántica y de la Gravitación gobiernan reinos muy diferentes que tienen poca ocasión para relacionarse entre sí. Mientras la una está situada en el mundo infinitesimal, la otra, reina en el macrocosmos “infinito” del inmenso Universo. Sin embargo, las fuerzas que rigen en el mundo de los átomos son mucho más potentes que las que están presentes en ese otro mundo de lo muy grande. ¡Qué paradoja!
¿Dónde están los límites de la teoría cuántica y los de la relatividad general? Somos afortunados al tener la respuesta a mano, Las unidades de Planck nos dan la respuesta a esa pregunta:
Supongamos que tomamos toda la masa del Universo visible y determinamos la longitud de onda cuántica. Podemos preguntarnos en que momento esa longitud de onda cuántica del Universo visible superará su tamaño. La respuesta es: Cuando el Universo sea más pequeño que la longitud de Planck (10-33 centímetros), más joven que el Tiempo de Planck (10-43 segundos) y supere la Temperatura de Planck (1032 grados). Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender a qué se parece el mundo a una escala menor que la Longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la Gravedad.
El satélite Planck un observatorio que explora el universo lleva el mismo nombre del fundador de la teoría cuántica será pura coincidencia?. Crédito: ESA. La Gravedad cuántica queda aún muy lejos de nuestro entendimiento.
La Relatividad General la teoría de Einstein de la gravedad, nos da una base útil para matemáticamente modelar el universo a gran escala -, mientras que la Teoría Cuántica nos da una base útil para el modelado de la física de las partículas subatómicas y la probabilidad de pequeña escala, de la física de alta densidad de energía de los inicios del universo – nanosegundos después del Big Bang – en la cuál la relatividad general sólo la modela como una singularidad y no tiene nada más que decir sobre el asunto.
Las teorías de la Gravedad Cuántica pueden tener más que decir, al extender la relatividad general dentro de una estructura cuantizada del espacio tiempo puede ser que nosotros podamos salvar la brecha existente entre la física de gran escala y de pequeña escala, al utilizar por ejemplo la Relatividad Especial Doble o Deformada.
¡Es tanto lo que nos queda por saber!
El día que se profundice y sepamos leer todos los mensajes subyacentes en el número puro y adimensional 137, ese día, como nos decía Heisenberg, se habrán secado todas las fuentes de nuestra ignorancia. Ahí, en el 137, Alfa (α) Constante de estructura Fina, residen los secretos de la Relatividad Especial, la Velocidad de la Luz, c, el misterio del electromagnetismo, el electrón, e, y, la Mecánica Cuántica, es decir el cuanto de acción de Planck, h
Emilio Silvera Vázquez
May
24
Superconductividad
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (1)
“Hace algunos años me hallé a mi mismo en un lugar completamente inesperado: una conferencia sobre teoría de cuerdas. Mi campo de investigación es la materia condensada, el estudio de materiales como metales y superconductores a temperaturas próximas al cero absoluto. Esta disciplina se halla todo lo lejos de la teoría de cuerdas como podría estarlo sin salirse de la física. La Teoría de cuerdas intenta describir la Naturaleza a energía muhco mayores a las que puedan alcanzarse en los laboratorios terrestres o, de hecho, en cualquier lugar del universo conocido. Quienes a ella se dedican estudian las exóticas leyes que gobiernan los agujeros negros y postulan que el universo posee otras dimensiones espaciales, además de las tres que podemos ver. Para ellos, la Gravedad constituye la interacción dominante de la Naturaleza. Para mí, no desempaña ningún papel.”
La mecánica cuántica fue desarrollada en el siglo XX para describir el movimiento de un electrón en un átomo de hidrógeno. Más tarde, Einstein y otros señalaron que la teoría cuántica de un par de electrones no tenía funciones intuitivas que encontraron difícil de aceptar: dos electrones bien pueden tener sus estados cuánticos “enredado”, indicando que hablan el uno al otro la mecánica cuántica, incluso a pesar de que están muy separados. Hoy en día, el entrelazamiento cuántico no es visto como un sutil efecto microscópico de interés sólo para unos pocos físicos, sino como un ingrediente crucial necesaria para una comprensión completa de las muchas fases de la materia. Un cristal puede tener unos billones de billones de electrones entrelazados unos con otros, y los diferentes patrones de entrelazamiento conducir a fases que son imanes, metales, o superconductores. Voy a dar una simple discusión de estas y otras características notables de la mecánica cuántica de un trillón de trillones de electrones, y de su importancia para una variedad de materiales tecnológicamente importantes. La teoría también tiene conexiones sorprendentes e inesperados a la teoría de cuerdas: notablemente, esto se conecta el movimiento de los electrones dentro de un plano de un cristal en el laboratorio, a la teoría de los agujeros negros astrofísicos similares a los estudiados por Chandrasekhar
Si hay algo que le gusta a la ciencia es estudiar los extremos de la naturaleza, incluso a veces forzarlos un poco. Cada vez construimos telescopios para ver más lejos, naves para viajar más rápido, combustibles de mayor rendimiento, etc. Y uno de los aspectos de la naturaleza que no se escapa de está búsqueda de los límites extremos es la temperatura.
Efectivamente, porque en el año 1997 el premio Nobel de física fue a parar a tres investigadores: Steven Chu (Universidad de Standford, California), Claude Cohen (Collage de France and Ecole Normale, Paris) y william D. Phillips (National Institute of Standards an Technology, Maryland), por el desarrollo de técnicas para lograr las temperaturas más bajas jamás alcanzadas.
Esta investigación abrió la puerta a todo un nuevo campo de investigación. Gracias a ella estamos conociendo mejor la estructura más íntima de la materia, y lo que es más importante comenzando a controlarla.
Vórtices cuánticos en un condensado rotante de átomos de sodio. Pero sigamos con el Profesor Sachdev que, nos sigue contando:
“Estas diferencias entre los físicos de cuerdas y los de la materia condensada, se plasman en un abismo cultural. Los investigadores de teorías de cuerdas gozan de una excelente reputación, por lo que asistí a aquella conferencia con un temor casi reverencial a su pericia matemática. Había invertido meses en la lectura de artículos y libros sobre el tema, a menudo quedándome empantanado. Estaba seguro de que sería rechazado como un advenedizo ignorante. Por su parte, los teóricos de cuerdas tenían dificultades con algunos de los conceptos más simples de mi campo. Llegué a verme dibujando esquemas que con anterioridad solo había empleado con mis estudiantes de doctorado primerizos.
Varios científicos encabezados por el físico de Oxford Ian Walmsley han conseguido relacionar y hacer vibrar a dos diamantes en el proceso conocido como entrelazamiento cuántico. El misterioso proceso, al que el propio Eisntein no supo darle comprensión completa, supone el mayor avance hasta la fecha y abre las puertas de la computación cuántica.
Así pues, ¿porque había asistido? Durante los últimos años, los expertos en materia condensada hemos observado que algunos materiales pueden comportarse de un modo que hasta ahora juzgábamos imposible. Se trata de fases marcadamente cuánticas de la materia cuya estructura se caracteriza por la aparición de uno de los fenómenos más chocantes de la naturaleza: el entrelazamiento cuántico. En un célebre artículo escrito en 1935, Albert Einstein, Boris Podolski y Nathan Rosen señalaron que la teoría cuántica implicaba la existencia de ciertas conexiones “espeluzmantes” entre partículas. Cuando aparecen, las partículas se coordinan sin que haya entre ellas una acción física directa. Einstein y sus colaboradores consideraron el caso de dos electrones, pero un metal o un superconductor contienen muchísimos más: del orden de 1023, en una muestra de laboratorio típica. La complejidad que exhiben algunos materiales resulta sobrecogedora, y a ella he dedicado gran parte de mi carrera. Pero el problema no se reduce a lo meramente académico:
Se trabajo con superconductores de baja y de alta temperatura. Bueno, al menos se está intentando saber más de ambos métodos. Los superconductores revisten una enorme importancia técnica, por lo que se han dedicado ingentes esfuerzos a entender sus propiedades y su potencial.
Hace unos años descubrimos que la Teoría de cuerdas nos brindaba una manera completamente inesperada de enfocar el problema. En su camino hacia una formulación que unifique las interacciones cuánticas entre partículas y la Teoría de la Gravedad de Einstein, los físicos de cuerdas se han topado con lo que ellos denominan “dualidades”: relaciones ocultas entre áreas de la física muy apartadas entre sí. Las dualidades que nos interesan relacionan dos tipos de teorías: por un lado, las que funcionan bien cuando los fenómenos cuánticos no resultan significativos pero la gravedad es muy intensa; por otro lado, aquellas que describen efectos cuánticos fuertes en situaciones con campos gravitatorios débiles [vease “El Espacio, ¿una ilusión”, por Juan Maldacena; Investigación y Ciencia, enero 2006]. Esta equivalencia permite traducir los hallazgos hallados en un campo al otro. Gracias a ella, descubrimos que podíamos expresar nuestras preguntas sobre el entrelazamiento en términos de un problema gravitatorio para, después, servirnos de los descubrimientos que los físicos de cuerdas habían realizado sobre las matemáticas de los agujeros negros. Un ejemplo de epnsamiento refinado al máximo.
Fases Ocultas
Para entender ese círculo de ideas debemos volver por un momento a la física del bachillerato. Según esta, las fases de la materia corresponden a los estados sólidos, líquido y gaseoso. Un sólido posee tamaño y forma fijos; un líquido toma la forma del recipiente que lo contiene;, aunque se parecen en este último aspecto a los líquidos, pueden alterar su volumen con facilidad. Aunque se trata de conceptos simples, hasta principios del siglo XX carecíamos de un entendimiento preciso de las fases de la materia. Los átomos se disponen de manera ordenada en los sólidos cristalinos, pero pueden moverse en líquidos y gases.
Sin embargo, las tres fases anteriores no bastan en absoluto para describir todos los aspectos de la materia. Un sólido no se compone solo de una red de átomos, sino también de un enjambre de electrones. Cada átomo libera unos pocos electrones que pueden pulular por todo el cristal. Cuando conectamos una batería a un pedazo de metal, la corriente eléctrica fluye por él.
Casi todos los metales obedecen la ley de Ohm: la intensidad de la corriente es igual al voltaje aplicado dividido por la resistencia del material. Los aislantes, como el teflón, presentan una resistencia muy elevada; en los metales, la resistencia es baja. Los superconductores destacan por poseer una resistencia inconmensurablemente pequeña. En 1911, Helke Kamerlingh Onnes descubrió el fenómeno al refrigerar mercurio sólido a 4 grados Kelvin (269 grados Celcius bajo cero). Hoy conocemos materiales en los que la superconductividad aparece a temperaturas mucho mayores (hasta 138 grados Celcius bajo cero).
Aunque tal vez no resulte obvio, aislantes y superconductores representan fases diferentes de la materia. El enjambre de electrones que los caracteriza adquiere en cada caso propiedades distintas. Durante las dos últimas décadas, hemos descubierto que los sólidos poseen fases electrónicas adicionales. Entre ellas, una especialmente interesante que, de tan insólita, ni siquiera tiene nombre: los físicos hemos dado en llamarla “metal extraño”. Se caracteriza por una dependencia inusual entre su resistencia eléctrica y su temperatura.”
Durante décadas, los físicos han estado tratando de conciliar las dos teorías principales que describen el comportamiento físico. La primera, la teoría de Einstein de la relatividad general, utiliza la gravedad – Las fuerzas de atracción – para explicar el comportamiento de los objetos con masas grandes, tales como la caída de los árboles o los planetas en órbita. Sin embargo, a nivel atómico y subatómico, las partículas con masas despreciables se describen mejor con otra teoría: la mecánica cuántica.
Una “teoría del todo” que unificara a la relatividad general con la mecánica cuántica abarcaría todas las interacciones físicas, sin importar el tamaño del objeto. Uno de los candidatos más populares para una teoría unificada es la teoría de cuerdas, desarrollada por primera vez a finales de 1960 y principios de 1970.
La teoría de cuerdas explica que los electrones y los quarks (los bloques de construcción de las partículas más grandes) son cadenas unidimensionales oscilantes, no objetos sin dimensiones como tradicionalmente se pensaba.
Los físicos están divididos sobre si la teoría de cuerdas es una teoría viable del todo, pero muchos están de acuerdo que ofrece una nueva manera de mirar a los fenómenos físicos que han demostrado ser de otro modo difíciles de describir. En la última década, los físicos han usado la teoría de cuerdas para construir una conexión entre la gravedad y la mecánica cuántica, conocida como “Gauge / dualidad gravedad”.
Hace unos 20 años que los científicos encontraron un inexplicable vacío en la estructura electrónica de ciertos supeconductores de alta temperatura. Ahora, una nueva investigación realizada por un equipo liderado por el físico Zhi-Xun Shen podría haber descubierto las razones de este misterio: la brecha podría evidenciar la existencia de un nuevo estado de la materia. El descubrimiento podría servir para conseguir materiales que presenten superconductividad a temperatura ambiente, algo que seguramente cambiaría nuestras vidas.
Es posible que uno de los misterios más antiguos que poseen los materiales superconductores haya sido resuelto. Desde hace unos 20 años que los científicos saben que, a determinadas temperaturas, los materiales superconductores presentan un vacío inexplicable en sus estructuras electrónicas. Este fenómeno podría ser explicado por la presencia de un nuevo estado -previamente desconocido- de la materia. O al menos, esta conclusión es a la que ha llegado un equipo de científicos liderado por el físico Zhi-Xun Shen, del Instituto de Stanford para la Ciencia de los materiales y energía (SIMES), que es una empresa conjunta del Departamento de energía (DOE) SLAC National Accelerator Laboratory y la Universidad de Stanford.
Zhi-Xun Shen está convencido que este trabajo proporciona la más fuerte evidencia encontrada hasta la fecha de la existencia de un nuevo estado de la materia. Además, la investigación podría brindar las claves necesarias para lograr materiales superconductores capaces de funcionar a temperatura ambiente.
Zhi-Xun Shen
Los supeconductores no presentan resistencia al paso de la energía eléctrica, permitiendo la construcción de electroimanes extremadamente potentes, como los utilizados en trenes de levitación magnética o aceleradores de partículas como el LHC. Sin embargo, estos materiales solo mantienen sus propiedades a temperaturas muy bajas, a menudo cercanas al cero absoluto. Los detalles del trabajo de Zhi-Xun Shen fueron publicados en el número 25 de marzo de la revista Science, y en él se destaca que uno de los obstáculos más importante que impiden el desarrollo de superconductores a altas temperaturas es el hecho de que aún los que poseen esa propiedad a temperaturas bastante mayores que cero absoluto deben ser refrigerados a mitad de camino a 0 grados Kelvin antes de que funcionen. Conseguir que un material presenten superconductividad a temperatura ambiente sin necesidad de este enfriamiento previo haría posible la distribución de electricidad sin pérdidas y muchos otros adelantos que, en conjunto, cambiarían nuestras vida
los principios físicos de la superconductividad no se comprendieron hasta 1957, cuando los físicos estadounidenses John Bardeen, León N. Cooper y John R. Schrieffer propusieron una teoría que ahora se conoce como teoría BCS por las iniciales de sus apellidos, y por la que sus autores recibieron el Premio Nobel de Física en 1972. La teoría BCS describe la superconductividad como un fenómeno cuántico, en el que los electrones de conducción se desplazan en pares, que no muestran resistencia eléctrica. Esta teoría explicaba satisfactoriamente la superconducción a altas temperaturas en los metales, pero no en los materiales cerámicos. En 1962, el físico británico Brian Josephson estudió la naturaleza cuántica de la superconductividad y predijo la existencia de oscilaciones en la corriente eléctrica que fluye a través de dos superconductores separados por una delgada capa aislante en un campo eléctrico o magnético. Este fenómeno, conocido como efecto Josephson, fue posteriormente confirmado experimentalmente.
Los científicos han usado electroimanes para generar campos magnéticos desde hace mucho tiempo. Haciendo fluir corriente eléctrica por un anillo conductor se induce campo magnético. Sustituyendo el conductor por un superconductor y enfriándolo a la temperatura necesaria, podría ser posible generar campos magnéticos mucho mas potentes debido a la falta de resistencia, y por tanto de generación de calor en el anillo. Sin embargo, esto no pudo hacerse en un principio. Cuando el campo magnético alcanzaba una determinada intensidad, el superconductor perdía sus propiedades y se comportaba como un conductor ordinario. Hasta la década de los cuarenta no se resolvieron los problemas de los campos magnéticos y solo muy recientemente se ha superado el problema de las bajas temperaturas.
“¿Cuál es la razón por la que la materia no se colapsa sobre sí misma? El mismo principio que impide que las estrellas de neutrones y las enanas blancas implosionen y que hace que la materia normal sea en su mayor parte espacio vacio también permite la existencia de los seres humanos. El nombre técnico de este principio es el Principio de Exclusión de Pauli, y dice que dos fermiones (un tipo de partículas fundamentales) idénticos y con la misma orientación no pueden ocupar simultáneamente el mismo lugar en el espacio. Por el contrario, los bosones (otro tipo de partículas) no se comportan así, tal y como se ha demostrado recientemente por medio de la creación en el laboratorio de los condensados de Bose-Einstein.
A principios del s. XXI se hizo posible demostrar gráficamente el Principio de Exclusión de Pauli. Hoy ofrecemos esta demonstración como nuestra imagen del día. Lo que vemos arriba son nubes compuestas por dos isótopos de litio: la de la izquierda está formada a partir de bosones, mientras que la de la derecha está formada a partir de fermiones. A medida que baja la temperatura, los bosones se apilan unos sobre otros, pero los fermiones se mantienen separados.”
Otras veces hemos explicado aquí que los Bosones no obedecen al Principio de exclusión de Pauli, por lo que todos los pares de electrones de un superconductor pueden englobarse en el estado de mínima energía, lo que da lugar a un fenómeno conocido como condensación de Bose-Einstein. Vendría a ser como verter agua en un vaso y observar que, en vez de llenarse, se forma una fina capa de hielo en el fondo que absorbe tanta agua como tenemos sin aumentar su espesor.
Si a un material de tales características le aplicamos un voltaje, veremos que este promociona los pares de electrones hacia un estado que posee una diminuta cantidad de energía adicional, con lo que se genera una corriente eléctrica. Dicho estado de energía superior se encuentra por lo demás vacío, por lo que nada impide el flujo de pares y el superconductor transmite la corriente sin oponer resistencia.
Puntos Críticos
A principio de los ochenta, el éxito de la mecánica cuántica a la hora de explicar las propiedades de los metales, aislantes, superconductores y otros materiales, como los semiconductores (la base de la electrónica moderna) generó -la engañosa- sensación de que ya no quedaban grandes descubrimientos que hacer. Esa convicción se vino abajo cuando aparecieron los superconductores de altas temperaturas.
Un ejemplo nos lo proporciona el arseniuro de hierro y bario cuando una fracción del arsénico ha sido reemplazada por fósforo. A bajas temperaturas este material se comporta como un superconductor. Se cree que obedece a una teoría similar a la propuesta por BCS, pero en la que los pares de electrones no se crean por las vibraciones de la red cristalina, sino por efectos debidos a la física del espín.
Seguir ahondando en este tema de la superconductividad, nos llevaría muy lejos hasta comprobar, que no conocemos esencialmente lo que la materia es y, lo que de ella podemos esperar en circunstancias especiales. Nada es lo que parece a primera vista y, cuando conozcamos bien ese mundo extraño y misterioso que llamamos mecánica cuántica… ¿Qué podremos encontrar? Seguramente, allí estarán esos fantásticos y maravillosos “mundos” largamente buscados por los físicos y en los que, ¡Oh! ¡sorpresa! aparecerán las predicciones de la Teoría de cuerdas a la que no podemos llegar por no disponer de la energía necesaria.
El trabajo tiene varias fuentes pero, de manera muy especial, señaló aquí la Revista Investigación y ciencia en su artículo sobre el reportaje de Subir Sachdev que, entre otros datos recogidos al azar, conforman el presente trabajo que, de mi parte, contiene sólo algunos apuntes que tratan de conexionar el conjunto.
Publica: Emilio Silvera Vázquez
May
23
Partículas “bellas” de materia y antimateria II
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (1)
Hace ya algún tiempo que os puse aquí mismo la primera parte del artículo publicado en la Revista de Física de la RSEF, os pongo el comienzo de aquella primera parte y el final, así, recordareis.
Un magnífico artículo de Don Alberto Ruiz Jimeno, miembro del Grupo de Altas Energías del Instituto de Física Moderna Universidad de Cantabria y Jefe del Grupo de Altas Energías. En él nos dice que:
Nuevos bariones constituidos por tres Quarks, como los protones, pero conteniendo el quarks b (“belleza”) han sido observado en el experimento CDF del Acelerador del Tevatrón de protones y antiprotones. Por otra parte (nos dice), se ha observado por primera vez la oscilación de los mesones B, entre materia y antimateria. Dado que el artículo puede tener un alto interés para ustedes, he creído positivo transcribirlo aquí para gozo del personal que, con estos nuevos conocimientos (como me pasó a mí), podrán aumentar los suyos.
La física de partículas elementales tiene por objeto el estudio de los constituyentes más elementales de la materia y de las fuerzas fundamentales que rigen su comportamiento. La dinámica de estos bloques fundamentales viene formulada por la mecánica cuántica relativista.
Terminaba esta primera parte así:
El Modelo Estándar ha sido comprobado desde su desarrollo formal, a mediados de 1960, y sus parámetros han sido medidos con extraordinaria precisión, gracias al desarrollo de experimentos muy potentes, entre los que destacan los realizados en el acelerador LEP (“Large Electrón Positrón”) del CERN (Centro Europeo de Física de Partículas, en Ginebra), durante la última década del siglo XX, y del Tevatrón del Laboratorio Fermilab (Chicago, USA), aún en funcionamiento.
May
22
La Física y el Tiempo
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)
Para el topólogo, un nudo es una curva continua, cerrada y sin puntos dobles. Esta curva está situada en un espacio de tres dimensiones y se admite que pueda ser deformada, estirada, comprimida, aunque está “prohibido” hacerle cortes. Cuando se puede, a través de diversas manipulaciones, se pasa de un nudo a otro y se dice que son equivalentes. Claro que, algunos se abstraen en cuestiones con otras, al parecer, no relacionadas.
Un viejo amigo bromeaba diciendo que el Andante en do menor de la Sinfonía Concertante de Mozart conseguía devolverle a su intimidad anímica de partida, y que por eso, en su opinión, plasmaba de forma inefable el tiempo cíclico, o mejor aún, una CTC (“curva de género de tiempo cerrada”). Y transcurridos los doce minutos que dura ese movimiento, volvíamos a escucharlo una vez más. Mientras, discutíamos sin cesar sobre el tiempo, esa abstracción de la Mente que nadie ha sabido explicar.
No es bueno perder la perspectiva
Hay un tiempo para cada cosa. Un tiempo para soñar, inconmensurable, un tiempo para vivir, siempre corto, un tiempo para filosofar, misterioso,…, y un tiempo para la ciencia, sujeto a número.
Me gustaría empezar definiendo el tiempo, pero no sé. Sesudos pensadores, como Platón y Aristóteles, lo ensayaron con brillantez. El tiempo es una imagen móvil de la eternidad. Esta imagen es eterna, pero se mueve según número, dirá Platón en el TIMEO. El tiempo es el número de movimiento según el antes y el después…El tiempo no es movimiento, sino movimiento en tanto en cuanto admite enumeración. El tiempo es una especie de número. El tiempo es obviamente aquello que se cuenta, no aquello con lo cual contamos, escribirá Aristóteles en su FÍSICA.
Alguna vez, en simbiosis con la Naturaleza, podemos sentir como se ha parado el tiempo
Son definiciones muy sugestivas, aunque teñidas de circularidad: movimiento en el tiempo, tiempo a través del movimiento. Agustín de Hipona vio esto claramente. Célebre es asimismo su declaración: Si nemo a me quaerat, scio; si quaerenti explicari velim, nescio (CONFESIONES). En uno de los análisis más penetrantes del tema, sugirió Agustín la Mente como fuente de tiempo: En ti es, mente mía, donde mido los tiempos.
Time is what happens when nothing else happens, afirma Feynman; para a continuación advertir que toda definición del tiempo es necesariamente circular, y que lo importante no es decir qué es el tiempo, sino decir cómo se mide lo que llamamos tiempo. En su enciclopédico tratado sobre la gravitación, Misner, Thorne y Wheeler nos recuerdan de forma sencilla y profunda lo que toda medida del tiempo físico debe cumplir: Time is defined so that motion looks simple.
De lo que estamos seguros es de que, lo que entendemos por el tiempo, se nos escurre de entre los dedos y no lo podemos atrapar, cuando queremos darnos cuenta… ¡Se nos acaba!
Lo cierto y verdad es que nadie sabe lo que el Tiempo es. Muchos sabios, filósofos y físicos han tratado de explicarnos lo que es el tiempo, ninguno de ellos lo ha conseguido, unos con más y otros con menos fortuna nos d8ijeron lo que ellos creían que era el tiempo, pero con titubeos y poca claridad, sus explicaciones se perdían en la niebla de la ignorancia.
Claro que el tiempo existe, su inexorable transcurrir tiene estas cosas
Lo he dicho alguna vez, somos conscientes de que el Tiempo existe, es la única conclusión que podamos obtener al ver como cambian las cosas, como todo se transforma y se convierte en algo distinto a lo que en un principio fue.
Al no saber lo que es el Tiempo (nunca hemos podido descubrir a qué velocidad se mueve), y, para nuestro comportamiento del día a día en la Sociedad, nos inventamos los relojes y lo cuantizamos en segundos para elevarlo a medida que crecía en minutos, horas, días, mes4es, años, siglos, milenios, millones de años, ¡Eones!
Así las cosas en lo que al Tiempo se refiere, sabemos a qué hora abre el comercio, cuando entramos a trabajar o comienzan las clases en la Universidad, quedar con un amigo para ir al cine, los momentos de celebraciones festivas, cuando sucedieron los hechos históricos… Pero todo ello, basado en un Tiempo inventado, el Tiempo real es otra cosa que no conocemos, solo presentimos que está ahí.
El Tiempo real transcurre y nos arrastra hacia ese final del que nada puede huir
El tiempo es un concepto inventado por el hombre para ordenar, primero, sus sensaciones y actos, y luego, los fenómenos. Decían los escolásticos: Tempus est ens rationis cum fundamento in re. La primera unidad natural debió ser el día, por la ciclidad conspicua de las salidas del Sol. Los grandes avances científicos y tecnológicos a lo largo de los siglos han estado vinculados a los adelantos en la precisión con que se ha ido midiendo el tiempo. Hoy disponemos de relojes que aseguran un segundo en 20 millones de años, y el paso de la femto-química a la atto-física empieza a ser una realidad.
No pocas veces nos podemos ver perdidos en la vorágine de lo que llamamos tiempo, algo tan enorme que, en realidad, no sabemos lo que es. No lo hemos llegado a comprender, y, por si fuera poco, tampoco sabemos, si en realidad existe.
El tiempo antes de Einstein.
La física nació en torno al tiempo. Las regularidades en los ciclos astrales permitieron al acierto en las predicciones apoyadas en esta periodicidad, y con ello despertó sin duda la confianza del hombre en la racionalidad, inclinándole a escoger el cosmos frente al caos.
Breve historia de la medida del tiempo
La longitud de las sombras fue uno de los primeros métodos usados para fijar las horas. En el Museo Egipcio de Berlín hay un fragmento de piedra que posiblemente sea de un reloj de sol de alrededor de 1500 a.C. Los babilonios desarrollaron los relojes de sol, y se dice que el astrónomo Anaximandro de Mileto los introdujo en Grecia en el siglo VI a.C.
En el siglo II a C, Eratóstenes, de la biblioteca de Alejandría, concibió y llevó a cabo la primera medida de las dimensiones de la Tierra de la que se tiene noticia. En el Año Internacional de la Astronomía, una de las actividades que se llevaron a cabo fue, precisamente averiguar el radio terrestre por el mismo método.
Aparte de relojes de sol, en la antigüedad se usaron también relojes de arena, de agua, cirios y lámparas de aceite graduadas.
En la segunda mitad del siglo XIII aparecen los primeros relojes mecánicos. Su precisión era muy baja (10-20%). En el XIV se mejoran, con el invento del escape de rueda catalina, y ya se alcanzan precisiones de 20 a 30 minutos por día (1-2%). Por allá al año 1345 se empieza a dividir las horas en minutos y segundos.
El tiempo físico asoma en el siglo XIV, en el Merton College Oxford y luego en la Universidad de París, con Oresme. Se representa en una línea horizontal, mientras en vertical se disponen las cualidades variables. Son los primeros gráficos de función (en este caso, función del tiempo). La cinemática celeste brinda un buen reloj a través de la segunda ley de Kepler, midiendo tiempos mediante áreas. La ley armónica de Kepler permitirá medirlos a través de longitudes. Galileo desarrolló la cinemática terrestre, y sugirió el reloj de péndulo. A Huygens debemos la técnica de medida del tiempo que ha llegado a nuestros días, y que suministró relojes más precisos y transportables mediante volantes oscilatorios acoplados a resortes de calidad.
Diseño del reloj de péndulo de Huygens, 1656 (imagen de dominio público).
La importancia, no sólo científica sino económica, de disponer de relojes precisos y estables, queda reflejada en el premio ofrecido por el gobierno inglés de la reina Ana en 1714, que dispuso that a reward be settled by Parliament upon such person o persons as shall discover a more certain and practicable method of ascertainig longitude that any yet in practice. La recompensa era de 20, 000 libras para el que presentara un cronómetro capaz de determinar la longitud con error menor de 30´ de arco al término de un viaje a las Indias occidentales, equivalente a mantener el tiempo con error menor de 2 minutos tras seis semanas de viaje. Se la llevó casi medio siglo después el relojero británico John Harrison (1693-1776), con un reloj, conocido como H4, que incorporaba correcciones por variación en la temperatura, y que en un primer viaje de 81 días desde Porstmouth a Puerto Real (Jamaica) en 1761-62 se retrasó 5 s, esto es, de precisión 10⁻⁶ (10; 44).
Después se pasó a los de diapasón, de aquí a los de cuarzo, y hoy los atómicos ofrecen precisiones desde 10⁻¹² – 10⁻¹⁵ (Cs) hasta 10⁻¹⁶ (máser de H).
Una red de relojes atómicos de cesio, sincronizados mediante ondas de radio, velan actualmente por la exactitud de la hora sobre el planeta. Como señala Davies (10), ya no nos sirve como cronómetro el giro de la Tierra alrededor de su eje. Aunque durante siglos ha sido este viejo trompo un magnífico reloj de referencia, la falta de uniformidad de su giro (las mareas, por ejemplo, lo frenan incesantemente y alargan con ello el día en un par de milésimas de segundo por siglo, perceptible para los finos cronómetros actuales), y otras desviaciones estacionales, cuantitativamente similares a estos retrasos seculares, pero irregulares y de signo variable, son circunstancias que en conjunto obligan a añadir al tiempo civil un segundo intercalar cada uno o dos años (el último lo fue el 1 de enero de 1999, a las 0 horas) con el fin de remediar la asincronía entre los tiempos atómicos y los días astronómicos. El día no tiene 86 400 s justos (donde el segundo se define como la duración de 9 192 631 770 períodos de una determinada vibración de los átomos de Cs. Hoy la tecnología alcanza precisiones fabulosas: relojes que en treinta millones de años se desviarían a lo sumo en un diminuto segundo, como el NIST-F1 (Boulder, Colorado).
Por norma general y para mayor exactitud del sistema, dentro del campo visual de cualquier receptor GPS siempre hay por lo menos 8 satélites presentes. Cada uno de esos satélites mide 5 m de largo y pesa 860 kg . La energía eléctrica que requieren para su funcionamiento la adquieren a partir de dos paneles compuestos de celdas solares adosadas a sus costados. Están equipados con un transmisor de señales codificadas de alta frecuencia, un sistema de computación y un reloj atómico de cesio, tan exacto que solamente se atrasa un segundo cada 30 mil años.
La posición que ocupan los satélites en sus respectivas órbitas facilita que el receptor GPS reciba, de forma constante y simultánea, las señales de por lo menos 6 u 8 de ellos, independientemente del sitio donde nos encontremos situado. Mientras más señales capte el receptor GPS, más precisión tendrá para determinar las coordenadas donde se encuentra situado.
Incluso hay relojes de pulsera comerciales (receptores de señales de radio) con precisión de un segundo por millón de años garantizada por un reloj atómico en una lejana estación. La naturaleza de altísima precisión: la estabilidad del púlsar binario b1855+09 puede ser de unas partes en 10¹⁵ o incluso mejor.
El tiempo en Newton:
En los PRINCIPIA, Newton empieza con una renuncia a definir el tiempo: El tiempo, el espacio, el lugar y el movimiento son de todos bien conocidos. Y no los defino. Pero digo que el vulgo no concibe esas cantidades más que por su relación a cosas sensibles. Para evitar ciertos prejuicios que de aquí se originan, es conveniente distinguirlas en absolutas y relativas, verdaderas y aparentes, matemáticas y vulgares.
A continuación, sin embargo, Newton se arrepiente de su primer impulso y aclara: El tiempo absoluto, verdadero y matemático, de suyo y por su propia naturaleza fluye uniformemente sin relación a nada externo y se llama también duración: el tiempo relativo, aparente y vulgar es cualquier medida sensible y externa (exacta o no uniforme) de la duración por medio del movimiento y se usa vulgarmente en lugar del tiempo verdadero: tal como la hora, el día, el mes, el año.
Sabemos del fluir del tiempo por el cambio que se produce en nuestro Universo, en el Mundo, en Nuestras Vidas. Con el paso del Tiempo las cosas cambian y nada permanece. Por eso sabemos que está ahí
¿Qué significa que el tiempo fluye? ¿Qué el tiempo “se mueve en el tiempo”? De nuevo la pescadilla mordiéndose la cola. El absolutismo del tiempo newtoniano recibió encendidas críticas. Leibniz opuso su idea de espacio y tiempos puramente relativos, el primero como un orden de coexistencia, el segundo como un orden de sucesiones de las cosas; ambos, espacio y tiempo, son phœnomena bene fundata. Los argumentos dinámicos con que Newton arropa su tesis de la naturaleza absoluta de la rotación y con ello la de un espacio absoluto, apoyo posterior para el tiempo absoluto, también hallan fuertes objeciones. Para Berkeley esas razones de Newton lo único que muestran es la importancia del giro respecto de las masas lejanas del Universo y no respecto de un espacio absoluto, que él no acepta. Ernst Mach, en la segunda mitad del XIX, insistirá decididamente en este punto de vista, y desde su positivismo acosará los absolutos newtonianos. De “medieval”, “no científico”, “metafísico”, tilda Mach a Newton: No tenemos derecho a hablar de un tiempo “absoluto”: de un tiempo independiente de todo cambio. Tal tiempo absoluto no puede medirse por comparación con ningún movimiento; por tanto no tiene valor práctico ni científico, y nadie tiene derecho a decir que sabe algo de él. Es una concepción metafísica vana.
El tiempo en Einstein:
El tiempo newtoniano, absoluto, el nos es familiar, tuvo que dejar paso al tiempo einsteniano, mutable y relativo, con tantos “ahora” por suceso cuantos estados de movimiento mutuo imaginemos.
El tercero de los trabajo enviados por Albert Einstein (AE) en su Annus Mirabilis de 1905 a Annalen der Physik lleva por título “Zur Elektrodynamik Bewegter Körper” (“Sobre la electrodinámica de los cuerpos en movimiento”). Junto con el quinto, titulado “Ist der Trägheit eines Körpers von seinem Energieinhalt abhängig?” (“¿Depende la inercia de un cuerpo de su contenido de energía?”), constituyen lo que hoy se llama TEORÍA ESPECIAL DE LA RELATIVIDAD.
Velocidad de la luz desde la Tierra a la Luna, situada a más de 380.000 km.
Da Albert Einstein un par de razones para justificar su tercer trabajo:
- La insatisfacción que le produce la asimetría en la descripción maxwelliana de los fenómenos electromagnéticos: la acción entre un conductor y un imán depende solo del movimiento relativo entre ambos, pero la teoría de Maxwell distingue entre el caso de conductor en reposo y el caso de imán en reposo: a) En el primer caso el campo magnético móvil engendra un campo eléctrico, con una energía determinada, que a su vez produce corrientes en el conductor en reposo. b) En el segundo caso, no se produce ningún campo electrónico, sino una fuerza electromotriz en el conductor, sin energía asociada, que engendra una corriente como en el caso anterior.
- La incapacidad de la óptica y del electromagnetismo (EM) para detectar el movimiento respecto del lichtmedium, es decir, de un inercial privilegiado. Esto le sugiere que la óptica y el EM tienen las mismas ecuaciones en todos los inerciales (sistemas en los que las leyes de la mecánica de Newton son las mismas). Y AE eleva esto a un principio, que llama “Prinzip der Relativität”, y le añade un compañero, aparentemente incompatible con él: “La velocidad de la luz en vacío es siempre la misma, con independencia del estado de movimiento del cuerpo emisor.
¿Será ese de arriba el rayo de luz de Einstein, o, por el contrario, será un asteroide que se nos viene encima?
Siendo todavía muy joven, en 1895-1896, ya le preocupaba el EM y la luz, como recordaba en 1955: “Si persiguiéramos a la velocidad de la luz un rayo de luz, veríamos una onda independiente del tiempo. ¡Tal cosa, sin embargo, no existe! Este fue el primer experimento mental, infantil, en relación con la teoría especial de la relatividad”.
Este tercer trabajo de Einstein en 1905 no contiene ninguna referencia a otros trabajos, ni suyos ni de otros (como Lorentz o Poincaré).
Consciente de que su postulado de la constancia de la velocidad de la luz choca frontalmente con la ley galileana de adición de velocidades, Albert Einstein revisa los cimientos de la Física, empezando por definir físicamente y con sumo cuidado el concepto de Gleichzeitigkeit o simultaneidad entre sucesos. Considera un sistema inercial, para el que supone válida la geometría euclidiana para calcular distancias entre objetos estacionarios a través de sus coordenadas respecto de sus ejes cartesianos. Si A, B son dos observadores estacionarios, provistos de relojes iguales, y A (B) manda una señal luminosa a B (A), quien la devuelve sin tardanza a A (B), diremos que el reloj de A está sincronizado con el reloj de B si
t(B) – t(A) = t’(A) – t(B),
donde t(A) es el tiempo marcado por el reloj de A cuando envía la señal a B, t(B) lo que marca el reloj de B al llegarle la señal de A y reemitirla, y t’(A) la lectura del reloj de A al recibir la devolución de B.
No parece el mejor método para medir la velocidad de la luz, el empleado por Galileo. Claro que, en aquellos tiempos…¿Qué se podía hacer?
Supone Albert Einstein que esta definición no lleva a contradicciones, que es en principio posible entre cualquier par de observadores estacionarios en el inercial, y que la relación de sincronización anterior es de equivalencia: Si A está sincronizada con B, también B lo está con A, y si además B lo está con C, también A y C lo están. A esto le siguen ecuaciones que quiero obviar para no dar complejidad al trabajo.
No existe “el” presente
Pasa Albert Einstein a enunciar con precisión el principio de relatividad y el postulado de la constancia de la velocidad de la luz en el vacío:
- Las leyes que rigen los cambios de los sistemas físicos son las mismas en todos los inerciales.
- Todo rayo de luz se mueve en cualquier inercial con una misma velocidad, c, independientemente del movimiento de su fuente.
Como consecuencia, demuestra que el concepto de sincronía, y por ende de simultaneidad, es relativo, no absoluto. La noción de “presente”, “ahora” o cualquier instante determinado depende del referencial inercial.
Algunos incluso hablaron de energía taquiónica
¿Más rápido que la luz?
¿Existen partículas que se muevan con velocidad superior a la de la luz? Sí; por ejemplo, cualquier partícula que lleve en agua, a temperatura entre 0 y 50 ºC, una velocidad ν > c / n, n = 1.3, irá más deprisa en ese medio que los fotones del espectro visible. Lo mismo ocurre con la mayoría de los rayos cósmicos que llegan a la atmósfera; son superlumínicos en relación con la velocidad de la luz en el aire. Precisamente en esta posibilidad de rebasar la velocidad de la luz en un medio reside el efecto Cherenkov.
Lo que no se conocen son taquiones, o partículas que se muevan más deprisa que la luz en el vacío. Si existieran, podrían utilizarse para mandar información al pasado. Violando el orden causa-efecto. Por ello se “decreta” su inexistencia.
En fin, que la velocidad de la luz en el vacío, al menos que sepamos, es infranqueable. Es un límite impuesto por la Naturaleza al que habrá que vencer, no superándolo (que no se puede), sino mediante una artimaña física inteligente que logre burlar dicho límite.
Aparte de algún que otro añadido, el artículo (parcialmente expuesto aquí -se obviaron partes complejas), es del Físico de la Universidad Complutense D. Alberto Galindo Tixaire. Fue publicado en el Volumen 19, número 1 de la Revista Española de Física en 2005 Año Mundial de la Física
En realidad, un Homenaje a Einstein por haber pasado más de un siglo desde aquel acontecimiento memorable de la Relatividad Especial en el año 1.905 y estar a punto de cumplirse otro siglo desde su relatividad general de 1905. Dos acontecimientos que marcaron el camino de la Física y la Cosmología. Precisamente ahora, se cumplen los 100 años desde que Einstein diera al mundo la segunda parte de su Teoría.
Emilio Silvera Vázquez