Jul
7
La Física y el Tiempo
por Emilio Silvera ~
Clasificado en Física ~
Comments (3)
Para el topólogo, un nudo es una curva continua, cerrada y sin puntos dobles. Esta curva está situada en un espacio de tres dimensiones y se admite que pueda ser deformada, estirada, comprimida, aunque está “prohibido” hacerle cortes. Cuando se puede, a través de diversas manipulaciones, se pasa de un nudo a otro y se dice que son equivalentes. Claro que, algunos se abstraen en cuestiones con otras, al parecer, no relacionadas.
Un viejo amigo bromeaba diciendo que el Andante en do menor de la Sinfonía Concertante de Mozart conseguía devolverle a su intimidad anímica de partida, y que por eso, en su opinión, plasmaba de forma inefable el tiempo cíclico, o mejor aún, una CTC (“curva de género de tiempo cerrada”). Y transcurridos los doce minutos que dura ese movimiento, volvíamos a escucharlo una vez más. Mientras, discutíamos sin cesar sobre el tiempo, esa abstracción de la Mente que nadie ha sabido explicar.
No es bueno perder la perspectiva
Hay un tiempo para cada cosa. Un tiempo para soñar, inconmensurable, un tiempo para vivir, siempre corto, un tiempo para filosofar, misterioso,…, y un tiempo para la ciencia, sujeto a número.
Me gustaría empezar definiendo el tiempo, pero no sé. Sesudos pensadores, como Platón y Aristóteles, lo ensayaron con brillantez. El tiempo es una imagen móvil de la eternidad. Esta imagen es eterna, pero se mueve según número, dirá Platón en el TIMEO. El tiempo es el número de movimiento según el antes y el después…El tiempo no es movimiento, sino movimiento en tanto en cuanto admite enumeración. El tiempo es una especie de número. El tiempo es obviamente aquello que se cuenta, no aquello con lo cual contamos, escribirá Aristóteles en su FÍSICA.
Alguna vez, en simbiosis con la Naturaleza, podemos sentir como se ha parado el tiempo
Son definiciones muy sugestivas, aunque teñidas de circularidad: movimiento en el tiempo, tiempo a través del movimiento. Agustín de Hipona vio esto claramente. Célebre es asimismo su declaración: Si nemo a me quaerat, scio; si quaerenti explicari velim, nescio (CONFESIONES). En uno de los análisis más penetrantes del tema, sugirió Agustín la Mente como fuente de tiempo: En ti es, mente mía, donde mido los tiempos.
Time is what happens when nothing else happens, afirma Feynman; para a continuación advertir que toda definición del tiempo es necesariamente circular, y que lo importante no es decir qué es el tiempo, sino decir cómo se mide lo que llamamos tiempo. En su enciclopédico tratado sobre la gravitación, Misner, Thorne y Wheeler nos recuerdan de forma sencilla y profunda lo que toda medida del tiempo físico debe cumplir: Time is defined so that motion looks simple.
El tiempo es un concepto inventado por el hombre para ordenar, primero, sus sensaciones y actos, y luego, los fenómenos. Decían los escolásticos: Tempus est ens rationis cum fundamento in re. La primera unidad natural debió ser el día, por la ciclidad conspicua de las salidas del Sol. Los grandes avances científicos y tecnológicos a lo largo de los siglos han estado vinculados a los adelantos en la precisión con que se ha ido midiendo el tiempo. Hoy disponemos de relojes que aseguran un segundo en 20 millones de años, y el paso de la femtoquímica a la attofísica empieza a ser una realidad.
No pocas veces nos podemos ver perdidos en la vorágina de lo que llamamos tiempo, algo tan enorme que, en realidad, no sabemos lo que es. No lo hemos llegado a comprender, y, por si fuera poco, tampoco sabemos, si en realidad existe.
El tiempo antes de Einstein.
La física nació en torno al tiempo. Las regularidades en los ciclos astrales permitieron al acierto en las predicciones apoyadas en esta periodicidad, y con ello despertó sin duda la confianza del hombre en la racionalidad, inclinándole a escoger el cosmos frente al cáos.
Breve historia de la medida del tiempo
La longitud de las sombras fue uno de los primeros métodos usados para fijar las horas. En el Museo Egipcio de Berlín hay un fragmento de piedra que posiblemente sea de un reloj de sol de alrededor de 1500 a.C. Los babilonios desarrollaron los relojes de sol, y se dice que el astrónomo Anaximandro de Mileto los introdujo en Grecia en el siglo VI a.C.
En el siglo II a C, Eratóstenes, de la biblioteca de Alejandría, concibió y llevó a cabo la primera medida de las dimensiones de la Tierra de la que se tiene noticia. En el Año Internacional de la Astronomía, una de las actividades que se llevaron a cabo fue, precisamente averiguar el radio terrestre por el mismo método.
Aparte de relojes de sol, en la antigüedad se usaron también relojes de arena, de agua, cirios y lámparas de aceite graduadas.
En la segunda mitad del siglo XIII aparecen los primeros relojes mecánicos. Su precisión era muy baja (10-20%). En el XIV se mejoran, con el invento del escape de rueda catalina, y ya se alcanzan precisiones de 20 a 30 minutos por día (1-2%). Por allá al año 1345 se empieza a dividir las horas en minutos y segundos.
El tiempo físico asoma en el siglo XIV, en el Merton College Oxford y luego en la Universidad de París, con Oresme. Se representa en una línea horizontal, mientras en vertical se disponen las cualidades variables. Son los primeros gráficos de función (en este caso, función del tiempo). La cinemática celeste brinda un buen reloj a través de la segunda ley de Kepler, midiendo tiempos mediante áreas. La ley armónica de Kepler permitirá medirlos a través de longitudes. Galileo desarrolló la cinemática terrestre, y sugirió el reloj de péndulo. A Huygens debemos la técnica de medida del tiempo que ha llegado a nuestros días, y que suministró relojes más precisos y transportables mediante volantes oscilatorios acoplados a resortes de calidad.
Diseño del reloj de péndulo de Huygens, 1656 (imagen de dominio público).
La importancia, no sólo científica sino económica, de disponer de relojes precisos y estables, queda reflejada en el premio ofrecido por el gobierno inglés de la reina Ana en 1714, que dispuso that a reward be settled by Parliament upon such person o persons as shall discover a more certain and practicable method of ascertainig longitude that any yet in practice. La recompensa era de 20, 000 libras para el que presentara un cronómetro capaz de determinar la longitud con error menor de 30´ de arco al término de un viaje a las Indias occidentales, equivalente a mantener el tiempo con error menor de 2 minutos tras seis semanas de viaje. Se la llevó casi medio siglo después el relojero británico John Harrison (1693-1776), con un reloj, conocido como H4, que incorporaba correcciones por variación en la temperatura, y que en un primer viaje de 81 días desde Porstmouth a Puerto Real (Jamaica) en 1761-62 se retrasó 5 s, esto es, de precisión 10⁻⁶ (10; 44).
Después se pasó a los de diapasón, de aquí a los de cuarzo, y hoy los atómicos ofrecen precisiones desde 10⁻¹² – 10⁻¹⁵ (Cs) hasta 10⁻¹⁶ (máser de H).
Una red de relojes atómicos de cesio, sincronizados mediante ondas de radio, velan actualmente por la exactitud de la hora sobre el planeta. Como señala Davies (10), ya no nos sirve como cronómetro el giro de la Tierra alrededor de su eje. Aunque durante siglos ha sido este viejo trompo un magnífico reloj de referencia, la falta de uniformidad de su giro (las mareas, por ejemplo, lo frenan incesantemente y alargan con ello el día en un par de milésimas de segundo por siglo, perceptible para los finos cronómetros actuales), y otras desviaciones estacionales, cuantitativamente similares a estos retrasos seculares, pero irregulares y de signo variable, son circunstancias que en conjunto obligan a añadir al tiempo civil un segundo intercalar cada uno o dos años (el último lo fue el 1 de enero de 1999, a las 0 horas) con el fin de remediar la asincronía entre los tiempos atómicos y los días astronómicos. El día no tiene 86 400 s justos (donde el segundo se define como la duración de 9 192 631 770 períodos de una determinada vibración de los átomos de Cs. Hoy la tecnología alcanza precisiones fabulosas: relojes que en treinta millones de años se desviarían a lo sumo en un diminuto segundo, como el NIST-F1 (Boulder, Colorado).
Por norma general y para mayor exactitud del sistema, dentro del campo visual de cualquier receptor GPS siempre hay por lo menos 8 satélites presentes. Cada uno de esos satélites mide 5 m de largo y pesa 860 kg . La energía eléctrica que requieren para su funcionamiento la adquieren a partir de dos paneles compuestos de celdas solares adosadas a sus costados. Están equipados con un transmisor de señales codificadas de alta frecuencia, un sistema de computación y un reloj atómico de cesio, tan exacto que solamente se atrasa un segundo cada 30 mil años.
La posición que ocupan los satélites en sus respectivas órbitas facilita que el receptor GPS reciba, de forma constante y simultánea, las señales de por lo menos 6 u 8 de ellos, independientemente del sitio donde nos encontremos situado. Mientras más señales capte el receptor GPS, más precisión tendrá para determinar las coordenadas donde se encuentra situado.
Incluso hay relojes de pulsera comerciales (receptores de señales de radio) con precisión de un segundo por millón de años garantizada por un reloj atómico en una lejana estación. La naturaleza de altísima precisión: la estabilidad del púlsar binario b1855+09 puede ser de unas partes en 10¹⁵ o incluso mejor.
El tiempo en Newton:
En los PRINCIPIA, Newton empieza con una renuncia a definir el tiempo: El tiempo, el espacio, el lugar y el movimiento son de todos bien conocidos. Y no los defino. Pero digo que el vulgo no concibe esas cantidades más que por su relación a cosas sensibles. Para evitar ciertos prejuicios que de aquí se originan, es conveniente distinguirlas en absolutas y relativas, verdaderas y aparentes, matemáticas y vulgares.
A continuación, sin embargo, Newton se arrepiente de su primer impulso y aclara: El tiempo absoluto, verdadero y matemático, de suyo y por su propia naturaleza fluye uniformemente sin relación a nada externo y se llama también duración: el tiempo relativo, aparente y vulgar es cualquier medida sensible y externa (exacta o no uniforme) de la duración por medio del movimiento y se usa vulgarmente en lugar del tiempo verdadero: tal como la hora, el día, el mes, el año.
Sabemos del fluir del tiempo por el cambio que se produce en nuestro Universo, en el Mundo, en Nuestras Vidas. Con el paso del Tiempo las cosas cambian y nada permanece. Por eso sabemos que está ahí
¿Qué significa que el tiempo fluye? ¿Qué el tiempo “se mueve en el tiempo”? De nuevo la pescadilla mordiéndose la cola. El absolutismo del tiempo newtoniano recibió encendidas críticas. Leibniz opuso su idea de espacio y tiempos puramente relativos, el primero como un orden de coexistencia, el segundo como un orden de sucesiones de las cosas; ambos, espacio y tiempo, son phœnomena bene fundata. Los argumentos dinámicos con que Newton arropa su tesis de la naturaleza absoluta de la rotación y con ello la de un espacio absoluto, apoyo posterior para el tiempo absoluto, también hallan fuertes objeciones. Para Berkeley esas razones de Newton lo único que muestran es la importancia del giro respecto de las masas lejanas del Universo y no respecto de un espacio absoluto, que él no acepta. Ernst Mach, en la segunda mitad del XIX, insistirá decididamente en este punto de vista, y desde su positivismo acosará los absolutos newtonianos. De “medieval”, “no científico”, “metafísico”, tilda Mach a Newton: No tenemos derecho a hablar de un tiempo “absoluto”: de un tiempo independiente de todo cambio. Tal tiempo absoluto no puede medirse por comparación con ningún movimiento; por tanto no tiene valor práctico ni científico, y nadie tiene derecho a decir que sabe algo de él. Es una concepción metafísica vana.
El tiempo en Einstein:
El tiempo newtoniano, absoluto, el nos es familiar, tuvo que dejar paso al tiempo einsteniano, mutable y relativo, con tantos “ahora” por suceso cuantos estados de movimiento mutuo imaginemos.
El tercero de los trabajo enviados por Albert Einstein (AE) en su Annus Mirabilis de 1905 a Annalen der Physik lleva por título “Zur Elektrodynamik Bewegter Körper” (“Sobre la electrodinámica de los cuerpos en movimiento”). Junto con el quinto, titulado “Ist der Trägheit eines Körpers von seinem Energieinhalt abhängig?” (“¿Depende la inercia de un cuerpo de su contenido de energía?”), constituyen lo que hoy se llama TEORÍA ESPECIAL DE LA RELATIVIDAD.
Velocidad de la luz desde la Tierra a la Luna, situada a más de 380.000 km.
Da Albert Einstein un par de razones para justificar su tercer trabajo:
- La insatisfacción que le produce la asimetría en la descripción maxwelliana de los fenómenos electromagnéticos: la acción entre un conductor y un imán depende solo del movimiento relativo entre ambos, pero la teoría de Maxwell distingue entre el caso de conductor en reposo y el caso de imán en reposo: a) En el primer caso el campo magnético móvil engendra un campo eléctrico, con una energía determinada, que a su vez produce corrientes en el conductor en reposo. b) En el segundo caso, no se produce ningún campo electrónico, sino una fuerza electromotriz en el conductor, sin energía asociada, que engendra una corriente como en el caso anterior.
- La incapacidad de la óptica y del electromagnetismo (EM) para detectar el movimiento respecto del lichtmedium, es decir, de un inercial privilegiado. Esto le sugiere que la óptica y el EM tienen las mismas ecuaciones en todos los inerciales (sistemas en los que las leyes de la mecánica de Newton son las mismas). Y AE eleva esto a un principio, que llama “Prinzip der Relativität”, y le añade un compañero, aparentemente incompatible con él: “La velocidad de la luz en vacío es siempre la misma, con independencia del estado de movimiento del cuerpo emisor”
¿Será ese de arriba el rayo de luz de Einstein, o, por el contrario, será un asteroide que se nos viene encima?
Siendo todavía muy joven, en 1895-1896, ya le preocupaba el EM y la luz, como recordaba en 1955: “Si persiguiéramos a la velocidad de la luz un rayo de luz, veríamos una onda independiente del tiempo. ¡Tal cosa, sin embargo, no existe! Este fue el primer experimento mental, infantil, en relación con la teoría especial de la relatividad”.
Este tercer trabajo de Einstein en 1905 no contiene ninguna referencia a otros trabajos, ni suyos ni de otros (como Lorentz o Poincaré).
Consciente de que su postulado de la constancia de la velocidad de la luz choca frontalmente con la ley galileana de adición de velocidades, Albert Einstein revisa los cimientos de la Física, empezando por definir físicamente y con sumo cuidado el concepto de Gleichzeitigkeit o simultaneidad entre sucesos. Considera un sistema inercial, para el que supone válida la geometría euclidiana para calcular distancias entre objetos estacionarios a través de sus coordenadas respecto de sus ejes cartesianos. Si A, B son dos observadores estacionarios, provistos de relojes iguales, y A (B) manda una señal luminosa a B (A), quien la devuelve sin tardanza a A (B), diremos que el reloj de A está sincronizado con el reloj de B si
t(B) – t(A) = t’(A) – t(B),
donde t(A) es el tiempo marcado por el reloj de A cuando envía la señal a B, t(B) lo que marca el reloj de B al llegarle la señal de A y reemitirla, y t’(A) la lectura del reloj de A al recibir la devolución de B.
No parece el mejor método para medir la velocidad de la luz, el empleado por Galileo. Claro que, en aquellos tiempos…¿Qué se podía hacer?
Supone Albert Einstein que esta definición no lleva a contradicciones, que es en principio posible entre cualquier par de observadores estacionarios en el inercial, y que la relación de sincronización anterior es de equivalencia: Si A está sincronizada con B, también B lo está con A, y si además B lo está con C, también A y C lo están. A esto le siguen ecuaciones que quiero obviar para no dar complejidad al trabajo.
No existe “el” presente
Pasa Albert Einstein a enunciar con precisión el principio de relatividad y el postulado de la constancia de la velocidad de la luz en el vacío:
- Las leyes que rigen los cambios de los sistemas físicos son las mismas en todos los inerciales.
- Todo rayo de luz se mueve en cualquier inercial con una misma velocidad, c, independientemente del movimiento de su fuente.
Como consecuencia, demuestra que el concepto de sincronía, y por ende de simultaneidad, es relativo, no absoluto. La noción de “presente”, “ahora” o cualquier instante determinado depende del referencial inercial.
Algunos incluso hablaron de energía taquiónica
¿Más rápido que la luz?
¿Existen partículas que se muevan con velocidad superior a la de la luz? Sí; por ejemplo, cualquier partícula que lleve en agua, a temperatura entre 0 y 50 ºC, una velocidad ν > c / n, n = 1.3, irá más deprisa en ese medio que los fotones del espectro visible. Lo mismo ocurre con la mayoría de los rayos cósmicos que llegan a la atmósfera; son superlumínicos en relación con la velocidad de la luz en el aire. Precisamente en esta posibilidad de rebasar la velocidad de la luz en un medio reside el efecto Cherenkov.
Lo que no se conocen son taquiones, o partículas que se muevan más deprisa que la luz en el vacío. Si existieran, podrían utilizarse para mandar información al pasado. Violando el orden causa-efecto. Por ello se “decreta” su inexistencia.
En fin, que la velocidad de la luz en el vacío, al menos que sepamos, es infranqueable. Es un límite impuesto por la Naturaleza al que habrá que vencer, no superándolo (que no se puede), sino mediante una artimaña física inteligente que logre burlar dicho límite.
Aparte de algún que otro añadido, el artículo (parcialmente expuesto aquí -se obviaron partes complejas), es del Físico de la Universidad Complutense D. Alberto Galindo Tixaire. Fue publicado en el Volumen 19, número 1 de la Revista Española de Física en 2005 Año Mundial de la Física
En realidad, un Homenaje a Einstein por haber pasado más de un siglo desde aquel acontecimiento memorable de la Relatividad Especial en el año 1.905 y estar a punto de cumplirse otro siglo desde su relatividad general de 1915. Dos acontecimientos que marcaron el camino de la Física y la Cosmología. Hace ahora un par de años que se cumplieron los 100 años desde que Einstein diera al mundo la segunda parte de su Teoría.
emilio silvera
Jul
5
¿Cuál es el Camino? No hay ningún camino.
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (1)
El Camino lo tenemos que hacer nosotros al andar. Lo mismo que se forma la vereda en la Montaña cuando los seres vivos pasan por el mismo sitio una y otra vez, dando lugar a que se forme una línea en la tierra mil veces pisada que nos habla del paso por aquel lugar que los viandantes han creído el más idóneo para transitar hacia algún otro sitio. Lo tuvieron que elegir de manera racional al ser el más indicado y, por ese “camino” se creó el sendero por el que caminar. Antes allí, no había camino.
No pocas veces, el camino se crea a partir de una idea, una intuición, una ganas de saber lo que hay más allá de nuestros dominios, de explorar lo desconocido, de comprobar si la fascinación que presentimos por lo que pensamos que “allí” pueda existir, se debe a una certera intuición, o, por el contrario, es sólo un espejismo. No siempre el explorardor encontró aquella civilización perdida que gritaba insistente en su mente llamándolo sin cesar, ni el científico encuentra la anhelada explicación a un secreto de la Naturaleza que, tan claramente veía en sus sueños.
Está claro que el mismo acto de la exploración, modifica la perspectiva del explorador; Ni Ulises, Marco Polo o Colón podían ser los mismos cuando, después de sus respectivas aventuras regresaron a sus hogares. Lo mismo ha sucedido con la investigación científica en los extremos de las escalas, desde la grandiosa extensión del esapcio cosmológico…
… hasta el mundo minúsculo y enloquecido de las partículas subatómicas.
Estos viajes nos cambiaron y cambiaron muchos de los conceptos ancestrales que, en nuestras mentes, estaban apaciblemente aposentados y, desafiaron muchas de las concepciones científicas y también filosóficas que más valorábamos. Algunas, ante aquella realidad nueva, tuvieron que ser desechadas, como el bagaje que se deja atrás en una larga y pesada travesía un desierto. Otras tuvieron que ser modificadas y reconstituidas hasta quedar casi irreconocibles.
La exploración en el ámbito de las galaxias y cúmulos de galaxias esxtendió el alcanza de la visión humana en un factor de 1026 veces mayor que la propia escala humana, y produjo la revolución que identificamos con la relatividad, la cual reveló que la concepción newtoniana del mundo sólo era una perspectiva parroquiana dentro de un universo más vasto donde el espacio es curvo y el tiempo se hace flexible.
La exploración en el dominio subatómico nos llevó lejos en el ámbito de lo muy pequeño, a unos 10-15 de la escala humana, y también significó una revolución. Esta fue la física cuántica que transformó todo lo que abordó a partir de su nacimiento en 1900, cuando Max Planck, escribió aquel artículo de ocho páginas que fueron las semillas de las que más tarde, germiron “las flores” de la M.C.. Planck, comprendiò que sólo podía explicar lo que se llamaba la Curva del Cuerpo Negro -el espectro de energía que genera un objeto de radiación perfecta- si abandonaba el supuesto clásico de que la emisión de enertgía es continua, y lo reemplazó por la hipótesis sin presecentes de que la energía se emite en unidades discretas. Planck llamó cuantos a estas unidades y quedaron simbolizadas por la letra h.
Plan no era ningún revolucionario -a la edad de 42 años era un viejo, juzgado por los patrones de las ciencias matemáticas y, además, un pilar de la elevada cultura germana del siglo XIX-, pero se percató fácilmente de que el principio cuántico echaría abajo buena parte de la física clásica a la que habñía dedicado buena parte de su vida y de su carrera.
“Cuanto mayores sean sus dificultades -escribió-… tanto más importante será finalmente para la ampliación y profundización del conocimiento de la Física.” Aquellas palabras fueron proféticas: cambiando y desarrollándose constantemente, modificando su coloración de manera tan impredecible como una reflexión en una burbuja de jabón, la física cuántuica pronto se expandió prácticamente a todo el ámbito de la física, y el cuanto de acción de Planck, h, llegó a ser considerado una constante de la naturaleza tan fundamental como la velocidad de la luz, c, de Einstein.
En una batalla entre los principios estrellas de la historia cuántica, sólo puede haber un ganador. O no puede? . En el invierno de 1926-1927, Werner Heisenberg el brillante joven alemán estaba trabajando como jefe asistente de Niels Bohr , alojado en un desván en la parte superior del instituto del gran danés de Copenhague. Después de un día de trabajo, Bohr se acercaba al encuentro con Heisenberg para hablar de física cuántica. A menudo se sentaban hasta altas horas de la noche, en un intenso debate sobre el significado de la teoría cuántica revolucionaria, entonces en su infancia.
Un rompecabezas que se ponderó eran los rastros de las gotitas que dejan los electrones al pasar a través de las cámara de niebla un aparato utilizado para rastrear los movimientos de partículas cargadas. Cuando Heisenberg trató de cálcular estas aparentemente precisas trayectorias usando las ecuaciones de la mecánica cuántica, no lo consiguió.
Una noche de mediados de febrero, Bohr había dejado la ciudad en un viaje de esquí, y Heisenberg se había deslizado a tomar un poco de aire de la noche en las amplias avenidas de Fælled Parque, detrás del instituto. Mientras caminaba, se le ocurrió. El rastro de los electrones no era preciso en lo absoluto: si uno lo mira de cerca, consiste en una serie de puntos difusos. Eso reveló algo fundamental sobre la teoría cuántica. De vuelta en su ático, Heisenberg escribió con entusiasmo su idea en una carta a su colega el físico Wolfgang Pauli. Lo esencial de esto apareció en un documento unas pocas semanas más tarde: “Mientras más precisa la posición es determinada, menor precisión, en el momento se conoce en este instante, y viceversa.”
Fórmula y gráfico que escenifican el Principio de Incertidumbre o Indeterminación
Así el notorio principio de incertidumbre de Heisenberg había nacido. Una declaración de la incognoscibilidad fundamental del mundo cuántico, que se ha mantenido firme durante la mayor parte del siglo. Pero ¿por cuánto tiempo? Corren rumores de que un segundo principio cuántico – el entrelazamiento- puede sonar el tañido de muerte para la incertidumbre.
Sólo podemos obtener respuestas parciales, cuya narturaleza está determinada en cierta medida por las cuestiones que optamos por infagar. Cuando Hesinberg calculó la cantidad mínima ineludible de incertidumbre que limita nuestra comprensión de los sucesos de pequeña escala, halló que está definida que nada menos que por h, el cuanto de acción de Planck.
La indeterminación cuántica no depende del aparato experimental que podamos emplear para la investigación del mundo subatómico. Se trata, en la medida de nuestro conocimiento, de una limitación absoluta, que los más destacados sabios de una civilización extraterrestre avanzada conpartirían con los más humildes físicos de la Tierra. En la física atómioca clásica se suponía que se podía, en proncipio, medir las situaciones y trayectorias precisas de miles de millones de partículas -digamos, protones– y a partir de los datos resultantes hacer predicciones exactas de donde estarían los protones en determinado tiempo futuro.
Heisenberg demostró que tal supuesto era falso, que nunca podremos saberlo todo sobre la conducta de siquiera una sóla partícula, mucho menos de una gran cantidad de ellas, y, por lo tanto, nunca podremos hacer predicciones sobre el futuro que sean completamente exactas en todos los detalles. Esto marcó un cambio fundamental en la visión del mundo de la física. Revelaba que no sólo la materia y la energía sino también el conocimiento están cuántizados.
El principio de incertidumbre es aplicado a modelos del espacio 3D ordinario, donde el espacio tiempo es continuo. En los sistema cuantizados con retículos diminutos que conforman a los superejes, la información de las partículas pasa de un retículo a otro o a una zona cuántica distinta del mismo retículo. Dado que en el modelo de los eventos, los objetos no pertenecen a los eventos, simplemente evolucionan generando más información de nuevos eventos, la incertidumbre asociada a estos puede estar relacionada con radio del bucle de los retículos diminutos, y para el traslado de la información de un retículo a otro debe existir un nivel incertidumbre en cuanto a cual retículo pertenece el evento durante la transferencia de dicha información, o ¿a qué conjunto de valores cuánticos del mismo pertenece?
La mecánica cuántica (el salto cuantico del electrón) nos desvelará el secreto de cómo el electrón puede, al recibir un fotón, desaparecer del nivel nuclear que ocupa para de manera instantánea, y sin necesidad de recorrer la distancia que los separa, aparecer como por arte de magia en un nivel superior. Copiaremos el salto cuántico para viajar. Nos introduciremos en un cabina, marcaremos las coordenadas, pulsaremos un botón y desapareceremos en Madrid y de manera instantánea, apareceremos de la nada en otra cabina igual situada en Nueva York a 6.000 Km de distancia.
…cuando el núcleo de un átomo es excitado por una fuente de energía exterior, tiene lugar el salto quántico, que consiste en el paso de un electrón a otra órbita con una energía mayor. No se sabe por donde hizo el viaje sin tener que andar la distancia entre el lugar de origen y el de llegada… ¿Por dónde habría hecho el viaje?
No puede quitarme de la cabeza que, el Salto Cuántico, nos dará la idea para viajar de manera que podamos burlar, la velocidad de la luz. Sin embargo, ese “futuro” no podré verlo. Resulta que un electrón situado alrededor del núcleo de un átomo, es impacto por un fotón energético y, de inmediato, el electrón desaparece del lugar que ocupa en la órbita atómica y, de manera instantánea, aparece en otro lugar más cercano al núcleo. Lo asombroso del caso es que, no se sabe qué camino pudo coger para desplazarse de un lugar a otro. Simplemente desapareció de uno y apareció en el otro. Ese es, amigos míos, el Salto cuántico. Si somos capaces de copiarlo, viajaremos a las estrellas sin que nos importe cuántos años-luz nos puedan separar de ellas.
¿Quién sabe lo que podemos extraer del salto cuántico? El efecto túnel nos podría dar la fórmula para viajar a lugares lejanos. Creo que todos nuestros sueños se podrían realizar si, en el momento adecuado, observando la Naturaleza, sabemos elegirt el camino que tenemos que andar para llegar a ese destino soñado,o, imaginado.
Nuestras Mentes buscarán las formas de solucionar todos esos problemas complejos que ahora inquietan a la Humanidad.
La Física cuántica nos obliga a tomarnos en serio lo que antes eran puramentes consideraciones filosóficas: que no vemos las cosas en sí mismas, sino sólo aspectos de las cosas. Lo que vemos en la trayectoria de un electrón en la cámara de niebla no es un electrón, y lo que vemos en el cielo no son estrellas, como una grabación de la voz de Pavoroti no es Pavoroti. Al revelar que el observador desempeña un papel en la observación, la física cuántica hizo por la física lo que Darwin ha hecho por las ciencias de la vida: Echó abajo las paredes, reunificando la Mente con el Universo más vasto.
emilio silvera
Jul
4
Los secretos de la Naturaleza ¿Los podremos desvelar?
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (1)
El psicólogo Eric Ericsson llegó a proponer una teoría de estadios psicológicos del desarrollo. Un conflicto fundamental caracteriza cada fase. Si este conflicto no queda resuelto, puede enconarse e incluso provocar una regresión a un periodo anterior. Análogamente, el psiicólogo Jean Piaget demostró que el desarrollo mental de la primera infancia tampoco es un desarrollo continuo de aprendizaje, sino que está realmente caracterizado por estadios discontinuos en la capacidad de conceptualización de un niño. En un mes, un niño puede dejar de buscar una pelota una vez que ha rodado fuera de su campo de visión, sin comprender que la pelota existe aunque no la vea. Al mes siguiente, esto resultará obvio para el niño.
Los procesos siguen, las cosas cambian, el Tiempo inexorable transcurre, si hay vida vendrá la muerte, lo que es hoy mañana no será.
Esta es la esencia de la dialéctica. Según esta filosofía, todos los objetos (personas, gases, estrellas, el propio universo) pasan por una serie de estadios. Cada estadio está caracterizado por un conflicto entre dos fuerzas opuestas. La naturaleza de dicho conflicto determina, de hecho, la naturaleza del estadio. Cuando el conflicto se resuelve, el objeto pasa a un objetivo o estadio superior, llamado síntesis, donde empieza una nueva contradicción, y el proceso pasa de nuevo a un nivel superior.
Los filósofos llaman a esto transición de la “cantidad” a la “cualidad”. Pequeños cambios cuantitativos se acumulan hasta que, eventualmente, se produce una ruptura cualitativa con el pasado. Esta teoría se aplica también a las sociedades o culturas. Las tensiones en una sociedad pueden crecer espectacularmente, como la hicieron en Francia a finales del siglo XVIII. Los campesinos se enfrenaban al hambre, se produjeron motines espontáneos y la aristocracia se retiró a sus fortalezas. Cuando las tensiones alcanzaron su punto de ruptura, ocurrió una transición de fase de lo cuantitativo a lo cualitativo: los campesinos tomaron las armas, tomaron París y asaltaron la Bastilla. ¿No pasará aquí lo mismo con los políticos y los ciudadanos? Ellos tienen muchos privilegios a costa de quitarnos derechos a los demás.
Las transiciones de fases pueden ser también asuntos bastante explosivos. Por ejemplo, pensemos en un río que ha sido represado. Tras la presa se rápidamente un embalse con agua a enorme presión. Puesto que es inestable, el embalse está en el falso vacío. El agua preferiría estar en su verdadero vacío, significando esto que preferiría reventar la presa y correr aguas abajo, hacia un estado de menor energía. Así pues, una transición de fase implicaría un estallido de la presa, que tendría consecuencias desastrosas.
También podría poner aquí el ejemplo más explosivo de una bomba atómica, donde el falso vacío corresponde al núcleo inestable de uranio donde residen atrapadas enormes energías explosivas que son un millón de veces más poderosas, para masas iguales, que para un explosivo químico. De vez en cuando, el núcleo pasa por efecto túnel a un estado más bajo, lo que significa que el núcleo se rompe espontáneamente. Esto se denomina desintegración radiactiva. Sin embargo, disparando neutrones contra los núcleos de uranio, es posible liberar de golpe esta energía encerrada según la formula de Einstein E = mc2. Por supuesto, dicha liberación es una explosión atómica; ¡menuda transición de fase! De nefasto recuerdo por cierto.
Las transiciones de fase no son nada nuevo. Traslademosló a nuestras propias vidas. En un libro llamado Pasajes, el autor, Gail Sheehy, destaca que la vida no es un flujo continuo de experiencias, como parece, sino que realmente pasa por varios estadios, caracterizados por conflictos específicos que debemos resolver y por objetivos que debemos cumplir.
Los contornos recubiertos muestran la estructura de la galaxia al ser reconstruida desde las observaciones hechas bajo el fenómeno de lente gravitatorio con el radiotelescopio Submillimeter Array. La formación de nuevas estrellas en el Universo es imparable y, la materia más sencilla se constituye en una estructura que la transformará en más compleja, más activa, más dispuesta para que, la vida, también pueda surgir en mundos ignotos situados muy lejos del nuestro.
Sí, todo cambia y nada permanece: transiciones de fases hacia la complejidad
Las nuevas características descubiertas por los científicos en las transiciones de fases es que normalmente van acompañadas de una ruptura de simetría. Al premio Nobel Abdus Salam le gusta la ilustración siguiente: consideremos una mesa de banquete circular, donde todos los comensales están sentados con una copa de champán a cada lado. Aquí existe simetría. Mirando la mesa del banquete reflejada en un espejo, vemos lo mismo: cada comensal sentado en torno a la mesa, con copas de champán a cada lado. Asimismo, podemos girar la mesa de banquete circular y la disposición sigue siendo la misma.
Rompamos ahora la simetría. Supongamos ahora que el primer comensal toma la copa que hay a su derecha. Siguiendo la pauta, todos los demás comensales tomaran la copa de champán de su derecha. Nótese que la imagen de la mesa del banquete vista en el espejo produce la situación opuesta. Cada comensal ha tomado la copa izquierda. De este modo, la simetría izquierda-derecha se ha roto.
El niño del espejo le da a su “amiguito” reflejado la mano derecha y aquel, le saluda, con la izquierda. ¡La simetría especular…! Así pues, el estado de máxima simetría es con frecuencia también un estado inestable, y por lo tanto corresponde a un falso vacío.
Con respecto a la teoría de supercuerdas, los físicos suponen (aunque todavía no lo puedan demostrar) que el universo decadimensional original era inestable y pasó por efecto túnel a un universo de cuatro y otro de seis dimensiones. Así pues, el universo original estaba en un estado de falso vacío, el estado de máxima simetría, mientras que hoy estamos en el estado roto del verdadero vacío.
Al principio, cuando el universo era simétrico, sólo existía una sola fuerza que unificaba a todas las que ahora conocemos, la gravedad, las fuerzas electromagnéticas y las nucleares débil y fuerte, todas emergían de aquel plasma opaco de alta energía que lo inundaba todo. Más tarde, cuando el universo comenzó a enfriarse, se hizo transparente y apareció la luz, las fuerzas se separaron en las cuatro conocidas, emergieron las primeras quarks para unirse y formar protones y neutrones, los primeros núcleos aparecieron para atraer a los electrones que formaron aquellos primeros átomos. Doscientos millones de años más tarde, se formaron las primeras estrellas y galaxias. Con el paso del tiempo, las estrellas sintetizaron los elementos pesados de nuestros cuerpos, fabricados en supernovas que estallaron, incluso antes de que se formase el Sol. Podemos decir, sin temor a equivocarnos, que una supernova anónima explotó hace miles de millones de años y sembró la nube de gas que dio lugar a nuestro sistema solar, poniendo allí los materiales complejos y necesarios para que algunos miles de millones de años más tarde, tras la evolución, apareciéramos nosotros.
En las estrellas se tiene que producir el proceso triple alfa para que exista el Carbono
Las estrellas evolucionan desde que en su núcleo se comienza a fusionar hidrógeno en helio, de los elementos más ligeros a los más pesados. Avanza creando en el hornotermonuclear, cada vez, metales y elementos más pesados. Cuando llega al hierro y explosiona en la forma explosiva de una supernova. Luego, cuando este material estelar es otra vez recogido en una nueva estrella rica en hidrógeno, al ser de segunda generación (como nuestro Sol), comienza de nuevo el proceso de fusión llevando consigo materiales complejos de aquella supernova.
Puesto que el peso promedio de los protones en los productos de fisión, como el cesio y el kriptón, es menor que el peso promedio de los protones de uranio, el exceso de masa se ha transformado en energía mediante la conocida fórmula E = mc2. Esta es la fuente de energía que también subyace en la bomba atómica. Es decir, convertir materia en energía.
Así pues, la curva de energía de enlace no sólo explica el nacimiento y muerte de las estrellas y la creación de elementos complejos que también hicieron posible que nosotros estemos ahora aquí y, muy posiblemente, será también el factor determinante para que, lejos de aquí, en otros sistemas solares a muchos años luz de distancia, puedan florecer otras especies inteligentes que, al igual que la especie humana, se pregunten por su origen y estudien los fenómenos de las fuerzas fundamentales del universo, los componentes de la materia y, como nosotros, se interesen por el destino que nos espera en el futuro.
Cuando alguien oye por vez primera la historia de la vida de las estrellas, generalmente (lo sé por experiencia), no dice nada, pero su rostro refleja escepticismo. ¿Cómo puedo vivir una estrella 10.000 millones de años? Después de todo, nadie ha vivido tanto tiempo como para ser testigo de su evolución y poder contarlo.
Hay cosas que, cambiando… ¡Nunca cambian! La entropía se encarga de ello
Pero volviendo a las cosas de la Naturaleza y de la larga vida de las estrellas, sí, tenemos los medios técnicos y científicos para saber la edad que tiene, por ejemplo, el Sol. Nuestro Sol, la estrella alrededor de la que giran todos los planetas de nuestro Sistema Solar, la estrella más cercana a la Tierra (150 millones de Km = 1 UA), con un diámetro de 1.392.530 Km, tiene una edad de 4.500 millones de años, y, como todo en el Universo, su discurrir la va desgantando, evoluciona hacia su imparable destino como gigante roja primero y enana blanca después.
Una gigante roja engulle a un planeta cercano
Cuando ese momento llegue, ¿dónde estaremos? Pues nosotros, si es que estamos, contemplaremos el acontecimiento desde otros mundos. La Humanidad habrá dado el gran salto hacia las estrellas y, colonizando otros planetas se habrá extendido por regiones lejanas de la Galaxia.
El Universo siempre nos pareció inmenso, y, al principio, aquellos que empezaron a preguntarse cómo sería, lo imaginaron como una esfera cristalina que dentro contenía unos pocos mundos y algunas estrellas, hoy, hemos llegado a saber un poco más sobre él. Sin embargo, dentro de unos cuantos siglos, los que detrás de nosotros llegaran, hablarán de universos en plural, y, cuando pasen algunos eones, estaremos de visita de un universo a otro como vamos de una ciudad a otra.
¡Quién pudiera estar allí!
¡Es todo tan extraño! ¡Es todo tan complejo! y, sobre todo…¡sabemos tan poco!
Todo lo grande está hecho de cosas pequeñas
Según lo que podemos entender y hasta donde han podido llegar nuestros conocimientos actuales, ahora sabemos donde están las fronteras: donde las masas o las energías superan 1019 veces la masa del protón, y esto implica que estamos mirando a estructuras con un tamaño de 10-33 centímetros.
Esta ecuación nos habla de lo que se conoce como masa de Planck y a la distancia correspondiente la llamamos distancia de Planck. La masa de Planck expresada en gramos es de 22 microgramos, que es la masa de un grano muy pequeño de azúcar (que, por otra parte, es el único número de Planck que parece más o menos razonable, ¡los otros números son totalmente extravagantes!).
Esto significa que tratamos de localizar una partícula con la precisión de una Longitud de Planck, las fluctuaciones cuánticas darán tanta energía que su masa será tan grande como la masa de Planck, y los efectos de la fuerza gravitatoria entre partículas, así, sobrepasarán los de cualquier otra fuerza. Es decir, para estas partículas la gravedad es una interacción fuerte.
Lo cierto es que, esas unidades tan pequeñas, tan lejanas en las distancias más allá de los átomos, son las que marcan nuestros límites, los límites de nuestras teorías actuales que, mientras que no puedan llegar a esas distancias… No podrán avanzar en el conocimiento de la Naturaleza y, tampoco, como es natural, en la teoría de supercuerdas o en poder saber, lo que pasó en el primer momento del supuesto big bang, hasta esos lugares, nunca hemos podido llegar.
emilio silvera
Jul
2
Hablando de Teorías
por Emilio Silvera ~
Clasificado en Física ~
Comments (1)
Como Gauss, Riemann, Hamilton, Euler, Ramanujan y tantos otros antes, y ahora Perelman, pronto aparecerán otros que, seguramente, nos darán las respuestas que aún están pendientes, para que podamos plantear la definitiva teoría decadimensional y tengamos las respuestas a tantas preguntas que no han sido contestadas.
Un día Einstein fue conducido a postular la teoría de la relatividad general partiendo de un principio físico, el principio de equivalencia (que la masa gravitatoria y la masa inerte de un objeto son iguales, de modo que todos los cuerpos, por muy grande que sean, caen en la Tierra a la misma velocidad). Sin embargo, no se ha encontrado todavía la contrapartida del principio de equivalencia para la teoría de cuerdas.
Está claro, como dice Witten, que la teoría de cuerdas proporciona, de hecho, un marco lógicamente consistente que engloba la gravedad y la mecánica cuántica, pero el principio análogo al de equivalencia que Einstein encontró para su teoría no ha sido aún encontrado para la teoría de cuerdas.
¿Tendremos que esperar (como para la solución de la conjetura de Poincaré) cien años para resolver la teoría de supercuerdas?
¡Quién sabe! El problema es muy complejo y encierra muchas cuestiones teóricas que, experimentalmente, no estamos capacitados ni tenemos los medios para poder comprobar.
Perelman, un extraño personaje ruso que, desveló el misterio de la Conjetura de Poincaré después de 100 años, y, no acudió a recoger ni la Medalla Field ni el Premio de un millón de dolores. Vive en un pueblecito de Rusia con su madre, en un piso de 60 metros cuadrados y, sale al campo con un canasto y un pincho para buscar setas. Él dice que el mundo no comprende lo que hace.
No debemos desanimarnos, el sino de la humanidad, a lo largo de toda su historia, siempre ha sido una constante de ir salvando obstáculos que cuando se presentaban parecían insalvables.
Ahora nuestra esperanza media de vida ronda los 80 años y el tiempo que tenemos por delante (me refiero al tiempo del universo) es muy largo. ¿Qué no seremos capaces de conseguir?
Basta repasar los logros de los últimos 150 años en las distintas ramas del saber humano para asombrarnos de la enorme capacidad de trabajo, sacrificio, inventiva e ingenio de nuestra especie que, sobre todo, tiene ¡¡curiosidad!!
Espero que sigamos así, con esta curiosidad inanta que nos empuja a saber.
Hay seres humanos que, desgraciadamente, por su lugar de nacimiento, su entorno, sus genes, e incluso en muchas ocasiones porque así les interesa a quienes les explotan, se pasan la vida sin tener el más elemental conocimiento de las cuestiones importantes del mundo en el que habitan, de las fuerzas de la naturaleza que rigen en el universo del que, cual mota de polvo, forman parte.
Su ignorancia es su felicidad. Trabajan, comen y duermen, como auténticos animales, sin gozar de esos momentos inigualables en los que, en posesión del conocimiento de las cosas, de las leyes de la naturaleza, sentimos con fuerza la conciencia de “SER”, ese pensamiento que nos lleva a un nivel superior, un nivel inmaterial y sublime al que hemos llamado alma y que en realidad es el don de la sabiduría, el saber buscar y encontrar el por qué de las cosas.
Desde que atemorizados mirábamos, en la tormenta, caer los rayos del cielo, oíamos los truenos que seguían a los relámpagos y, hacinados en una cueva oscura y húmeda nos resguardábamos del frío y de los peligros de la noche, desde entonces digo, muchas cosas han cambiado para nosotros.
Será mejor que no perdamos el interés por saber…
¿Qué es…?
La geometría del Universo está determinada por los cuerpos que ocupan el Espacio-Tiempo
Curvatura del espacio-tiempo, relatividad, relatividad especial, relatividad general, teoría cuántica, partícula elemental y partícula virtual, densidad crítica y densidad media de materia, estrella de neutrones, agujero negro, el Big Bang, el Big Crunch, el universo plano, abierto o cerrado, la materia oscura; y, en fin, mil preguntas más que la mayoría de la gente no se las han planteado nunca y si oyeron hablar de ellas no saben a qué se refieren.
Así que en el presente comentario (como es mi costumbre), vamos a explicar una serie de cosas que ocurren y están aquí con nosotros en el universo, e incluso forman parte de nosotros mismos o hace posible que nosotros podamos estar aquí.
¿Qué haríamos, por ejemplo, sin la gravedad que nos mantiene bien unidos a la superficie del planeta? Lo que vemos en la imagen… ¡Saldríamos flotando!
¿Por qué la velocidad de la luz es el límite que impone el universo a la materia para moverse?
El comienzo de este trabajo, la primera media página, está lleno de preguntas y podríamos llenar toda la libreta preguntando algunas de las cosas que no sabemos.
Fue Popper el que dijo:
“Cuánto más sé y más profundizo en el conocimiento de las cosas, más consciente soy de lo poco que sé. Mi conocimiento es limitado, mi ignorancia…, infinita.”
Procuremos reducir esa ignorancia, al menos para que no sea infinita con el conocimiento de algunas cuestiones. Empezaré por explicar lo que se entiende por…
Curvatura del Espacio-Tiempo
El Espacio se curva en presencia de grandes masas y, el Tiempo, se distorsiona
Hay que entender que el espacio-tiempo es la descripción en cuatro dimensiones del universo en la que la posición de un objeto se especifica por tres coordenadas en el espacio y una en el tiempo.
De acuerdo con la relatividad especial, no existe un tiempo absoluto que pueda ser medido con independencia del observador, de manera que eventos simultáneos para un observador ocurren en instantes diferentes vistos desde otro lugar. El tiempo puede ser medido, por tanto, de manera relativa, como lo son las posiciones en el espacio (Euclides) tridimensional, y esto puede conseguirse mediante el concepto de espacio-tiempo. La trayectoria de un objeto en el espacio-tiempo se denomina por el nombre de línea de universo. La relatividad general nos explica lo que es un espacio-tiempo curvo con las posiciones y movimientos de las partículas de materia.
La curvatura del espacio-tiempo es la propiedad del espacio-tiempo en la que las leyes familiares de la geometría no son aplicables en regiones donde los campos gravitatorios son intensos. La relatividad general de Einstein, nos explica y demuestra que el espacio-tiempo está íntimamente relacionado con la distribución de materia en el universo, y nos dice que el espacio se curva en presencia de masas considerables como planetas, estrellas o galaxias (entre otros).
En un espacio de sólo dos dimensiones, como una lámina de goma plana, la geometría de Euclides se aplica de manera que la suma de los ángulos internos de un triángulo en la lámina es de 180°. Si colocamos un objeto masivo sobre la lámina de goma, la lámina se distorsionará y los caminos de los objetos que se muevan sobre ella se curvaran. Esto es, en esencia, lo que ocurre en relatividad general.
En los modelos cosmológicos más sencillos basados en los modelos de Friedmann, la curvatura de espacio-tiempo está relacionada simplemente con la densidad media de la materia, y se describe por una función matemática denominada métrica de Robertson-Walker. Si un universo tiene una densidad mayor que la densidad crítica, se dice que tiene curvatura positiva, queriendo decir que el espacio-tiempo está curvado sobre sí mismo, como la superficie de una esfera; la suma de los ángulos de un triángulo que se dibuje sobre la esfera es entonces mayor que 180°. Dicho universo sería infinito y se expandiría para siempre, es el universo abierto. Un universo de Einstein-de Sitter tiene densidad crítica exacta y es, por consiguiente, espacialmente plano (euclideo) infinito en el espacio y en el tiempo.
Hay otros modelos de universos que son distintos, sin embargo, como en realidad no podemos saber en el universo que nos encontramos hasta que no tengamos la certeza de la Densidad de la Materia que el universo contiene, lo dejaré aquí por hoy.
emilio silvera.
Jul
2
El “universo” de las partículas I
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)
¿Qué no será capaz de inventar el hombre para descubrir los misterios de la naturaleza?
Ha pasado mucho tiempo desde que Rutherford identificara la primera partícula nuclear (la partícula alfa). El camino ha sido largo y muy duro, con muchos intentos fallidos antes de ir consiguiendo los triunfos (los únicos que suenan), y muchos han sido los nombres que contribuyen para conseguir llegar al conocimiento que actualmente tenemos del átomo y del núcleo; los electrones circulando alrededor del núcleo, en sus diferentes niveles, con un núcleo compuesto de protones y neutrones que, a su vez, son constituidos por los quarks allí confinados por los gluones, las partículas mediadoras de la fuerza nuclear fuerte. Pero, ¿qué habrá más allá de los quarks?, ¿las supercuerdas vibrantes? Algún día se sabrá.
Partículas
El universo de las partículas es fascinante. Cuando las partículas primarias chocan con átomos y moléculas en el aire, aplastan sus núcleos y producen toda clase de partículas secundarias. En esta radiación secundaria (aún muy energética) la que detectamos cerca de la Tierra, por los globos enviados a la atmósfera superior, han registrado la radiación primaria.
El físico estadounidense Robert Andrews Millikan, que recogió una gran cantidad de información acerca de esta radiación (y que le dio el nombre de rayos cósmicos), decidió que debería haber una clase de radiación electromagnética. Su poder de penetración era tal que, parte del mismo, atravesaba muchos centímetros de plomo. Para Millikan, esto sugería que la radiación se parecía a la de los penetrantes rayos gamma, pero con una longitud de onda más corta.
Otros, sobre todo el físico norteamericano Holly Compton, no estaban de acuerdo en que los rayos cósmicos fuesen partículas. Había un medio para investigar este asunto; si se trataba de partículas cargadas, deberían ser rechazadas por el campo magnético de la Tierra al aproximarse a nuestro planeta desde el espacio exterior. Compton estudió las mediciones de la radiación cósmica en varias latitudes y descubrió que en realidad se curvaban con el campo magnético: era más débil cera del ecuador magnético y más fuerte cerca de los polos, donde las líneas de fuerza magnética se hundían más en la Tierra.
Las partículas cósmicas primarias, cuando entran en nuestra atmósfera, llevan consigo unas energías fantásticas, muy elevadas. En general, cuanto más pesado es el núcleo, más raro resulta entre las partículas cósmicas. Núcleos tan complejos como los que forman los átomos de hierro se detectaron con rapidez; en 1.968, otros núcleos como el del uranio. Los núcleos de uranio constituyen sólo una partícula entre 10 millones. También se incluirán aquí electrones de muy elevada energía.
Ahora bien, la siguiente partícula inédita (después del neutrón) se descubrió en los rayos cósmicos. A decir verdad, cierto físico teórico había predicho ya este descubrimiento. Paul Adrien Dirac había aducido, fundándose en un análisis matemático de las propiedades inherentes a las partículas subatómicas, que cada partícula debería tener su antipartícula (los científicos desean no sólo que la naturaleza sea simple, sino también simétrica). Así pues, debería haber un antielectrón, salvo por su carga que sería positiva y no negativa, idéntico al electrón; y un antiprotón, con carga negativa en vez de positiva.
En 1.930, cuando Dirac expuso su teoría, no llamó demasiado la atención en el mundo de la ciencia. Pero, fiel a la cita, dos años después apareció el antielectrón. Por entonces, el físico americano Carl David Anderson trabajaba con Millikan en un intento por averiguar si los rayos cósmicos eran radiación electromagnética o partículas. Por aquellas fechas, casi todo el mundo estaba dispuesto a aceptar las pruebas presentadas por Compton, según las cuales, se trataría de partículas cargadas; pero Millikan no acababa de darse por satisfecho con tal solución.
Anderson se propuso averiguar si los rayos cósmicos que penetraban en una cámara de ionización se curvaban bajo la acción de un potente campo magnético. Al objeto de frenar dichos rayos lo suficiente como para detectar la curvatura, si la había, puso en la cámara una barrera de plomo de 6’35 mm de espesor. Descubrió que, cuando cruzaba el plomo, la radiación cósmica trazaba una estela curva a través de la cámara; y descubrió algo más. A su paso por el plomo, los rayos cósmicos energéticos arrancaban partículas de los átomos de plomo. Una de esas partículas dejó una estela similar a la del electrón. ¡Allí estaba, pues, el antielectrón de Dirac! Anderson le dio el nombre de positrón. Tenemos aquí un ejemplo de radiación secundaria producida por rayos cósmicos. Pero aún había más, pues en 1.963 se descubrió que los positrones figuraban también entre las radiaciones primarias.
Abandonado a sus propios medios, el positrón es tan estable como el electrón (¿y por qué no habría de serlo si el idéntico al electrón, excepto en su carga eléctrica?). Además, su existencia puede ser indefinida. Ahora bien, en realidad no queda abandonado nunca a sus propios medios, ya que se mueve en un universo repleto de electrones. Apenas inicia su veloz carrera (cuya duración ronda la millonésima de segundo), se encuentra ya con uno.
Así, durante un momento relampagueante quedaron asociados el electrón y el positrón; ambas partículas girarán en torno a un centro de fuerza común. En 1.945, el físico americano Arthur Edwed Ruark sugirió que se diera el nombre de positronio a este sistema de dos partículas, y en 1.951, el físico americano de origen austriaco Martin Deutsch consiguió detectarlo guiándose por los rayos gamma característicos del conjunto.
Pero no nos confundamos, aunque se forme un sistema positronio, su existencia durará, como máximo, una diezmillonésima de segundo. El encuentro del electrón-positrón provoca un aniquilamiento mutuo; sólo queda energía en forma de radiación gamma. Ocurre pues, tal como había sugerido Einstein: la materia puede convertirse en energía y viceversa. Por cierto, que Anderson consiguió detectar muy pronto el fenómeno inverso: desaparición súbita de rayos gamma para dar origen a una pareja electrón-positrón. Este fenómeno se llama producción en pareja. Anderson compartió con Hess el premio Nobel de Física de 1.936.
Poco después, los Joliot-Curie detectaron el positrón por otros medios, y al hacerlo así realizaron, de paso, un importante descubrimiento. Al bombardear los átomos de aluminio con partículas alfa, descubrieron que con tal sistema no sólo se obtenían protones, sino también positrones. Cuando suspendieron el bombardeo, el aluminio siguió emitiendo positrones, emisión que sólo con el tiempo se debilitó. Aparentemente habían creado, sin proponérselo, una nueva sustancia radiactiva. He aquí la interpretación de lo ocurrido según los Joliot-Curie: cuando un núcleo de aluminio absorbe una partícula alfa, la adición de los dos protones transforma el aluminio (número atómico 13) en fósforo (número atómico 15). Puesto que las partículas alfa contienen cuatro nucleones en total, el número masivo se eleva 4 unidades, es decir, del aluminio 27 al fósforo 31. Ahora bien, si al reaccionar se expulsa un protón de ese núcleo, la reducción en una unidad de sus números atómicos y masivos hará surgir otro elemento, o sea, el silicio 30.
Puesto que la partícula alfa es el núcleo del helio, y un protón es el núcleo del hidrógeno, podemos escribir la siguiente ecuación de esta reacción nuclear:
aluminio 27 + helio 4 = silicio 30 + hidrógeno 1
Nótese que los números másicos se equilibran:
27 + 4 = 30 + 1
Adentrarse en el universo de las partículas que componen los elementos de la tabla periódica, y en definitiva, la materia conocida, es verdaderamente fantástico.
Tan pronto como los Joliot-Curie crearon el primer isótopo radiactivo artificial, los físicos se lanzaron en tropel a producir tribus enteras de ellas. En realidad, las variedades radiactivas de cada elemento en la tabla periódica son producto de laboratorio. En la moderna tabla periódica, cada elemento es una familia con miembros estables e inestables, algunos procedentes de la naturaleza, otros sólo del laboratorio. Por ejemplo, el hidrógeno presenta tres variedades: en primer lugar, el corriente, que tienen un solo protón. En 1.932, el químico Harold Urey logró aislar el segundo. Lo consiguió sometiendo a lenta evaporación una gran cantidad de agua, de acuerdo con la teoría de que los residuos representarían una concentración de la forma más pesada del hidrógeno que se conocía, y, en efecto, cuando se examinaron al espectroscopio las últimas gotas de agua no evaporadas, se descubrió en el espectro una leve línea cuya posición matemática revelaba la presencia de hidrógeno pesado.
El núcleo de hidrógeno pesado está constituido por un protón y un neutrón. Como tiene un número másico de 2, el isótopo es hidrógeno. Urey llamó a este átomo deuterio (de la voz griega deutoros, “segundo”), y el núcleo deuterón. Una molécula de agua que contenga deuterio se denomina agua pesada, que tiene puntos de ebullición y congelación superiores al agua ordinaria, ya que la masa del deuterio es dos veces mayor que la del hidrógeno corriente. Mientras que ésta hierve a 100º C y se congela a 0º C, el agua pesada hierve a 101’42º C y se congela a 3’79º C. El punto de ebullición del deuterio es de -23’7º K, frente a los 20’4º K del hidrógeno corriente. El deuterio se presenta en la naturaleza en la proporción de una parte por cada 6.000 partes de hidrógeno corriente. En 1.934 se otorgó a Urey el premio Nobel de Química por su descubrimiento del deuterio.
El deuterio resultó ser una partícula muy valiosa para bombardear los núcleos. En 1.934, el físico australiano Marcus Lawrence Edwin Oliphant y el austriaco P. Harteck atacaron el deuterio con deuterones y produjeron una tercera forma de hidrógeno, constituido por un protón y dos neutrones. La reacción se planteó así:
hidrógeno 2 + hidrógeno 2 = hidrógeno 3 + hidrógeno 1
Este nuevo hidrógeno superpesado se denominó tritio (del griego tritos, “tercero”); su ebullición a 25º K y su fusión a 20’5º K.
Como es mi costumbre, me desvío del tema y sin poderlo evitar, mis ideas (que parecen tener vida propia), cogen los caminos más diversos. Basta con que se cruce en el camino del trabajo que realizo un fugaz recuerdo; lo sigo y me lleva a destinos distintos de los que me propuse al comenzar. Así, en este caso, me pasé a la química, que también me gusta mucho y está directamente relacionada con la física; de hecho son hermanas: la madre, las matemáticas, la única que finalmente lo podrá explicar todo.
emilio silvera