lunes, 20 de octubre del 2014 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




La rotación de las partículas y otros temas de física

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

solido9.gif (1625 bytes)

Momento angular de una partícula

Si hablamos de las partículas no podemos dejar a un lado el tema del movimiento rotatorio de las mismas. Usualmente se ve cómo la partícula gira sobre su eje, a semejanza de un trompo, o como la Tierra o el Sol, o nuestra galaxia o, si se me permite decirlo, como el propio universo. En 1.925, los físicos holandeses George Eugene Uhlenbeck y Samuel Abraham Goudsmit aludieron por primera vez a esa rotación de las partículas.

Movimiento de una carga puntual en un campo magnético.

 

 Los campos magnéticos no realizan trabajo sobre las partículas y no modifican su energía cinética. Veamos la imagen. cabe notar en la imagen que la fuerza magnética es perpendicular a la velocidad de la partícula haciendo que se mueva en una órbita circular. La fuerza magnética proporciona la fuerza centrípeta necesaria para que la partícula adquiera la aceleración v2 /r del movimiento circular.


Las partículas al girar, generan un minúsculo campo electromagnético; tales campos han sido objeto de medidas y exploraciones, principalmente por parte del físico alemán Otto Stern y el físico norteamericano Isaac Rabi, quienes recibieron los premios Nobel de Física en 1.943 y 1.944 respectivamente, por sus trabajos sobre dicho fenómeno.

Esas partículas (al igual que el protón, el neutrón y el electrón), que poseen espines que pueden medirse en números mitad, se consideran según un sistema de reglas elaboradas independientemente, en 1.926, por Fermi y Dirac; por ello, se las llama y conoce como estadísticas Fermi-dirac. Las partículas que obedecen a las mismas se denominan fermiones, por lo cual el protón, el electrón y el neutrón son todos fermiones.

Hay también partículas cuya rotación, al duplicarse, resulta igual a un número par. Para manipular sus energías hay otra serie de reglas, ideadas por Einstein y el físico indio S. N. Bose. Las partículas que se adaptan a la estadística Bose-Einstein son bosones, como por ejemplo la partícula alfa.

Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de esta teoría en vez de los de la mecánica clásica. En estadística cuántica, los estados de energía se considera que están cuantizados. La estadística de Bose-Einstein se aplica si cualquier número de partículas puede ocupar un estado cuántico dado. Dichas partículas (como dije antes) son bosones, que tienden a juntarse.

Los bosones tienen un momento angular nh/2π, donde n es 0 o un entero, y h es la constante de Planck. Para bosones idénticos, la función de ondas es siempre simétrica. Si sólo una partícula puede ocupar un estado cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n + ½)h / 2π y cualquier función de ondas de fermiones idénticos es siempre antisimétrica. La relación entre el espín y la estadística de las partículas está demostrada por el teorema espín-estadística.

En un espacio de dos dimensiones es posible que haya partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones. Estas partículas se conocen con el nombre de aniones; para aniones idénticos, la función de ondas no es simétrica (un cambio de fase de +1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1. Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.

Debido al principio de exclusión de Pauli, no es imposible que dos fermiones ocupen el mismo estado cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental para explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7 K) se puede formar un condensado de Bose-Einstein, en el que varios miles de átomos dorman una única entidad (un superátomo). Este efecto ha sido observado con átomos de rubidio y litio. Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.

                                                    Un condensado de Bose-Einstein

Si nos fijamos en todo lo que estamos hablando aquí, es fácil comprender cómo forma  un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula.

Particularmente creo que, si el neutrón tiene masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es materia. La materia es la luz, la energía, el magnetismo, en  definitiva, la fuerza que reina en el universo y que está presente de una u otra forma en todas partes (aunque no podamos verla).

Todo lo que rota crea un campo magnético

Sea como fuere, la rotación del neutrón nos da la respuesta a esas preguntas:

¿Qué es el antineutrón? Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo. En realidad, el protón y el antiprotón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos.

Es indudable que las antipartículas pueden combinarse para formar la antimateria, de la misma forma que las partículas corrientes forman la materia ordinaria.

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un antideuterón. Desde entonces se ha producido el antihelio 3, y no cabe duda de que se podría crear otros antinúcleos más complicados aún si se abordara el problema con más interés.

Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el universo? Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente. Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro. Así pues, los astrónomos observan especulativamente las galaxias, para tratar de encontrar alguna actividad inusual que delate interacciones materia-antimateria.

No parece que dichas observaciones fuesen un éxito. ¿Es posible que el universo esté formado casi enteramente por materia, con muy poca o ninguna antimateria? Y si es así, ¿por qué? Dado que la materia y la antimateria son equivalente en todos los aspectos, excepto en su oposición electromagnética, cualquier fuerza que crease una originaría la otra, y el universo debería estar compuesto de iguales cantidades de la una y de la otra.

Este es el dilema. La teoría nos dice que debería haber allí antimateria, pero las observaciones lo niegan, no lo respaldan. ¿Es la observación la que falla? ¿Y qué ocurre con los núcleos de las galaxias activas, e incluso más aún, con los quásares? ¿Deberían ser estos fenómenos energéticos el resultado de una aniquilación materia-antimateria? ¡No creo! Ni siquiera ese aniquilamiento parece ser suficiente, y los astrónomos prefieren aceptar la noción de colapso gravitatorio y fenómenos de agujeros negros, como el único mecanismo conocido para producir la energía requerida.

Con esto de la antimateria me ocurre igual que con el hecho, algunas veces planteado, de la composición de la materia en lugares lejanos del universo. “Ha caído una nave extraterrestre y nuestros científicos han comprobado que está hecha de un material desconocido, casi indestructible”. Este comentario se ha podido oír en alguna película de ciencia ficción. Podría ser verdad (un material desconocido), sin embargo, no porque la nave esté construida por una materia distinta, sino porque la aleación es distinta y más avanzada a partir de los materiales conocidos del universo. En cualquier parte del universo, por muy lejana que pueda estar, rigen los mismos principios y las mismas fuerzas: la materia y la energía son las mismas en cualquier parte. Lo único que puede diferir es la forma en que se utilice, el tratamiento que se le pueda dar, y sobre todo, el poseer el conocimiento y la tecnología necesarios para poder obtener el máximo resultado de las propiedades que dicha materia encierra, porque, en última instancia, ¿es en verdad inerte la materia?

Tiene y encierra tantos misterios la materia que estamos aún a años luz de saber y conocer sobre su verdadera naturaleza. Nos podríamos preguntar miles de cosas que no sabríamos contestar. Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos, pero que tampoco sabemos, en realidad, a qué son debidas. Sí, sabemos ponerles etiquetas como la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio, y con mayor frecuencia, en los elementos que conocemos como transuránicos.

A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta. En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de su ruptura, sobrepasando a la emisión de partículas alfa. ¡Parece que la materia está viva! Son muchas las cosas que desconocemos, y nuestra curiosidad nos empuja continuamente a buscar esas respuestas.

El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o el antineutrón), y por lo tanto, han sido denominados leptones (de la voz griega leptos, que dignifica “delgado”).

Aunque el electrón fue descubierto en 1.897 por el físico británico Joseph John Thomson (1.856 – 1.940), el problema de su estructura, si la hay, aún no está resuelto. Conocemos su masa y su carga negativa que responden a 9’1093897 (54) × 10-31 Kg la primera, y 1’60217733 (49) × 10-19 culombios la segunda, y también su radio clásico r0 igual a e2/(mc2) = 2’82 × 10-13 cm. No se ha descubierto aún ninguna partícula que sea menos masiva que el electrón (o positrón) y que lleve una carga eléctrica, sea la que fuese (sabemos cómo actúa y cómo medir sus propiedades, pero aún no sabemos qué es), que tenga asociada un mínimo de masa.

Lo cierto es que el electrón es una maravilla en sí mismo. El universo no sería como lo conocemos si el electrón fuese distinto a como es; bastaría un cambio infinitesimal para que, por ejemplo, nosotros no pudiéramos estar aquí ahora.

Aquí, un electrón e desviado por el campo eléctrico de un núcleo atómico produce prenorradiación. El cambio de energía E2 − E1 determina la fecuencia f del fotón emitido. ¡No por pequeño se el insignificante!

Recordémoslo, todo lo grande está hecho de cosas pequeñas. En realidad, existen partículas que no tiene asociada ninguna masa en absoluto, es decir, ninguna masa en reposo. Por ejemplo, las ondas de luz y otras formas de radiación electromagnética se comportan como partículas (Einstein en su efecto fotoeléctrico y De Broglie en la difracción de electrones). Esta manifestación en forma de partículas de lo que, de ordinario, concebimos como una onda, se denomina fotón, de la palabra griega que significa “luz”.

El fotón tiene una masa de 1, una carga eléctrica de 0, pero posee un espín de 1, por lo que es un bosón. ¿Cómo se puede definir lo que es el espín? Los fotones toman parte en las reacciones nucleares, pero el espín total de las partículas implicadas antes y después de la reacción deben permanecer inmutadas (conservación del espín). La única forma de que esto suceda en las reacciones nucleares que implican a los fotones radica en suponer que el fotón tiene un espín de 1. El fotón no se considera un leptón, puesto que este término se reserva para la familia formada por el electrón, el muón y la partícula tau, con sus correspondiente neutrinos: υe, υμ y υτ.

Existen razones teóricas para suponer que cuando  las masas se aceleran (como cuando se mueven en órbitas elípticas en torno a otra masa o llevan a cabo un colapso gravitacional), emiten energía en forma de ondas gravitaciones. Esas ondas pueden, así mismo, poseer aspecto de partícula, por lo que toda partícula gravitacional recibe el nombre de gravitón.

La forma gravitatoria es mucho, mucho más débil que la fuerza electromagnética. Un protón y un electrón se atraen gravitacionalmente con sólo 1/1039 de la fuerza en que se atraen electromagnéticamente. El gravitón (aún sin descubrir) debe poseer, correspondientemente, menos energía que el fotón, y por tanto, ha de ser inimaginablemente difícil de detectar.

Parece que los tenemos a todos bien localizados pero… ¿Dónde está el Gravitón?

Seguramente riéndose de nuestra ignorancia

De todos modos, el físico norteamericano Joseph Weber emprendió en 1.957 la formidable tarea de detectar el gravitón. Llegó a emplear un par de cilindros de aluminio de 153 cm de longitud y 66 de anchura, suspendidos de un cable en una cámara de vacío. Los gravitones (que serían detectados en forma de ondas) desplazarían levemente esos cilindros, y se empleó un sistema para detectar el desplazamiento que llegase a captar la cienbillonésima parte de un centímetro. Las débiles ondas de los gravitones, que proceden del espacio profundo, deberían chocar contra todo el planeta, y los cilindros separados por grandes distancias se verán afectados de forma simultánea. En 1.969, Weber anunció haber detectado los efectos de las ondas gravitacionales. Aquello produjo una enorme excitación, puesto que apoyaba una teoría particularmente importante (la teoría de Einstein de la relatividad general). Desgraciadamente, nunca se pudo comprobar mediante las pruebas realizadas por otros equipos de científicos que duplicaron el hallazgo de Weber.

En cualquier caso, no creo que a estas alturas alguien pueda dudar de la existencia de los gravitones, el bosón mediador de la fuerza gravitatoria. La masa del gravitón es 0, su carga es 0, y su espín es 2. Como el fotón, no tiene antipartícula; ellos mismos hacen las dos versiones.

emilio silvera

¡La Física! ¿Cuantas sorpresas nos tiene reservadas?

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

La velocidad de la luz

Un haz de Láser en el aire viajando cerca del 99.97% de la rapidez de la luz en el vacío

Está claro que la luz se desplaza a enormes velocidades. Si pulsamos el interruptor apagado de la lámpara de nuestro salón, todo queda a oscuras de manera instantánea. La velocidad del sonido es más lenta; por ejemplo, si vemos a un leñador que está cortando leña en un lugar alejado de nosotros, sólo oiremos los golpes momentos después de que caiga el hacha. Así pues, el sonido tarda cierto tiempo en llegar a nuestros oídos. En realidad es fácil medir la velocidad de su desplazamiento: unos 1.206 Km/h en el aire y a nivel del mar.

determinación de la velocidad de la luz por Galileo

               No parece el mejor método para medir la velocidad de la luz, el empleado por Galileo. Claro que, en aquellos tiempos…¿Qué se podía hacer?

Galileo fue el primero en intentar medir la velocidad de la luz. Se colocó en lo alto de una colina, mientras que su ayudante se situaba en otro lugar alto de la colina vecina; luego sacó una linterna encendida. Tan pronto como su ayudante vio la luz, hizo una señal con otra linterna. Galileo repitió el experimento a distancias cada vez mayores, suponiendo que el tiempo requerido por su ayudante para responder mantendría una uniformidad constante, por lo cual, el intervalo entre la señal de su propia linterna y la de su ayudante representaría el tiempo empleado por la luz para recorrer cada distancia. Aunque la idea era lógica, la luz viajaba demasiado aprisa como que Galileo pudiera percibir las sutiles diferencias con un método tan rudimentario.

Un tránsito doble sombra en Júpiter. Los dos satélites visibles, Io y Europa, justo a la derecha del planeta son responsables de las sombras. (La imagen fue generada por computadora.) Todos los planetas y lunas del Sistema solar han sido estudiado muy a fondo por los Astrónomos que, cada día descubren nuevos dsecretos de estos grandes y pequeños “mundos”.

En 1.676, el astrónomo danés Olaus Roemer logró cronometrar la velocidad de la luz a escala de distancias astronómicas. Estudiando los eclipses de Júpiter en sus cuatro grandes satélites, Roemer observó que el intervalo entre eclipses consecutivos era más largo cuando la Tierra se alejaba de Júpiter, y más corto cuando se movía en su órbita hacia dicho astro. Al parecer, la diferencia entre las duraciones del eclipse reflejaba la diferencia de distancias entre la Tierra y Júpiter. Y trataba, pues, de medir la distancia partiendo del tiempo empleado por la luz para trasladarse desde Júpiter hasta la Tierra. Calculando aproximadamente el tamaño de la órbita terrestre y observando la máxima discrepancia en las duraciones del eclipse que, según Roemer, representaba el tiempo que necesitaba la luz para atravesar el eje de la órbita terrestre, dicho astrónomo computó la velocidad de la luz. Su resultado, de 225.000 Km/s, parece excelente si se considera que fue el primer intento, y resultó bastante asombroso como para provocar la incredulidad de sus coetáneos.

 

James Bradley descubrió la aberración estelar

Sin embargo, medio siglo después se confirmaron los cálculos de Roemer en un campo completamente distinto. Allá por 1.728, el astrónomo británico James Bradley descubrió que las estrellas parecían cambiar de posición con los movimientos terrestres; y no por el paralaje, sino porque la traslación terrestre alrededor del Sol era una fracción mensurable (aunque pequeña) de la velocidad de la luz. La analogía empleada usualmente es la de un hombre que camina con el paraguas abierto bajo un temporal. Aun cuando las gotas caigan verticalmente, el hombre debe inclinar hacia delante el paraguas, porque ha de abrirse paso entre las gotas. Cuanto más acelere su paso, tanto más deberá inclinar el paraguas. De manera semejante, la Tierra avanza entre los ligeros rayos que caen desde las estrellas, y el astrónomo debe inclinar un poco su telescopio y hacerlo en varias direcciones, de acuerdo con los cambios de la trayectoria terrestre (no olvidemos que nuestro planeta Tierra es como una enorme nave espacial que nos lleva en un viaje eterno, alrededor del Sol, a la velocidad de 30 Km/s). Mediante ese devío aparente de los astros (“aberración de la luz”), Bradley pudo evaluar la velocidad de la luz y calcularla con gran precisión. Sus cálculos fueron de 285.000 Km/s, bastante más exactos que los de Roemer, pero aún un 5’5% más bajos.

Poco a poco, con medios tecnológicos más sofisticados y más conocimientos matemáticos, los científicos fueron obteniendo medidas más exactas aún, conforme se fue perfeccionando la idea original de Galileo y sus sucesores.

Fizeau,
Fizeau, Armand-Hippolyte-Louis

En 1.849, el físico francés Armand-Hippolyte-Louis Fizeau ideó un artificio mediante el cual se proyectaba la luz sobre un espejo situado a 8 Km de distancia, que devolvía el reflejo al observador. El tiempo empleado por la luz en su viaje de ida y vuelta no rebasó apenas la 1/20.000 de segundo, pero Fizean logró medirlo colocando una rueda dentada giratoria en la trayectoria del rayo luminoso. Cuando dicha rueda giraba a cierta velocidad, la luz pasaba entre los dientes y se proyectaba contra el siguiente, al ser devuelta por el espejo; así, Fizeau, colocando tras la rueda, no pudo verla. Entonces se dio más velocidad a la rueda y el reflejo pasó por la siguiente muesca entre los dientes, sin interacción alguna. De esa forma, regulando y midiendo la velocidad de la rueda giratoria, Fizean pudo calcular el tiempo trascurrido y, por consiguiente, la velocidad a la que se movía el rayo de luz.

Animación del Péndulo de Foucault oscilando en el hemisferio sur

Un año más tarde, Jean Foucault (quien realizaría poco después su experimento con los péndulos) precisó más estas medidas empleando un espejo giratorio en vez de una rueda dentada. Entonces se midió el tiempo transcurrido desviando ligeramente el ángulo de reflexión mediante el veloz espejo giratorio. Foucault obtuvo un valor de la velocidad de la luz de 300.883 Km/s. También el físico francés utilizó su método para determinar la velocidad de la luz a través de varios líquidos. Averiguó que era notablemente inferior a la alcanzada en el aire. Esto concordaba con la teoría ondulatoria de Huyghens.

AetherWind.svg

Michelson fue más preciso aún en sus medidas. Este autor, durante cuarenta años largos a partir de 1.879, fue aplicando el sistema Fizean-Foucault cada vez con mayor refinamiento, para medir la velocidad de la luz. Cuando se creyó lo suficientemente informado, proyectó la luz a través del vacío, en vez de hacerlo a través del aire, pues éste frena ligeramente su velocidad, y empleó para ello tuberías de acero cuya longitud era superior a 1’5 Km. Según sus medidas, la velocidad de la luz en el vacío era de 299.730 Km/s (sólo un 0’006% más bajo). Demostraría también que todas las longitudes de ondas luminosas viajan a la misma velocidad en el vacío.

En 1.972 un equipo de investigadores bajo la dirección de Kenneth M. Evenson efectuó unas mediciones aún más exactas y vio que la velocidad de la luz era de 299.727’74 Km/s. Una vez se conoció la velocidad de la luz con semejante precisión, se hizo posible usar la luz, o por lo menos formas de ella, para medir distancias.

Aunque para algunos resulte algo tedioso el tema anterior, no he podido resistirme a la tentación de exponerlo; así podrá saber algo más sobre la luz, y habrán conocido a personajes que hicieron posible el que ahora nosotros la conozcamos mejor.

Podría continuar hasta el final de este trabajo hablando de la luz y sus distintas formas o aplicaciones: ondas de luz a través del espacio, de cómo se transmite la luz en el “vacío”, nos llega a través del espacio desde galaxias situadas a miles de millones de años luz; las líneas de fuerzas electromagnéticas de Faraday y Maxwell de campos eléctricos y magnéticos cambiantes (todo ello explicado en un simple conjunto de cuatro ecuaciones, que describían casi todos los fenómenos referentes a esta materia electromagnética), o de los enigmas aún por descubrir (aunque predichos).

En 1.931, Dirac, acometiendo el asunto de una forma matemática, llegó a la conclusión de que si los monopolos magnéticos existían (si existía siquiera uno en cualquier parte del universo), sería necesario que todas las cargas eléctricas fuesen múltiplos exactos de una carga más pequeña, como en efecto así es. Y dado que todas las cargas eléctricas son múltiplos exactos de alguna carga más pequeña, ¿no debería, en realidad, existir los monopolos magnéticos?

En 1.974, un físico neerlandés (yo lo he mencionado antes en este mismo trabajo), Gerard’t Hooft, y un físico soviético, Alexander Poliakov, mostraron independientemente que podía razonarse, a partir de las grandes teorías unificadas, que los monopolos magnéticos debían así mismo existir, y que debían poseer una masa enorme. Aunque un monopolo magnético sería incluso más pequeño que un protón, debería tener una masa que sería de 10 trillones a 10 cuatrillones mayor que la del protón. Eso equivaldría a la masa de una bacteria comprimida en una diminuta partícula subatómica.

Semejantes partículas sólo podían haberse formado en el momento de la gran explosión (otra vez volvemos al origen). Desde entonces no ha existido la suficientemente alta concentración de energía necesaria para formarla. Esas grandes partículas deberían avanzar a unos 225 Km/s, aproximadamente, y la combinación de una enorme masa y un pequeño tamaño le permitiría deslizarse a través de la materia sin dejar el menor rastro de presencia. Esta propiedad, de hecho, está relacionada directamente con el fracaso obtenido en su búsqueda. Los físicos están tratando de idear un mecanismo capaz de poder detectar con claridad el paso de monopolos magnéticos.

Dibujo20090716_Particle_density_at_different_stages_of_monopole_formation_and_Unwinding_of_monopole_defect

Todos los imanes tienen dos polos. Si cortas una imán por la mitad sigue teniendo dos polos. ¿Existen imanes con un sólo polo magnético? Los llamados monopolos magnéticos han sido buscados por mucho tiempo desde que en 1931 Dirac afirmó que la mecánica cuántica no prohibía su existencia. Los monopolos de Dirac eran “bestias” de enorme masa (miles de billones de veces la masa del protón). Ville Pietilä y Mikko Möttönen han demostrado teóricamente cómo se pueden observar monopolos de Dirac en la estructura de espín de estados condensados de Bose-Einstein.

Podríamos decir que un monopolo magnético es una entidad magnética consistente en un polo norte o sur elemental aislado. Ha sido postulado como una enorme fuente de campo magnético en analogía a la forma en que las partículas eléctricamente cargadas producen un campo eléctrico.

Se han diseñado numerosos experimentos ingeniosos para detectar monopolos, pero hasta ahora ninguno ha producido un resultado definitivo. Los monopolos magnéticos son predichos en ciertas teorías gauge con bosones de Higgs. En particular, algunas teorías de gran unificación predicen monopolos muy pesados (con masas del orden de 1016 GeV). Los monopolos magnéticos también son predichos en las teorías de Kaluza-Klein (5 dimensiones) y en teoría de supercuerdas (10 y 26 dimensiones).

         Preludio a la relatividad. Las ecuaciones de Lorentz-Fitzgerald

En 1.893 el físico irlandés George Fancis Fitzgerald emitió una hipótesis para explicar los resultados negativos del experimento conocido de Michelson-Morley. Adujo que toda la materia se contrae en la dirección del movimiento, y que esa contracción es directamente proporcional al ritmo (velocidad) del movimiento.

La contracción de Lorentz es un efecto relativista que consiste en la contracción de la longitud de un cuerpo en la dirección del movimiento a medida que su velocidad se acerca a la velocidad de la luz. Originalmente fue un concepto introducido por Lorentz como una forma de explicar la ausencia de resultados positivos en el experimento de Michelson-Morley.  Posteriormente fue aplicado por Albert Einstein en el contexto de la relatividad especial.

 

La contracción de Lorentz viene descrita por la siguiente expresión

 

<br />
L_1 = \frac{L_0}{\gamma} = L_0 \sqrt{1-\left(\frac{v}{c}\right)^2},<br />

 

donde {\gamma} es el llamado factor de Lorentz,  L0 es la longitud medida por un observador estacionario (longitud propia) y L1 es la longitud medida por un observador que se desplaza a una velocidad v (longitud impropia) siendo c la velocidad de la luz.

Dado que siempre cumple que

 

<br />
\sqrt{1-\left(\frac{v}{c}\right)^2} < 1  \qquad \to \qquad  L_0 \sqrt{1-\left(\frac{v}{c}\right)^2} < L_0<br />

es decir

L_1<L_0

la longitud impropia L1 siempre se ve contraída respecto a la longitud propia L0.

La contracción de Lorentz también puede entenderse como el efecto de dilatación del tiempo y como el aumento de la masa inercial de un cuerpo o partícula. Según tal interpretación, el interferómetro se quedaba corto en la dirección del “verdadero” movimiento terrestre, y lo hacía precisamente en una cantidad que compensaba con toda exactitud la diferencia de distancias que debería recorrer el rayo luminoso. Por añadidura, todos los aparatos medidores imaginables, incluyendo los órganos sensoriales humanos, experimentarían ese mismo fenómeno.

Parecía como si la explicación de Fitzgerald insinuara que la naturaleza conspiraba con objeto de impedir que el hombre midiera el movimiento absoluto, para lo cual introducía un efecto que anulaba cualquier diferencia aprovechable para detectar dicho movimiento.

Este asombroso fenómeno recibió el nombre de contracción de Fitzgerald, y su autor formuló una ecuación para el mismo, que referido a la contracción de un cuerpo móvil, fue predicha igualmente y de manera independiente por H. A. Lorente (1.853 – 1.928) de manera que, finalmente, se quedaron unidos como contracción de Lorentz-Fitzgerald.

A la contracción, Einstein le dio un marco teórico en la teoría especial de la relatividad. En esta teoría, un objeto de longitud l0 en reposo en un sistema de referencia parecerá, para un observador en otro sistema de referencia que se mueve con velocidad relativa v con respecto al primero, tener longitud , donde c es la velocidad de la luz. La hipótesis original atribuía esta contracción a una contracción real que acompaña al movimiento absoluto del cuerpo. La contracción es en cualquier caso despreciable a no ser que v sea del mismo orden o cercana a c.

Un objeto que se moviera a 11.2 Km/s (la velocidad de escape de nuestro planeta) experimentaría sólo una contracción equivalente a 2 partes por cada 1.000 millones en el sentido del vuelo. Pero a velocidades realmente elevadas, tal contracción sería sustancial. A unos 150.000 Km/s (la mitad de la velocidad de la luz) sería del 15%; a 262.000 Km/s (7/8 de la velocidad de la luz), del 50%. Es decir, que una regla de 30 cm que pasara ante nuestra vista a 262.000 Km/s nos parecería que mide sólo 15’24 cm, siempre y cuando conociéramos alguna manera para medir su longitud en pleno vuelo. Y a la velocidad de la luz, es decir, 300.000 Km/s en números redondos, su longitud en la dirección del movimiento sería cero. Puesto que, presuntamente, no puede existir ninguna longitud inferior a cero, se deduce que la velocidad de la luz en el vacío es la mayor que puede imaginarse el universo.

 

Nada puede viajar a la velocidad de la luz

El físico holandés Henrik Antón Lorentz, como hemos dicho, promovió esta idea pensando en los rayos catódicos (que ocupaban su actividad por aquellas fechas). Se hizo el siguiente razonamiento: si se comprimiera la carga de una partícula para reducir su volumen, aumentaría su masa. Por consiguiente, una partícula voladora, escorzada en la dirección de su desplazamiento por la contracción de Fitzgerald, debería crecer en términos de masa. Lorentz presentó una ecuación sobre el acrecentamiento de la masa, que resultó muy similar a la ecuación de Fitzgerald sobre el acortamiento. A 149.637 Km/s la masa de un electrón aumentaría en un 15%; a 262.000 Km/s, en un 100% (es decir, la masa se duplicaría); y a la velocidad de la luz, su masa sería infinita. Una vez más pareció que no podría haber ninguna velocidad superior a la de la luz, pues, ¿cómo podría ser una masa mayor que infinita?

El efecto Fitzgerald sobre longitudes y el efecto Lorentz sobre masas mantuvieron una conexión tan estrecha que aparecieron a menudo agrupadas como las ecuaciones Lorentz-Fitzgerald.

                     A velocidades relativistas aumenta la masa del objeto viajero

Mientras que la contracción Fitzgerald no podía ser objeto de mediciones, el efecto Lorentz sobre masas sí podía serlo, aunque indirectamente. De hecho, el muón tomó 10 veces su masa original cuando fue lanzado, a velocidades relativistas, en el acelerador de partículas, lo que confirmó la ecuación de Lorentz. Los experimentos posteriores han confirmado las ecuaciones de ambos: a velocidades relativistas, las longitudes se contraen y las masas se incrementan.

Como es conocido por todos, Einstein adoptó estos descubrimientos y los incorporó a su teoría de la relatividad especial, que aunque mucho más amplia, recoge la contracción de Fitzgerald y el aumento de la masa de Lorentz cuando se alcanzan grandes velocidades.

Einstein supo aunar las ideas de muchos a una teoría que, como se ha visto, nos enseñó un “mundo” nuevo

Algunas veces pienso que los artistas en general, y los poetas en particular, tendrían que adaptar e incluir en sus esquemas artísticos y poéticos los adelantos científicos, para asimilarlos en las diversas expresiones y sentimientos que serán después puestos al servicio del consumo humano. Estos adelantos científicos serían así coloreados con las pasiones humanas, y transformados, de alguna forma, en la sangre, y por qué no, los sentimientos de la naturaleza humana. Posiblemente, de haberlo hecho, el grado general de conocimiento sería mayor.

Sólo uno de cada tres puede definir una molécula o nombrar a un solo científico vivo. De veinticinco licenciados escogidos al azar en la ceremonia de graduación de Harvard, sólo dos pudieron explicar por qué hace más calor en verano que en invierno. La respuesta, dicho sea de paso, no es “porque el Sol está más cerca”; no está más cerca. El eje de rotación de la Tierra está inclinado, así que cuando el hemisferio norte se inclina hacia el Sol, los rayos son más perpendiculares a la superficie, y la mitad del globo disfruta del verano. Al otro hemisferio llegan rayos oblicuos: es invierno. Es triste ver cómo aquellos graduados de Harvard podían ser tan ignorantes. ¡Aquí los tenemos con faltas de ortografía!

Por supuesto, hay momentos brillantes en los que la gente se sorprende. Hace años, en una línea de metro de Manhattan, un hombre mayor se las veía y deseaba con un problema de cálculo elemental de su libro de texto de la escuela nocturna; no hacía más que resoplar. Se volvió desesperado hacia el extraño que tenía a su lado, sentado junto a él, y le preguntó si sabía cálculo. El extraño afirmó con la cabeza y se puso a resolverle al hombre el problema. Claro que no todos los días un anciano estudia cálculo en el metro al lado del físico teórico ganador del Nobel T. D. Lee.

emilio silvera

Siempre buscaremos los secretos de la Naturaleza

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Acelerador lineal de Generador de Giutenberg de una sola etapa de 2 MeV. No todos los aceleradores que pudimos construir eran como el LHC, y, los comienzos fueron más elementales. Los aceleradores de partículas imitan, en cierta forma, la acción de los rayos cósmicos sobre la atmósfera  terrestre, lo cual produce al azar una lluvia de partículas exóticas e inestables. Sin embargo, los aceleradores prestan un entorno mucho más controlado para estudiar estas partículas generadas, y su proceso de desintegración. Ese estudio de partículas, tanto inestables como estables, puede ser en un futuro útil para el desarrollo de la medicina, la exploración espacial, tecnología, electrónica, etcétera. Hay dos tipos básicos de aceleradores de partículas: los lineales y los circulares. El tubo de rayos catódicos de un televisor es una forma simple de acelerador de partículas.

Demos un repaso sencillo sobre los Aceleradores de Partículas para que  nos lleve a percatarnos de lo que, en realidad, allí se busca:

  1. La exploración directa de nuevas regiones de energía en busca de nuevos fenómenos.
  2. El estudio de alta precisión de las propiedades de las partículas elementales y de las fuerzas fundamentales ya establecidas.

Estas dos líneas de actuación son en buena medida complementarias y, como en su día demostraron los experimentos  en LEP, las medidas de precisión a una determinada energía permiten vislumbrar que clase de fenómenos aparecerán a más altas energías y anticipar las regiones de interés.

                                                      Aquí se muestra lo que era el túnel LEP en el CERN.

LEP (Large Electron-Positron collider) era un acelerador-colisionador e- e+  (electrón positrón)circular de unos 27 km de longitud, creado en 1989 y situado a 100 metrosbajo tierra en la frontera entre Francia y Suiza. Hasta que fue reemplazado por el LHC.  Era el último paso del complejo de aceleradores del CERN,  y en él los electrones y positrones  eran inyectados y acelerados hasta la energía  final de colisión mediante el uso de cavidades de radiofrecuencia. Un sistema de imanes dipolares curvaba los haces de electrones y positrones obligándoles a seguir una trayectoria circular.

En el LEP, los electrones y los positrones circulaban en sentidos opuestos a velocidades relativistas (cercanas a c, agrupados en paquetes de aproximadamente 1,6 centímetros de longitud y una sección de 0,3 × 0,01 mm2. Existían ocho puntos de colisión, en cuatro de los cuales había instalados varios experimentos: ALEPH, DELPHI, L3 y OPAL. LEP empezó a operar en agosto de 1989y aunque originalmente fue diseñado para la producción de bosones  Z0 (cuya masa es de 91,2 GeV/c2),  con energías por haz previstas para su primera fase en torno a los 45 GeVy luminosidades de 1031 cm-2· s-1, las distintas mejoras que años más tarde se introdujeron en él (incluyendo la instalación de cavidades superconductoras) permitieron alcanzar energías por haz de hasta 104,5 GeV. En la segunda fase aumentó su energía en el centro de masas hasta los 130 GeV. Este incremento permitió la producción de pares de bosones W± y Z0. Se esperaba que los sucesivos incrementos supusieran, incluso, el alcance del umbral de producción de nuevas partículas, como, por ejemplo, el Bosón de Higgs.

lep

Las diferencias con el moderno LHC son notables y nos habla de lo que hemos avanzado

LEP anticipó con claridad que el Bosón de Higgs del Modelo Estándar era una partícula ligera, de masa probablemente inferior a 250 GeV. También sugirió la escala de   -1 TeV como umbral muy probable para la puesta de manifiesto de una nueva fenomenología que podría incluir partículas supersimétricas, tecnicolar, dimensiones extras o supergravedad a bajas energías, entre otras fascinantes propuestas de Nueva Física.

La exploración directa de esta región de energía y la posibilidad de realizar medidas de precisión es la razón de ser del LHC, la gran instalación científica que desde su puesta en marcha nos ha dado algunas sorpresas. Las pruebas que allí han sido realizadas nos hablan de otra dimensión del del universo, de la materia, del espaciotiempo y, deja en el aire promesas de secretos que podemos descubrir.

Es la construcción científica más grande de la Historia de la Humanidad y, aunque está situado a 100 metros bajo tierra, ésta alta tecnología nos puede decir cómo es, en realidad, nuestro universo. Existen secretos que no han sido desvelados y que pueden quedar al descubierto utilizando en el LHC las altas energías nunca jamás imaginadas.

El Colisionador LHC ha permitido estudiar colisiones protón-protón a 14 TeV en el centro de masas e interacciones plomo-plomo a 1300 TeV en el centro de masas. Cuando comenzaron los experimentos existía la firme convicción de que el LHC establecería la naturaleza de la observada rotura de la simetría electrodébil  (el mecanismo de Higgs frente a otras alternativas), dejaría al descubierto la posible existencia de partículas supersimétricas -o de otro tipo- así como nuevas interacciones, pondría de manifiesto el desconfinamiento de los quarks y la transición de fase hadrones-plasma de quarks y gluones y ayudaría a profundizar en el conocimiento de los sabores pesados (quarks botton y top) y en procesos mediados por  violaciones de la simetría CP.

Los resultados de todas estas investigaciones han tenido influencias en campos estrechamente relacionados con la Física de Partículas como son la Astrofísica y la Cosmología y también, han ayudado a mejorar algunos otros campos que han mejorado nuestras vidas cotidianas. Y, aunque aún no ha llegado el momento, seguro que en el futuro nos dirá algo sobre esa sustancia cósmica que todos buscan y llaman la “materia oscura” y de la propia existencia de la materia bariónica (asimetría materia-antimateria). En definitiva, con el LHC se inició el asalto, tal vez definitivo, a algunas de las cuestiones y desafíos intelectuales más fundamentales en investigación básica. Claro que, esto no ha hecho más que empezar.

Tratamos de desentrañar los secretos de la Naturaleza por todas partes, en el Cosmos buscamos estrellas de Quarks y en los aceleradores de partículas nuevas partículas. La identificación de una EQ requiere señales observacionales consistentes. Con esto nos referimos a propiedades físicas de la estrella tales como su masa máxima, radio, período mínimo de rotación, enfriamiento por emisión de neutrinos. Todas estas propiedades dependen de una única ecuación de estado para la materia densa de quarks que aún no ha sido completamente establecida. Sin embargo, existe un rango de valores aceptados para las cantidades antes mencionadas, con base en datos observacionales recientes, que marcarían importantes diferencias entre las posibles EQs y los demás objetos compactos.

Ya dije aquí mismo en otra ocasión que, antes de que pasen otros 50 años, se hablará de otro nuevo Super Colisionador, ya éste, el LHC, habrá cumplido su cometido, nos habrá dicho todo lo que puede decir, y, estaremos buscando nuevos horizontes que nos lleven algo más lejos, toda vez que, el que obtengamos ahora se nos quedará corto en unos pocos años.

Tened en cuenta que el punto de partida del LHC se remonta a marzo de 1984 (reunión de Lausana del Comité ECFA, European Comité for Future Acelerators) aunque la posibilidad de instalar un colisionador hadrónico en el CERN se había previsto años antes  al aprobar la construcción de LEP y dimensionar el diámetro del túnel para que pudiesen cohabitar dos grandes colisionadores: LEP y el LHC. El Proyecto de éste último fue aprobado por el Consejo del CERN en Diciembre de 1994 pero con unas restricciones de financiación tales que imponían un proceso de construcción estructurado en dos fases, algo verdaderamente comprometido al tratarse de una máquina superconductora.

    La ingente obra para construir el LHC se puede considerar un triunfo de la Humanidad

Afortunadamente en 1996,  el Consejo del CERN autorizó un perfil de endeudamiento, que se prolongó hasta el 2010, y que permió construir el LHC en una sola fase. En enero de 1996  se aprobó la construcción de dos experimentos de carácter genérico, ATLAS y CMS, y algo más tarde se aprobó la construcción de ALICE y  LHCb diseñados específicamente para el estudio de las colisiones de iones ultrarelativistas y la producción de partículas con quark b respectivamente.

CERN - LHC 6

Podría continuar explicando la enormidad de este proyecto y lo complejo de cada uno de sus componentes, pero eso sería entrar en una serie de explicaciones técnicas de una profundidad que, no en pocos casos, se escapan de mi comprensión, así que, como una aportación de datos y un poco de historia de éste inmenso proyecto, aquí lo dejo. Esperemos que todo esto acabe felizmente y la Física (también, aunque parezca raro, la Astronomía) encuentre ese eslabón que nos lleve hacia el futuro.

emilio silvera

¡La velocidad de la luz! Según Asimov

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

¿Por qué la materia no puede moverse más deprisa que la velocidad de la luz? Isaac Asimov nos lo cuenta así:

“Para contestar esta pregunta hay que advertir al lector que la energía suministrada a un cuerpo puede influir sobre él de distintas maneras. Si un martillo golpea a un clavo en medio del aire, el clavo sale despedido y gana energía cinética o, dicho de otra manera, energía de movimiento. Si el martillo golpea sobre un clavo, cuya punta está apoyada en una madera dura e incapaz de moverse, el clavo seguirá ganando energía, pero esta vez en forma de calor por rozamiento al ser introducido a la fuerza dentro de la madera.

Albert Einstein demostró en su teoría de la relatividad especial que la masa cabía contemplarla como una forma de energía (E = mc2, la bomba atómica lo confirmó). Al añadir energía a un cuerpo, esa energía puede aparecer en la forma de masa o bien en otra serie de formas.

En condiciones ordinarias, la ganancia de energía en forma de masa es tan increiblemente pequeña que sería imposible medirla. Fue en el siglo XX (al observar partículas subatómicas que, en los grandes aceleradores de partículas, se movían a velocidades de decenas de miles de kilómetros por segundo) cuando se empezaron a encontrar aumentos de masa que eran suficientemente grandes para poder detectarlos. Un cuerpo que se moviera a unos 260.000 Km por segundo respecto a nosotros mostraría una masa dos veces mayor que cuando estaba en reposo (siempre respecto a nosotros).

La energía que se comunica a un cuerpo libre puede integrarse en él de dos maneras distintas:

  1. En forma de velocidad, con lo cual aumenta la rapidez del movimiento.
  2. En forma de masa, con lo cual se hace “más pesado”.

La división entre estas dos formas de ganancia de energía, tal como la medimos nosotros, depende en primer lugar de la velocidad del cuerpo (medida, una vez más, por nosotros).

Si el cuerpo se mueve a velocidades normales, prácticamente toda la energía se incorpora a él en forma de velocidad: se moverá más aprisa sin cambiar su masa.

A medida que aumenta la velocidad del cuerpo (suponiendo que se le suministra energía de manera constante) es cada vez menor la energía que se convierte en velocidad y más la que se transforma en masa. Observamos que, aunque el cuerpo siga moviéndose cada vez más rápido, el ritmo de aumento de velocidad decrece. Como contrapartida, notamos que gana más masa a un ritmo ligeramente mayor.

Al aumentar aún más la velocidad y acercarse a los 299.792’458 Km/s, que es la velocidad de la luz en el vacío, casi toda la energía añadida entra en forma de masa. Es decir, la velocidad del cuerpo aumenta muy lentamente, pero la masa es la que sube a pasos agigantados. En el momento en que se alcanza la velocidad de la luz, toda la energía añadida se traduce en masa.

El cuerpo no puede sobrepasar la velocidad de la luz porque para conseguirlo hay que comunicarle energía adicional, y a la velocidad de la luz toda esa energía, por mucha que sea, se convertirá en nueva masa, con lo cual la velocidad no aumentaría ni un ápice.

luna

Cuando le explicas a una persona lo que pasa con la velocidad de la luz…

Todo esto no es pura teoría, sino que tal como ha sido comprobado, es la realidad de los hechos.

La velocidad de la luz es la velocidad límite en el universo. Cualquier cosa que intente sobrepasarla adquiriría una masa infinita.

La velocidad de la luz, por tanto, es un límite en nuestro universo; no se puede superar. Siendo esto así, el hombre tiene planteado un gran reto, no será posible el viaje a las estrellas si no buscamos la manera de esquivar este límite de la naturaleza, ya que las distancias que nos separan de otros sistemas solares son tan enormes que, viajando a velocidades por debajo de la velocidad de la luz, sería casi imposible alcanzar el destino deseado.

Los científicos, físicos experimentales, tanto en el CERN como en el FERMILAB, aceleradores de partículas donde se estudian y los componentes de la materia haciendo que haces de protones o de muones, por ejemplo, a velocidades cercanas a la de la luz choquen entre sí para que se desintegren y dejen al descubierto sus contenidos de partículas aún más elementales.  Pues bien, a estas velocidades relativistas cercanas a c (la velocidad de la luz), las partículas aumentan sus masas; sin embargo, nunca han logrado sobrepasar el límite de c, la velocidad máxima permitida en nuestro universo.

Universo completa

Puede que existan otros universos de la misma manera que son miles de millones de millones de  estrellas o de galaxias en el nuestro. Sin embargo, no sabemos como serán esos otros universos y que fuerzas fundamentales o que constantes universales lo regirán pero, una cosa es cierta, si las constantes son diferentes a las de este universo nuestro… ¡La vida no estará presente! Al menos, en la forma que aquí la conocemos.

Pero sigamos con Asimov y sus explicaciones de la velocidad de la luz.

Es preciso ampliar un poco más las explicaciones anteriores que no dejan sentadas todas las cuestiones que el asunto plantea, y quedan algunas dudas que incitan a formular nuevas preguntas, como por ejemplo: ¿por qué se convierte la energía en masa y no en velocidad?, o ¿por qué se propaga la luz a 299.793 Km/s y no a otra velocidad?

La única respuesta que podemos dar hoy es que así, es el universo que nos acoge y las leyes naturales que lo rigen, donde estamos sometidos a unas fuerzas y unas constantes universales de las que la velocidad de la luz en el vacio es una muestra.

                                La luz está dentro de la materia y en el universo… ¡por todas partes!

A velocidades grandes cercanas a la de la luz (velocidades relativistas) no sólo aumenta la masa del objeto que viaja, sino que disminuye también su longitud en la misma dirección del movimiento (contracción de Lorentz) y en dicho objeto y sus ocupantes – si es una nave – se retrasa al paso del tiempo, o dicho de otra manera, el tiempo allí transcurre más despacio.

A menudo se oye decir que las partículas no pueden moverse “más deprisa que la luz” y que la “velocidad de la luz” es el límite último de velocidad.

Pero decir esto es decir las cosas a medias, porque la luz viaja a velocidades diferentes dependiendo del medio en el que se mueve. Donde más deprisa se mueve la luz es en el vacío: allí lo hace a 299.792’458 Km/s. Este sí es el límite último de velocidades que podemos encontrar en nuestro universo.

Tenemos el ejemplo del fotón, la partícula mediadora de la fuerza electromagnética, un bosón sin masa que recorre el espacio a esa velocidad antes citada.

Einstein en su teoría de la relatividad especial de 1.905, nos decía que en nuestro universo nada puede ir más rápido que la luz. También nos dejó dicho que masa y energía don dos aspectos de una misma cosa. Que la materia se puede convertir en energía (ahí está la bomba atómica como demostración) pero, ¿es posible hacer lo contrario y convertir energía en materia?

Sí sería posible convertir energía en materia, pero hacerlo en grandes cantidades resulta poco práctico. Veamos por qué.

Según la teoría de Einstein, tenemos que E = mc2, donde e representa la energía, medida en ergios, m representa la masa, medida en gramos, y c es la velocidad de la luz en centímetros por segundo.

La luz se propaga en el vacío a una velocidad aproximada a los 30.000 millones (3×1010) de centímetros por segundo. La cantidad c2 representa el producto c×c, es decir:

3×1010 × 3×1010, ó 9×1020.

Por tanto, c2 es igual a 900.000.000.000.000.000.000.

Así pues, una masa de un gramo puede convertirse, en teoría, en 9×1020 ergios de energía.

El ergio es una unida muy pequeña de energía que equivale a: “Unidad de trabajo o energía utilizado en el sistema c.g.s y actúa definida como trabajo realizado por una fuerza de 1 dina cuando actúa a lo largo de una distancia de 1 cm: 1 ergio = 10-7 julios”. La kilocaloría, de nombre quizá mucho más conocido, es igual a unos 42.000 millones de ergios. Un gramo de materia convertido en energía daría 2’2×1010 (22 millones) de kilocalorías.  Una persona puede sobrevivir cómodamente con 2.500 kilocalorías al día, obtenidas de los alimentos ingeridos. Con la energía que representa un solo gramo de materia tendríamos reservas para unos 24.110 años, que no es poco para la vida de un hombre.

O digámoslo de otro modo: si fuese posible convertir en energía eléctrica la energía representada por un solo gramo de materia, bastaría para tener luciendo continuamente una bombilla de 100 vatios durante unos 28.200 años.

O bien: la energía que representa un solo gramo de materia equivale a la que se obtendría de quemar unos 32 millones de litros de gasolina.

Nada tiene de extraño, por tanto, que las bombas nucleares, donde se convierten en energías cantidades apreciables de materia, desaten tanta destrucción.

La conversión opera en ambos sentidos. La materia se puede convertir en energía y la energía en materia. Esto último puede hacerse en cualquier momento en el laboratorio, donde continuamente convierten partículas energéticas (como fotones de rayos gamma) en 1 electrón y 1 positrón sin ninguna dificultad. Con ello se invierte el proceso, convirtiéndose la energía en materia.

Pero estamos hablando de una transformación de ínfimas cantidades de masa casi despreciable. ¿Pero podremos utilizar el mismo principio para conseguir cantidades mayores de materia a partir de energía?

                                                            Aquí tratan de convertir luz en materia

Bueno, si un gramo de materia puede convertirse en una cantidad de energía igual a la que produce la combustión de 32 millones de litros de gasolina, entonces hará falta toda esa energía para fabricar un solo gramo de materia, lo que nos lleva al convencimiento de que no sería muy rentable invertir el proceso.

Recuerdo en este punto cómo los viajeros espaciales de la Nave Enterprise, cuando tienen hambre, le piden a una dispensadora de alimentos lo que desean comer o beber, y la máquina, a partir de la energía, le facilita todo aquello que necesiten. La serie Star Trek, unas de las mejores que han sido realizadas, reflejan algunas licencias que como esta de la máquina dispensadora, no explican de dónde precede la fuente de energía que utilizan y, que según lo que se ve, tendría que ser inagotable.

Antes de que llegara Einstein, los físicos del siglo XIX creían que la materia y la energía eran dos cosas completamente diferentes. Materia es todo aquello que ocupaba un espacio y que poseía masa. Y al tener masa también tenía inercia y respondía al campo gravitatorio. La energía en cambio, no ocupaba espacio ni tenía masa, pero podía efectuar trabajo. Además, se pensaba que la materia consistía en partículas (átomos), mientras que la energía, se componía de ondas.

Por otra parte, esos mismos físicos del XIX creían que ni la materia ni la energía, cada una por su parte, podía ser creada ni destruida. La cantidad de materia del universo era constante, igual que la cantidad total de energía.  Había pues una ley de conservación de la energía y de conservación de la materia.

Einstein.jpg" alt="" width="500" height="305" />

Albert Einstein, en 1.905, les demostró que la masa es una forma muy concentrada de energía. La masa podía convertirse en energía y viceversa.  Lo único que había que tener en cuenta era la ley de conservación de la energía. En ella iba incluida la materia.

Hacia los años veinte se vio además que no se podía hablar de partículas y ondas como si fuesen dos cosas diferentes. Lo que se consideraban partículas actuaban en ciertos aspectos como si de ondas se tratara, y lo que normalmente se consideraban ondas actuaban en ciertos aspectos como partículas.

Así podemos hablar de ondas del electrón, por ejemplo; y también de partículas de luz, o fotones. Pero existe una diferencia entre la una y el otro, mientras que la partícula que denominamos electrón, posee una “masa en reposo” mayor a cero, los fotones por el contrario, no tienen masa alguna, por ese motivo, estas partículas se mueven siempre a una velocidad de 299.792’458 metros por segundo a través del vacío, no debemos olvidar que un fotón es una partícula de luz.”

Fórmula relativista de adición de velocidades.

En matemáticas se llama prolongación de una función a la extensión de su dominio más allá de sus singularidades, que se comportan como frontera entre el dominio original y el extendido. Normalmente, la prolongación requiere incluir algunos cambios de signo en la definición de la función extendida para evitar que aparezcan valores imaginarios puros u otros números complejos. La matemática de la teoría de la relatividad puede ser aplicada a partículas que se mueven a una velocidad mayor que la de la luz (llamadas taquiones) si aceptamos que la masa y la energía de estas partículas pueden adoptar valores imaginarios puros. El problema es que no sabemos qué sentido físico tienen estos valores imaginarios.

Claro que, estas nuevas teorías nunca han podido ser comprobadas mediante ningún experimento, así que, se quedan en el limbo de las conjeturas.

emilio silvera

 

La importancia de las constantes universales

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Lo que sucede primero, no es necesariamente el principio. Antes de ese “Principio”, suceden algunas cosas que nosotros no hemos podido o sabido percibir. Sin embargo, hay cosas que no cambian nunca. Hace tiempo, los sucesos que constituían historias eran las irregularidades de la experiencia. Sabemos que lo que no cambia son las Constantes de la Naturaleza pero, tampoco cambia el Amor de una madre por un hijo, la salida y la puesta del Sol, nuestra curiosidad, y otras muchas cosas que conviven con nosotros en lo cotidiano.

                                                                    Hay cosas en la Naturaleza que son inmutables

Poco a poco, los científicos llegaron a apreciar el misterio de la regularidad y lo predecible del mundo. Pese a la concatenación de movimientos caóticos e impredecibles de átomos y moléculas, nuestra experiencia cotidiana es la de un mundo que posee una profunda consistencia y continuidad. Nuestra búsqueda de la fuente de dicha consistencia atendía primero a las leyes de la Naturaleza que son las que gobiernan como cambian las cosas. Sin embargo, y al mismo tiempo, hemos llegado a identificar una colección de números misteriosos arraigados en la regularidad de la apariencia. Son las Constantes de la Naturaleza que, como la carga y la masa del electrón o la velocidad de la luz, le dan al Universo un carácter distintivo y lo singulariza de otros que podríamos imaginar. Todo esto, unifica de una vez nuestro máximo conocimiento y también, nuestra infinita ignorancia.

http://extremisimo.com/wp-content/uploads/2009/09/swift-m31.jpg

                              En esta galaxia también  están presentes las constantes de la Naturaleza

Esos números misteriosos (el valor de esas constantes fundamentales), son medidos con una precisión cada vez mayor y modelamos nuestros patrones fundamentales de masa y tiempo alrededor de su invariancia. Sin embargo, no podemos explicar sus valores. ¿Por qué la constante de estructura fina vale 1/137? Nadie puede contestar a esa “simple” pregunta. Sabemos que ahí, en esa constante, están involucrados los tres guarismos h, e, y c. El primero es la constante de Planck (la mecánica cuántica), el segundo el Electrón (el electromagnetismo), y, el tercero, la velocidad de la luz (la relatividad especial de Eisntein).

A pesar del cambio incesante y la dinámica del mundo visible, existen aspectos misteriosos del ritmo del Universo que son inquebrantables en su constancia, así lo podemos comprobar en la fuerza gravitatoria o en la velocidad de la luz en el vacío entre otros. Son estas misteriosas cosas invariables las que hacen de nuestro Universo el que es y lo distingue de otros muchos que pudiéramos imaginar. Existe un hilo invisble que teje incesante una continuidad a lo largo y a lo ancho de toda la Naturaleza: Algunas cosas cambian para que todo siga igual.

 Mira, la estrella cometa

Allí lejos, en esos otros mundos que, situados en galaxias lejanas son parecidos al nuestro, seguramente también, pasarán las mismas cosas que aquí

En regiones lejanas del Universo, por muy extrañas que nos pudieran parecer, también estarían regidas por las mismas constantes de la Naturaleza que en la nuestra, el Sistema solar. Esas constantes están presentes en todas partes y, al igual que las cuatro fuerzas fundamentales, disponen que todo transcurra como debe ser.

Así que, tomando como patrón universal esas constantes, podemos esperar que ciertas cosas sean iguales en otros lugares del espacio además de la Tierra, lo único que in situ, conocemos. Hasta donde nuestros conocimientos han llegado también parece razonable pensar que dichas constantes fueron y serán las mismas en otros tiempos además de hoy, ya que, para algunas cosas, ni la historia ni la geografía importan. De hecho, quizá sin un substrato semejante de realidades invariables no podrían existir corrientes superficiales de cambio ni ninguna complejidad de mente y materia. Todos sabemos, por ejemplo que, si la carga del electrón variara aunque sólo fuese una diez millonésima parte de la que es, la vida no podría existir.

                       Esas constantes hacen posible nuestra presencia aquí

La invariancia de las constantes hace posible que nuestro Universo contenga las maravillas que podemos en él observar. Sin embargo, a lo largo de la historia muchos se han empeñado en hacerlas cambiar…pero no lo consiguieron. No pocas veces tenemos que leer en la prensa o revistas “especializadas” noticas como estas:

“Nueva evidencia sostiene que los seres humanos vivimos en un área del Universo que está hecha especialmente para nuestra existencia. ¿Según los cientificos? Esto es lo que más se aproxima a la realidad. El controversial hallazgo se obtuvo observando una de las constantes de la naturaleza, la cual parece ser diferente en distintas partes del cosmos.”

 

 

El problema de si las constantes físicas son constantes se las trae. Aparte del trabalenguas terminológico arrastra tras de sí unas profundas consecuencias conceptuales. Lo primero, uno de los pilares fundamentales de la relatividad especial es el postulado de que las leyes de la física son las mismas con independencia del observador. Esto fue una generalización de lo que ya se sabía cuando se comenzó a estudiar el campo electromagnético, pero todo lo que sabemos en la actualidad nos lleva a concluir que Lo que ocurra en la Naturaleza del Universo está en el destino de la propia Naturaleza del Cosmos, de las leyes que la rigen y de las fuerzas que gobiernan sus mecanismos sometidos a principios y energías que, en la mayoría de los casos, se pueden escapar a nuestro actual conocimiento.

 

Los posibles futuros de nuestro universo

 

Yo aconsejaría a los observadores que informaron y realizaron “el estudio” (que se menciona más arriba) que prestaran más atención o que cambiaran los aparatos e instrumentos de los que se valieron para llevarlo a cabo, toda vez que hacer tal afirmación, además de osados, se les podría calificar de incompetentes.

De estar en lo cierto, tal informe se opondría al principio de equivalencia de Albert Einstein, el cual postula que las leyes de la física son las mismas en cualquier región del Universo. “Este descubrimiento fue una gran sorpresa para todos”, dice John Webb, de la Universidad de New South Wales, en Sidney (Australia ), líder del estudio que sigue diciendo: Aún más sorprendente es el hecho de que el cambio en la constante parece tener una orientación, creando una “dirección preferente”, o eje, a través del Universo. Esa idea fue rechazada más de 100 años atrás con la formulación de la teoría de la relatividad de Einstein que, de momento, no ha podido ser derrocada (aunque muchos lo intentaron).

profesor diseño grafico, profesor diseño web, curso illustrator, curso photoshop, curso dreamweaver, diseno grafico, diseño web

                                Los autores de tal “estudio” se empeñaron en decir que:

“La Tierra se ubica en alguna parte del medio de los extremos, según la constante “alpha”. Si esto es correcto, explicaría por qué dicha constante parece tener un valor sutilmente sintonizado que permite la química, y por lo tanto la vida, como la conocemos.

Con un aumento de 4% al valor de “alpha”, por ejemplo, las estrellas no podrían producir carbón, haciendo nuestra bioquímica imposible, según información de New Scientist.”

Siendo cierto que una pequeña variación de Alfa, no ya el 4%, sino una simple diezmillonésima, la vida no podría existir en el Universo. Está claro que algunos, no se paran a la hora de adquirir una efímera notoriedad, ya que, finalmente, prevalecerá la verdad de la invariancia de las constantes que, a lo largo de la historia de la Física y la Cosmología, muchas veces han tratado de hacerlas cambiantes a lo largo del tiempo, y, sin embargo, ahí permanecen con su inamovible estabilidad.

Veamos por encima, algunas constantes:

La Constante de Gravitación Universal: G

La primera constante fundamental es G, la que ponemos delante de la fórmula de la gravedad de Newton. Es una simple constante de proporcionalidad pero tambien ajusta magnitudes: se expresa en N*m2/Kg2.

G = (6{,}67428\pm 0{,}00067) \cdot 10^{-11}~\mathrm{\frac{m^3}{kg \cdot s^2}}

Es tal vez la constante peor medida (sólo se está seguro de las tres primeras cifras…), y como vemos la fuerza de la gravedad es muy débil (si no fuera porque siempre es atractiva ni la sentiríamos).

La Constante Electrica: K

                                             No confundir con la constante K de Bolzman para termodinamica y gases..

La ley de Coulom es practicamente igual a la de la gravitación de Newton, si sustituimos las masas por las cargas, es inversa al cuadrado de la distancia y tiene una constante de proporcionalidad llamada K.  La constante es la de de Coulomb y su valor para unidades del SI es K = 9 * 109Nm2C2

La velocidad de la luz c = 299.792.458 m/s y se suele aproximar por 3·10^8m/s

Según la teoría de la relatividad de Einstein, ninguna información puede viajar a mayor velocidad que la luz. Científicos australianos afirman, sin embargo, haber desarrollado las fórmulas que describen viajes más allá de este límite.

Que la velocidad de la luz es una constante se comprobó hasta la saciedad en diversos experimentos, como el famoso experimento Michelson-Morley que determinó mediante un interferómetro que la velocidad de la luz no dependía de la velocidad del objeto que la emitía, esto descartó de golpe la suposición de que hubiera un “eter” o sustancia necesaria por la que se propagara la luz.

En su lugar aparecieron las famosas transformaciones de Lorentz. La contracción de Lorentz explicaba el resultado del experimento. La rapidez constante de la luz es uno de los postulados fundamentales (junto con el principio de causalidad y la equivalencia de los marcos de inercia) de la Teoría de la Relatividad Especial.

Así que, amigos míos, esas cantidades conservarán su significado natural mientras la ley de gravitación y la de la propagación de la luz en el vacío y los dos principios de la termodinámica sigan siendo válidos. A tal respecto Max Planck solía decir:

“Por lo tanto, al tratarse de números naturales que no inventaron los hombres, siempre deben encontrarse iguales cuando sean medidas por las inteligencias más diversas con los métodos más diversos” .

 

 

 

 

En sus palabras finales alude a la idea de observadores situados en otros lugares del Universo que definen y entienden esas cantidades de la misma manera que nosotros, sin importar que aparatos o matemáticas pudieran emplear para realizar sus comprobaciones.

Estaba claro que Planck apelaba a la existencia de constantes universales de la Naturaleza como prueba de una realidad física completamente diferente de las mentes humanas. Pero él quería ir mucho más lejos y utilizaba la existencia de estas constantes contra los filósofos positivistas que presentaban la ciencia como una construcción enteramente humana: puntos precisos organizados de una forma conveniente por una teoría que con el tiempo sería reemplazada por otra mejor. Claro que Planck reconocía que la inteligencia humana, al leer la naturaleza había desarrolado teorías y ecuaciones para poder denotarlas pero, sin embargo, en lo relativo a las constantes de la naturaleza, éstas habían surgido sin ser invitadas y, como mostraban claramente sus unidades naturales (unidades de Planck) no estaban escogidas exclusivamente por la conveniencia humana.

 

La velocidad de c incide en todo el universo

Las constantes de la Naturaleza inciden en todos nosotros y, sus efectos, están presentes en nuestras mentes que, sin ellas, no podrían funcionar de la manera creadora e imaginativa que lo hacen. Ellas le dan el ritmo al Universo y hacen posible que todo transcurra como debe transcurrir.

Es curioso comprobar que, una de las paradojas de nuestro estudio del Universo circundante es que a medida que las descripciones de su funcionamiento se hacen más precisas y acertadas, también se alejan cada vez más de toda la experiencia humana que, al estar reducidas a un ámbito muy local y macroscópico, no puede ver lo que ocurre en el Universo en su conjunto y, por supuesto, tampoco en ese otro “universo” de lo infinitesimal que nos define la mecánica cuántica en el que, cuando nos acercamos, podemos observar cosas que parecen fuera de nuestro mundo, aunque en realidad, sí que están aquí.

 

La revolución de la mecánica cuántica empieza a materializarse, y el qubit es el principal protagonista. Siendo la unidad mínima de información de este extraño mundo, permitirá procesar toda la información existente en segundos. La revolución de la mecánica cuántica empieza a materializarse, y el qubit es el principal protagonista. Siendo la unidad mínima de información de este extraño mundo, permitirá procesar toda la información existente en segundos.


No podemos descartar la idea de que, en realidad, puedan existir “seres también infiniotesimales” que, en sus “pequeños mundos” vean transcurrir el tiempo como lo hacemos nosotros aquí en la Tierra. En ese “universo” especial que el ojo no puede ver, podrían existir otros mundos y otros seres que, como nosotros, desarrollan allí sus vidas y su tiempo que, aunque también se rigen por las invariantes constantes univerales, para ellos, por su pequeñez, el espacio y el tiempo tendrán otros significados. Si pensamos por un momento lo que nosotros y nuestro planeta significamos en el contexto del inmenso universo… ¿No viene a suponer algo así?

Einstein nos dejó dichas muchas cosas interesantes sobre las constantes de la Naturaleza en sus diferentes trabajos. Fue su genio e intuición sobre la teoría de la relatividad especial la que dotó a la velocidad de la luz en el vacío del status especial como máxima velocidad a la que puede transmitirse información en el Universo. El supo revelar todo el alcance de lo que Planck y Stoney simplemente habían supuesto: que la velocidad de la luz era una de las constantes sobrehumanas fundamentales de la Naturaleza.

 

La luz se expande por nuestro Universo de manera isotrópica, es decir, se expande por igual en todas las direcciones. Así actúan las estrellas que emiten su luz o la bombilla de una habitación. Cuando es anisotrópica, es decir que sólo se expande en una dirección, tendríamos que pensar, por ejemplo, en el foco de un teatro que sólo alumbra a la pianista que nos deleita con una sonata de Bach.

                                         La luz de las estrellas: Podemos ver como se expande por igual en todas las direcciones del espacio (Isotrópica)

Claro que, cuando hablamos de las constantes, se podría decir que algunas son más constantes que otras. La constante de Boltzmann es una de ellas, es en realidad una constante aparente que surje de nuestro hábito de medir las cosas en unidades. Es sólo un factor de conversión de unidades de energía y temperatura. Las verdaderas constantes tienen que ser números puros y no cantidades con “dimensiones”, como una velocidad, una masa o una longitud.

Las cantidades con dimensiones siempre cambian sus valores numéricos si cambiamos las unidades en las que se expresan.

                                                     Las constantes fundamentales determinan el por qué, en nuestro Universo, las cosas son como las observamos.

Y, a todo esto, la teoría cuántica y de la Gravitación gobiernan reinos muy diferentes que tienen poca ocasión para relacionarse entre sí. Mientras la una está situada en el mundo infinitesimal, la otra, reina en el macrocosmos “infinito” del inmenso Universo. Sin embargo, las fuerzas que rigen en el mundo de los átomos son mucho más potentes que las que están presentes en ese otro mundo de lo muy grande. ¡Qué paradoja!

¿Dónde están los límites de la teoría cuántica y los de la relatividad general? Somos afortunados al tener la respuesta a mano, Las unidades de Planck nos dan la respuesta a esa pregunta:

Supongamos que tomamos toda la masa del Universo visible y determinamos la longitud de onda cuántica. Podemos preguntarnos en que momento esa longitud de onda cuántica del Universo visible superará su tamaño. La respuesta es: Cuando el Universo sea más pequeño que la longitud de Planck (10-33 centímetros), más joven que el Tiempo de Planck (10-43 segundos) y supere la Temperatura de Planck (1032 grados). Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender a qué se parece el mundo a una escala menor que la Longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la Gravedad.

El satélite Planck un observatorio que explora el universo lleva el mismo nombre del fundador de la teoría cuántica será pura coincidencia?. Credito: ESA. La Gravedad cuántica queda aún muy lejos de nuestro entendimiento.

La Relatividad General la teoría de Einstein de la gravedad, nos da una base útil para matemáticamente modelar el universo a gran escala -, mientras que la Teoría Cuántica nos da una base útil para el modelado de la física de las partículas subatómicas y la probabilidad de pequeña escala, de la física de alta densidad de energía de los inicios del universo – nanosegundos después del Big Bang – en la cuál la relatividad general sólo la modela como una singularidad y no tiene nada más que decir sobre el asunto.

Las teorías de la Gravedad Cuántica pueden tener más que decir, al extender la relatividad general dentro de una estructura cuantizada del espacio tiempo puede ser que nosotros podamos salvar la brecha existente entre la física de gran escala y de pequeña escala, al utilizar por ejemplo la Relatividad Especial Doble o Deformada.

  ¡Es tanto lo que nos queda por saber!

El día que se profundice y sepamos leer todos los mensajes subyacentes en el número puro y adimensional 137, ese día, como nos decía Heinsemberg, se habrán secado todas las fuentes de nuestra ignorancia. Ahí, en el 137, Alfa (α) Constante de estructura Fina, residen los secretos de la Relatividad Especial, la Velocidad de la Luz, c, el misterio del electromagnetismo, el elextrón, e, y, la Mecánica Cuántica, es decir el cuanto de acción de Planck, h

emilio silvera