sábado, 13 de febrero del 2016 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




La Vida de las Partículas

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

La mente humana es tan compleja que no todos ante la misma cosa vemos lo mismo. Nos enseñan figuras y dibujos y nos piden que digamos (sin pensarlo) la primera cosa que nos sugiere. De entre diez personas, sólo coinciden tres, los otros siete divergen en la apreciación de lo que el dibujo o la figura les sugiere. Un paisaje puede ser descrito de muy distintas maneras según quién lo pueda contar.

Solo el 1% de las formas de vida que han vivido en la Tierra están ahora presentes, el 99%, por una u otra razón se han extinguido. Sin embargo, ese pequeño tanto por ciento de la vida actual, supone unos cinco millones de especies según algunas estimaciones. La  Tierra acoge a todas esas especies u palpita de vida que prolifera por doquier. Hay seres vivos por todas partes y por todos los rincones del inmenso mosaico de ambientes que constituye nuestro planeta encontramos formas de vida, cuyos diseños parecen hechos a propósito para adaptarse a su hábitat, desde las profundidades abisales de los océanos hasta las más altas cumbres, desde las espesas selvas tropicales a las planicies de hielo de los casquetes polares. Se ha estimado la edad de 3.800 millones de años desde que aparecieron los primeros “seres vivos” sobre el planeta (dato de los primeros microfósiles). Desde entonces no han dejado de aparecer más y más especies, de las que la mayoría se han ido extinguiendo. Desde el siglo XVIII en que Carlos Linneo propuso su Systema Naturae no han cesado los intentos por conocer la Biodiversidad…, de la que por cierto nuestra especie, bautizada como Homo sapiens por el propio Linneo, es una recién llegada de apenas 200.000 años.

Ahora, hablaremos de la vida media de las partículas elementales (algunas no tanto). Cuando hablamos del tiempo de vida de una partícula nos estamos refiriendo al tiempo de vida media, una partícula que no sea absolutamente estable tiene, en cada momento de su vida, la misma probabilidad de desintegrarse. Algunas partículas viven más que otras, pero la vida media es una característica de cada familia de partículas.

También podríamos utilizar el concepto de “semivida”. Si tenemos un gran número de partículas idénticas, la semivida es el tiempo que tardan en desintegrarse la mitad de ese grupo de partículas. La semivida es 0,693 veces la vida media.

http://www.monografias.com/trabajos75/agua-pesada/image003.gif

Si miramos una tabla de las partículas más conocidas y familiares (fotón, electrón muón tau, la serie de neutrinos, los mesones con sus piones, kaones, etc., y, los Hadrones bariones como el protón, neutrón, lambda, sigma, psi y omega, en la que nos expliquen sus propiedades de masa, carga, espín, vida media (en segundos) y sus principales maneras de desintegración, veríamos como difieren las unas de las otras.

Algunas partículas tienen una vida media mucho más larga que otras. De hecho, la vida media difiere enormemente. Un neutrón por ejemplo, vive 10¹³ veces más que una partícula Sigma⁺, y ésta tiene una vida 10⁹ veces más larga que la partícula sigma cero. Pero si uno se da cuenta de que la escala de tiempo “natural” para una partícula elemental (que es el tiempo que tarda su estado mecánico-cuántico, o función de ondas, en evolucionar u oscilar) es aproximadamente 10ˉ²⁴ segundos, se puede decir con seguridad que todas las partículas son bastantes estables. En la jerga profesional de los físicos dicen que son “partículas estables”.

http://nuclear.fis.ucm.es/FERIA/IMAGENES/TAB_ISOTOPOS.JPG

¿Cómo se determina la vida media de una partícula? Las partículas de vida larga, tales como el neutrón y el muón, tienen que ser capturadas, preferiblemente en grandes cantidades, y después se mide electrónicamente su desintegración. Las partículas comprendidas entre 10ˉ¹⁰ y 10ˉ⁸ segundos solían registrarse con una cámara de burbujas, pero actualmente se utiliza con más frecuencia la cámara de chispas. Una partícula que se mueve a través de una cámara de burbujas deja un rastro de pequeñas burbujas que puede ser fotografiado. La Cámara de chispas contiene varios grupos de de un gran número de alambres finos entrecruzados entre los que se aplica un alto voltaje. Una partícula cargada que pasa cerca de los cables produce una serie de descargas (chispas) que son registradas electrónicamente. La ventaja de esta técnica respecto a la cámara de burbujas es que la señal se puede enviar directamente a una computadora que la registra de manera muy exacta.

Una partícula eléctricamente neutra nunca deja una traza directamente, pero si sufre algún tipo de interacción que involucre partículas cargadas (bien porque colisionen con un átomo en el detector o porque se desintegren en otras partículas), entonces desde luego que pueden ser registradas. Además, realmente se coloca el aparato entre los polos de un fuerte imán. Esto hace que la trayectoria de las partículas se curve y de aquí se puede medir la velocidad de las partículas. Sin embargo, como la curva también depende de la masa de la partícula, es conveniente a veces medir también la velocidad de una forma diferente.

 

Una colisión entre un protón y un anti-protón registrada mediante una cámara de chispas del experimento UA5 del CERN.

En un experimento de altas energías, la mayoría de las partículas no se mueven mucho más despacio que la velocidad de la luz. Durante su carta vida pueden llegar a viajar algunos centímetros y a partir de la longitud media de sus trazas se puede calcular su vida. Aunque las vidas comprendidas entre 10ˉ¹³ y 10ˉ²⁰ segundos son muy difíciles de medir directamente, se pueden determinar indirectamente midiendo las fuerzas por las que las partículas se pueden transformar en otras. Estas fuerzas son las responsables de la desintegración y, por lo tanto, conociéndolas se puede calcular la vida de las partículas, Así, con una pericia ilimitada los experimentadores han desarrollado todo un arsenal de técnicas para deducir hasta donde sea posible todas las propiedades de las partículas. En algunos de estos procedimientos ha sido extremadamente difícil alcanzar una precisión alta. Y, los datos y números que actualmente tenemos de cada una de las partículas conocidas, son los resultados acumulados durante muchísimos años de medidas  experimentales y de esa manera, se puede presentar una información que, si se valorara en horas de trabajo y coste de los proyectos, alcanzaría un precio descomunal pero, esa era, la única manera de ir conociendo las propiedades de los pequeños componentes de la materia.

Que la mayoría de las partículas tenga una vida media de 10ˉ⁸ segundos significa que son ¡extremadamente estables! La función de onda interna oscila más de 10²² veces/segundo. Este es el “latido natural de su corazón” con el cual se compara su vida. Estas ondas cuánticas pueden oscilar 10ˉ⁸ x 10²², que es 1¹⁴ o 100.000.000.000.000 veces antes de desintegrarse de una u otra manera. Podemos decir con toda la seguridad que la interacción responsable de tal desintegración es extremadamente débil.

Se habla de ondas cuánticas y también, de ondas gravitacionales. Las primeras han sido localizadas y las segundas están siendo perseguidas.

Aunque la vida de un neutrón sea mucho más larga (en promedio un cuarto de hora), su desintegración también se puede atribuir a la interacción débil. A propósito, algunos núcleos atómicos radiactivos también se desintegran por interacción débil, pero pueden necesitar millones e incluso miles de millones de años para ello. Esta amplia variación de vidas medias se puede explicar considerando la cantidad de energía que se libera en la desintegración. La energía se almacena en las masas de las partículas según  la bien conocida fórmula de Einstein E = Mc². Una desintegración sólo puede tener lugar si la masa total de todos los productos resultantes es menor que la masa de la partícula original. La diferencia entre ambas masas se invierte en energía de movimiento. Si la diferencia es grande, el proceso puede producirse muy rápidamente, pero a menudo la diferencia es tan pequeña que la desintegración puede durar minutos o incluso millones de años. Así, lo que determina la velocidad con la que las partículas se desintegran no es sólo la intensidad de la fuerza, sino también la cantidad de energía disponible.

Si no existiera la interacción débil, la mayoría de las partículas serían perfectamente estables. Sin embargo, la interacción por la que se desintegran las partículas π°, η y Σ° es la electromagnética. Se observará que estas partículas tienen una vida media mucho más corta, aparentemente, la interacción electromagnética es mucho más fuerte que la interacción débil.

Durante la década de 1950 y 1960 aparecieron tal enjambre de partículas que dio lugar a esa famosa anécdota de Fermi cuando dijo: “Si llego a adivinar esto me hubiera dedicado a la botánica.”

Si la vida de una partícula  es tan corta como 10ˉ²³ segundos, el proceso de desintegración tiene un efecto en la energía necesaria para producir las partículas ante de que se desintegre. Para explicar esto, comparemos la partícula con un diapasón que vibra en un determinado modo. Si la “fuerza de fricción” que tiende a eliminar este modo de vibración es fuerte, ésta puede afectar a la forma en la que el diapasón oscila, porque la altura, o la frecuencia de oscilación, está peor definida. Para una partícula elemental, esta frecuencia corresponde a su energía. El diapasón resonará con menor precisión; se ensancha su curva de resonancia. Dado que para esas partículas extremadamente inestable se miden curvas parecidas, a medida se las denomina resonancias. Sus vidas medias se pueden deducir directamente de la forma de sus curvas de resonancia.

http://i.livescience.com/images/i/22669/i02/cms-higgs.jpg

Bariones Delta. Un ejemplo típico de una resonancia es la delta (∆), de la cual hay cuatro especies ∆ˉ, ∆⁰, ∆⁺ y ∆⁺⁺(esta última tiene doble carga eléctrica). Las masas de las deltas son casi iguales 1.230 MeV. Se desintegran por la interacción fuerte en un protón o un neutrón y un pión.

Existen tanto resonancias mesónicas como bariónicas . Las resonancias deltas son bariónicas. Las resonancias deltas son bariónicas. (También están las resonancias mesónicas rho, P).

Las resonancias parecen ser solamente una especie de versión excitada de los Hadrones estable. Son réplicas que rotan más rápidamente de lo normal o que vibran de diferente manera. Análogamente a lo que sucede cuando golpeamos un gong, que emite sonido mientras pierde energía hasta que finalmente cesa de vibrar, una resonancia termina su existencia emitiendo piones, según se transforma en una forma más estable de materia.

Por ejemplo, la desintegración de una resonancia ∆ (delta) que se desintegra por una interacción fuerte en un protón o neutrón y un pión, por ejemplo:

∆⁺⁺→р + π⁺;  ∆⁰→р + πˉ; o п+π⁰

En la desintegración de un neutrón, el exceso de energía-masa es sólo 0,7 MeV, que se puede invertir en poner en movimiento un protón, un electrón y un neutrino. Un Núcleo radiactivo generalmente tiene mucha menos energía a su disposición.

El estudio de los componentes de la materia tiene una larga historia en su haber, y, muchos son los logros conseguidos y muchos más los que nos quedan por conseguir, ya que, nuestros conocimientos de la masa y de la energía (aunque nos parezca lo contrario), son aún bastante limitados, nos queda mucho por descubrir antes de que podamos decir que dominamos la materia y sabemos de todos sus componentes. Antes de que eso llegue, tendremos que conocer, en profundidad, el verdadero origen de la Luz que esconde muchos secretos que tendremos que desvelar.

Esperemos que con los futuros experimentos del LHC y de los grandes Aceleradores de partículas del futuro,  se nos aclaren algo las cosas y podamos avanzar en el perfeccionamiento del Modelo Estándar de la Física de Partículas que, como todos sabemos es un Modelo incompleto que no contiene a todas las fuerzas de la Naturaleza y, cerca de una veintena de sus parámetros son aleatorios y no han sido explicados.(Bueno, ahora son 19 después del descubrimiento del Bosón de Higgs).

Sin embargo, a mí particularmente me quedan muchas dudas al respecto.

emilio silvera

reando Modelos Científicos para saber

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (3)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

¿Cómo sabemos (si son ciertas) las cosas que pensamos que sabemos?

¿A qué se refieren los científicos cuando dicen que ellos “conocen” lo que hay dentro del un átomo, por ejemplo, o lo que pasó en los tres primeros minutos de vida del Universo?

Se refieren a que tienen lo que ellos denominan un modelo del átomo, o del universo temprano, o lo que sea en que ellos estén interesados, y que este modelo encaja con el resultado de sus experimentos, o sus observaciones del mundo. Este tipo de modelo científico no es una representación física de la cosa real, del mismo modo que un modelo de avión representa un avión de tamaño natural, sino que es una imagen mental que se describe mediante un grupo de ecuaciones matemáticas.

Los átomos y las moléculas que componen el aire que respiramos, por ejemplo, se pueden describir en términos de un modelo en el que imaginamos cada partícula como si fuera una pequeña esfera perfectamente elástica (una diminuta bola de billar), con todas las pequeñas esferas rebotando unas contra las otras y contra las paredes del recipiente.

Ésa es la imagen mental, pero es sólo la mitad del modelo; lo que lo hace un modelo científico es describir el modo como se mueven las esferas y rebotan unas contra otras mediante un grupo de leyes físicas, escritas en términos de ecuaciones matemáticas. En este caso, estas son esencialmente las leyes del movimiento descubiertas por Isaac Newton hacen más de 300 años.

Bianca Atwell y el átomo

         Mirando dentro del átomo

Utilizando estas leyes matemáticas es posible predecir, por ejemplo, qué le pasará a la presión ejercida por un gas si se aplasta hasta la mitad de su volumen inicial. Si hacemos el experimento, el resultado que se obtiene encaja con la predicción del Modelo (en este caso la presión se doblará), lo que lo convierte en un buen modelo.

Naturalmente, no deberíamos sorprendernos de que el modelo estándar de un gas que lo describe en términos de pequeñas bolas que rebotan unas contra otras de acuerdo con las leyes de Newton haga esta predicción en concreto correcta, porque los experimentos fueron hechos primero, y el modelo fue diseñado o construido, para hacer encajar los resultados de esos experimentos.

                             Tenemos modelos para mtodo

El siguiente paso en el proceso científico es utilizar el modelo que se ha desarrollado desde las medidas efectuadas en un grupo de experimentos para hacer predicciones (predicciones precisas, matemáticas) sobre lo que le pasará al mismo sistema cuando se hacen experimentos diferentes. Si el modelo hacer predicciones “correctas” bajo nuevas circunstancias, demuestra que es un buen modelo; si fracasa al hacer las predicciones correctas, no se puede descartas completamente, porque todavía nos dice algo útil sobre los primeros experimentos; pero en el mejor de los casos tiene una aplicabilidad limitada.

De hecho, todos los modelos científicos tienen aplicabilidad limitada. Ninguno de ellos es “la verdad”. El modelo de un átomo como una pequeña esfera perfectamente elástica funciona bien en cálculos de cambio de presión de un gas bajo circunstancias diferentes, pero si queremos describir el modo en que el átomo emite o absorbe luz, necesitamos un modelo de átomo que al menos tenga dos componentes, un núcleo central diminuto (que se puede considerar él mismo como una pequeña esfera perfectamente elástica para determinados fines) rodeado por una nube de electrones.

         Las cosas que creemos saber… ¡No siempre son ciertas!

Los modelos científicos son representaciones de la realidad, no la realidad en sí misma, y no importa lo bien que funcionen o lo precisas que sean sus predicciones bajo circunstancias apropiadas, siempre se considerarán aproximaciones y ayudas a la imaginación, más que la verdad absoluta. Cuando un científico afirma, por ejemplo, que el núcleo de un átomo está compuesto por partículas denominadas protones y neutrones (nucleones) lo que en realidad debería decir es que el núcleo de un átomo se comporta, bajo determinadas circunstancias, como si estuviera formado de protones y neutrones. Los mejores científicos toman el “como si” como se lee, pero entienden que sus modelos son, efectivamente, sólo modelos; científicos menores a menudo olvidan esta diferencia crucial.

Los científicos menos y muchos no-científicos, tienen otra idea equivocada. A menudo piensan que el papel de los científicos hoy en día es llevar a cabo experimentos que probarán la exactitud de un modelo con una precisión cada vez mayor -hacia posiciones con más y más decimales- ¡En absoluto! La razón para llevar a cabo experimentos que demuestren predicciones previas no comprobadas es descubrir (como decía Feynman) donde fallan los modelos.

Encontrar defectos en sus modelos es la esperanza abrigada por los mejores científicos, porque esos defectos -cosas que los modelos no pueden predecir o explicar en detalle- destacarán los lugares donde necesitamos una nueva comprensión, con modelos mejores, para progresar…

El arquetipo ejemplo de esto es la Gravedad. La ley de la gravedad de Newton se consideró la pieza clave de la física durante más de doscientos años, desde la década de 1680 hasta comienzos del siglo XX. Pero había unas pocas, aparentemente insignificantes, cosas que el modelo newtoniano no podía explicar (o predecir), referente a la órbita del planeta Mercurio y al modo como la luz se curva cuando pasa cerca del Sol.

El modelo de la Gravedad de Einstein, basado en su teoría general de la relatividad, explica lo mismo que el modelo de Newton, pero también explica los detalles sutiles de órbitas planetarias y curvatura de la luz. En ese sentido, es un modelo mejor y más completo que el anterior, y hace predicciones correctas (en particular, sobre el Universo en general) que el viejo modelo no hace. Pero el modelo de Newton todavía es todo lo que se necesita si se está calculando el vuelo de una sonda espacial desde la Tierra hasta la Luna. Se podrían hacer los mismos cálculos empleando la relatividad general, pero sería más tedioso por su complejidad y daría la misma respuesta, así que, en muchos casos donde no existe la complejidad, se utiliza el modelo más sencillo de Newton.

Así que, amigos, los modelos (todos los modelos) han sido y serán buenos en su momento y, también, como ocurrió con el de la Gravedad, vendrán otros nuevos que los superarán y servirán mejor y de manera más profunda en el conocimiento de las cosas que traten, llegando así un poco más lejos en nuestros conocimientos sobre la Naturaleza, ya que, a medida que observamos el Universo, nuestras mentes se abren al saber del mundo que nos rodea y cada vez, podemos comprender mejor lo que realmente ocurre en él.

Nuestras percepciones del Universo son, la mayoría de las veces, equivocadas, y nos formamos una idea de lo que allí está o de lo que allí ocurre que, en la realidad, es otra muy diferente. Y, eso, es así debido a que nuestros conocimientos son muy limitados sobre las cosas, y, está aconsejado por ideas preconcebidas que, muchas veces, entorpece la comprensión de esa realidad que incansables buscamos.

Cuando se consiguen describir de manera exitosa las cosas que ocurren en la Naturaleza, como es el caso de la Relatividad, tanto especial como General, a los físicos, les encanta definirlos como “modelo estándar”. El modelo de los gases de las bolas de billar (que también es conocido como teoría cinética, ya que trata de partículas en movimiento) es un modelo estándar. Pero cuando los físicos hablan de “el modelo estándar”, se están refiriendo a uno de los grandes triunfos de la ciencia del siglo XX.

Gravedad y Mecánica cuántica son los dos moldelos prevalentes hoy en la física del mundo, de la Naturaleza, del Universo. Ahí están las explicaciones que de la materia, del espacio tiempo y de las fuerzas universales y las constantes podemos dar y, estamos tratando de abrir camino a nuevas teorías y modelos que nos lleven más alla pero, necesitamos saber matemáticas que no se inventaron aún y también, disponer de energías imposibles, ya que, la energía de Planck de 1019 GeV necesaria para llegar hasta las cuerdas… ¡es sólo un suelo del futuro lejano!

                                                                 Mirando dentro del átomos

Así ocurre con los modelos que describen la Mecánica Cuántica y la Relatividad, son Modelos Hitos en la Historia de la Ciencia de la Humanidad. Ambos modelos han sido explicado aquí, en mis comentarios muchas veces y, además, no es este el motivo del presente trabajo que, se circunscribe a explicar lo que es un modelo científico y como funciona, al mismo tiempo de cómo se valora su validez que, en realidad, nunca será definitiva, que es lo que ocurre con nuestros conocimientos.

Así que, dicho todo lo anterior, podemos llegar a una conclusión que estaría bien y nos acercaría a la realidad: Lo que sabemos es lo que creemos saber del mundo que nos rodea, y, no es, de ninguna manera, lo que deberíamos saber si nos estamos refiriendo a la realidad de lo que es el Universo y de lo que su Naturaleza finalmente significa y nos quiere decir, para llegar a ese final de comprensión, se necesitarán muchos modelos que se irán desechando por otros que vendrán, y, de esa manera, la Humanidad se acercará a esa realidad que tanto persigue.

emilio silvera

Todo lo grande está hecho de cosas pequeñas

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 Tiempo de Planck
La interpretación de las unidades naturales de Stoney y Planck no era en absoluto obvia para los físicos. Aparte de ocasionarles algunos quebraderos de cabeza para entender esos números tan endiabladamente pequeños.

El tiempo de Planck o cronón (término acuñado en 1926 por Robert Lévi) es una unidad de tiempo, considerada como el intervalo temporal más pequeño que puede ser medido. Se denota mediante el símbolo tP. En cosmología, el tiempo de Planck representa el instante de tiempo más pequeño en el que las leyes de la física pueden ser utilizadas para estudiar la naturaleza y evolución del Universo. Se determina como combinación de otras constantes físicas en la forma siguiente:

 

<br />
t_P =<br />
\sqrt{\frac{\hbar G}{c^5}}<br />
\; \approx \quad<br />
5,39106(32) \cdot 10^{-44}<br />
segundos

donde:

\hbar es la constante de Planck reducida (conocida también como la constante de Dirac). 
G es la constante de Gravitación Universal;
c es la velocidad de la luz en el vacío.

Los números entre paréntesis muestran la desviación estándar.

 

En este ámbito hablamos de las cosas muy pequeñas, las que no se ven

Es el tiempo que necesita el fotón (viajando a la velocidad de la luz, c, para moverse a través de una distancia igual a la longitud de Planck.  Está dado por , donde G es la constante gravitacional (6, 672 59 (85) x 10-11 N m2 kg-2), ħ es la constante de Planck racionalizada (ħ = h/2л = 1,054589 x 10-34 Julios segundo), c, es la velocidad de la luz (299.792.458 m/s).

El valor del tiempo del Planck es del orden de 10-44 segundos.  En la cosmología del Big Bang, hasta un tiempo Tp después del instante inicial, es necesaria usar una teoría cuántica de la gravedad para describir la evolución del Universo. Todo, desde Einstein, es relativo.  Depende de la pregunta que se formule y de quién nos de la respuesta.

                   ¿El Tiempo? Muchos Filósofos lo quisieron explicar pero… ¡No pudieraon!

Si preguntamos ¿Qué es el tiempo?, tendríamos que ser precisos y especificar si estamos preguntando por esa dimensión temporal que no deja de fluir desde el Big Bang y que nos acompaña a lo largo de nuestras vidas, o nos referimos al tiempo atómico, ese adoptado por el SI, cuya unidad es el segundo y se basa en las frecuencias atómicas, definida a partir de una línea espectral particular de átomo de cesio 133, o nos referimos a lo que se conoce como tiempo civil, tiempo coordinado, tiempo de crecimiento, tiempo de cruce, tiempo de integración, tiempo de relajación, tiempo dinámico o dinámico de Baricéntrico, dinámico terrestre, tiempo terrestre, tiempo de Efemérides, de huso horario, tiempo estándar, tiempo local, tiempo luz, tiempo medio, etc. etc.  Cada una de estas versiones del tiempo, tiene una respuesta diferente, ya que, no es lo mismo el tiempo propio que el tiempo sidéreo o el tiempo solar, o solar aparente, o solar medio, o tiempo terrestre, o tiempo Universal.  Como se puede ver, la respuesta dependerá de cómo hagamos la pregunta.

                                      … Y que el mismo tiempo suele borrar

En realidad, para todos nosotros el único tiempo que rige es el que tenemos a lo largo de nuestras vidas, los otros tiempos, son inventos del hombre para facilitar sus tareas de medida, de convivencia o de otras cuestiones técnicas o astronómicas pero, sin embargo, el tiempo es solo uno; ese que comenzó cuando nació el Universo y que finalizará cuando este llegue a su final.

Lo cierto es que, para las estrellas supermasivas, cuando llegan al final de su ciclo y deja de brillar por agotamiento de su combustible nuclear, en ese preciso instante, el tiempo se agota para ella.  Cuando una estrella pierde el equilibrio existente entre la energía termonuclear (que tiende a expandir la estrella), y, la fuerza de gravedad (que tiende a comprimirla), al quedar sin oposición esta última, la estrella supermasiva se contrae aplastada bajo su propia masa.  Queda comprimida hasta tal nivel que llega un momento que desaparece,  para convertirse en un Agujero Negro, una singularidad, donde dejan de existir el “tiempo” y el espacio.  A su alrededor nace un horizonte de sucesos que, si se traspasa, se es engullido por la enorme gravedad del Agujero Negro.

    En la singularidad no se distorsiona, se para

El tiempo, de ésta manera, deja de existir en estas regiones del Universo que conocemos como singularidad.  El mismo Big Bang -dicen- surgió de una singularidad de energía y densidad infinitas que, al explotar, se expandió y creó el tiempo, el espacio y la materia.

Como contraposición a estas enormes densidades de las enanas blancas, estrellas de neutrones y Agujeros Negros, existen regiones del espacio que contienen menos galaxias que el promedio o incluso ninguna galaxia; a estas regiones las conocemos como vacío cósmico.  Han sido detectados vacíos con menos de una décima de la densidad promedio del Universo en escalas de hasta 200 millones de años luz en exploraciones a gran escala.  Estas regiones son a menudo esféricas.  El primer gran vacío en ser detectado fue el de Boötes en 1.981; tiene un radio de unos 180 millones de años luz y su centro se encuentra aproximadamente a 500 millones de años luz de la Vía Láctea.  La existencia de grandes vacíos no es sorprendente, dada la existencia de cúmulos de galaxias y supercúmulos a escalas muy grandes.

Mientras que en estas regiones la materia es muy escasa, en una sola estrella de neutrones, si pudiéramos retirar 1 cm3 de su masa, obtendríamos una cantidad de materia increíble.  Su densidad es de 1017 kg/m3, los electrones y los protones están tan juntos que se combinan y forman neutrones que se degeneran haciendo estable la estrella de ese nombre que, después del agujero negro, es el objeto estelar más denso del Universo.

Es interesante ver cómo a través de las matemáticas y la geometría, han sabido los humanos encontrar la forma de medir el mundo y encontrar las formas del Universo.  Pasando por Arquímedes, Pitágoras, Newton, Gauss o Riemann (entre otros), siempre hemos tratado de buscar las respuestas de las cosas por medio de las matemáticas.

“Magia es cualquier tecnología suficientemente avanzada”

Arthur C. Clarke

Pero también es magia el hecho de que, en cualquier tiempo y lugar, de manera inesperada, aparezca una persona dotada de condiciones especiales que le permiten ver, estructuras complejas matemáticas que hacen posible que la Humanidad avance considerablemente a través de esos nuevos conceptos que nos permiten entrar en espacios antes cerrados, ampliando el horizonte de nuestro saber.

Recuerdo aquí uno de esos extraños casos que surgió el día 10 de Junio de 1.854 con el nacimiento de una nueva geometría: La teoría de dimensiones más altas que fue introducida cuando Georg Friedrich Bernhard Riemann dio su célebre conferencia en la facultad de la Universidad de Gotinga en Alemania.  Aquello fue como abrir de golpe, todas las ventanas cerradas durante 2.000 años, de una lóbrega habitación que, de pronto, se ve inundada por la luz cegadora de un Sol radiante.  Riemann regaló al mundo las sorprendentes propiedades del espacio multidimensional.

Su ensayo de profunda importancia y elegancia excepcional, “sobre las hipótesis que subyacen en los fundamentos de la geometría” derribó pilares de la geometría clásica griega, que habían resistido con éxito todos los asaltos de los escépticos durante dos milenios.  La vieja geometría de Euclides, en la cual todas las figuras geométricas son de dos o tres dimensiones, se venía abajo, mientras una nueva geometría riemanniana surgía de sus ruinas.  La revolución riemanniana iba a tener grandes consecuencias para el futuro de las artes y las ciencias.  En menos de tres decenios, la “misteriosa cuarta dimensión” influiría en la evolución del arte, la filosofía y la Literatura en toda Europa.  Antes de que hubieran pasado seis decenios a partir de la conferencia de Riemann, Einstein utilizaría la geometría riemanniana tetradimensional para explicar la creación del Universo y su evolución mediante su asombrosa teoría de la relatividad general Ciento treinta años después de su conferencia, los físicos utilizarían la geometría decadimensional para intentar unir todas las leyes del Universo.  El núcleo de la obra de Riemann era la comprensión de las leyes físicas mediante su simplificación al contemplarlas en espacios de más dimensiones.

Contradictoriamente, Riemann era la persona menos indicada para anunciar tan profunda y completa evolución en el pensamiento matemático y físico.  Era huraño, solitario y sufría crisis nerviosas.  De salud muy precaria que arruinó su vida en la miseria abyecta y la tuberculosis.

Riemann nació en 1.826 en Hannover, Alemania, segundo de los seis hijos de un pobre pastor luterano que trabajó y se esforzó como humilde predicador  para alimentar a su numerosa familia que, mal alimentada, tendrían una delicada salud que les llevaría a una temprana muerte.  La madre de Riemann también murió antes de que sus hijos hubieran crecido.

A edad muy temprana, Riemann mostraba ya los rasgos que le hicieron famoso: increíble capacidad de cálculo que era el contrapunto a su gran timidez y temor a expresarse en público.  Terriblemente apocado era objeto de bromas de otros niños, lo que le hizo recogerse aún más en un mundo matemático intensamente privado que le salvaba del mundo hostil exterior.

La Geometría de los espacios curvos de Riemann que dejó atrás a Euclides con sus lineas y puntos

Para complacer a su padre, Riemann se propuso hacerse estudiante de teología, obtener un puesto remunerado como pastor y ayudar a su familia.  En la escuela secundaria estudió la Biblia con intensidad, pero sus pensamientos volvían siempre a las matemáticas.  Aprendía tan rápidamente que siempre estaba por delante de los conocimientos de sus instructores, que encontraron imposible mantenerse a su altura.  Finalmente, el director de la escuela dio a Riemann un pesado libro para mantenerle ocupado.  El libro era la Teoría de números de Adrien-Marie Legendre, una voluminosa obra maestra de 859 páginas, el tratado más avanzado del mundo sobre el difícil tema de la teoría de números.  Riemann devoró el libro en seis días.

Legendre: Sobre la teoría de los números

Cuando el director le preguntó: “¿Hasta dónde has leído?”, el joven Riemann respondió: “Este es un libro maravilloso. Ya me lo sé todo”.

Sin creerse realmente la afirmación de su pupilo, el director le planteó varios meses después cuestiones complejas sobre el contenido del libro, que Riemann respondió correctamente.

Con mil sacrificios, el padre de Riemann consiguió reunir los fondos necesarios para que, a los 19 años pudiera acudir a la Universidad de Gotinga, donde encontró a Carl Friedrich Gauss, el aclamado por todos “Príncipe de las Matemáticas”, uno de los mayores matemáticos de todos los tiempos.   Incluso hoy, si hacemos una selección por expertos para distinguir a los matemáticos más grandes de la Historia, aparecerá indudablemente Euclides, Arquímedes, Newton y Gauss.

                                                                                       Hannover, Alemania

Los estudios de Riemann no fueron un camino de rosas precisamente.  Alemania sacudida por disturbios, manifestaciones y levantamientos, fue reclutado en el cuerpo de estudiantes para proteger al rey en el palacio real de Berlín y sus estudios quedaron interrumpidos.

En aquel ambiente el problema que captó el interés de Riemann, fue el colapso que, según el pensaba, suponía la geometría euclidiana, que mantiene que el espacio es tridimensional y “plano” (en el espacio plano, la distancia más corta entre dos puntos es la línea recta; lo que descarta la posibilidad de que el espacio pueda estar curvado, como en una esfera).

Para Riemann, la geometría de Euclides era particularmente estéril cuando se la comparaba con la rica diversidad del mundo.  En ninguna parte vería Riemann las figuras geométricas planas idealizadas por Euclides.  Las montañas, las olas del mar, las nubes y los torbellinos no son círculos, triángulos o cuadrados perfectos, sino objetos curvos que se doblan y retuercen en una diversidad infinita.  Riemann, ante aquella realidad se rebeló contra la aparente precisión matemática de la geometría griega, cuyos fundamentos., descubrió el, estaban basados en definitiva sobre las arenas movedizas del sentido común y la intuición, no sobre el terreno firme de la lógica y la realidad del mundo.

Euclides nos habló de la obviedad de que un punto no tiene dimensión.  Una línea tiene una dimensión: longitud.  Un plano tiene dos dimensiones: longitud y anchura.  Un sólido tiene tres dimensiones: longitud, anchura y altura.   Y allí se detiene.  Nada tiene cuatro dimensiones, incluso Aristóteles afirmó que la cuarta dimensión era imposible.  En Sobre el cielo, escribió: “La línea tiene magnitud en una dirección, el plano en dos direcciones, y el sólido en tres direcciones, y más allá de éstas no hay otra magnitud porque los tres son todas.”  Además, en el año 150 d. C. el astrónomo Ptolomeo de Alejandría fue más allá de Aristóteles y ofreció, en su libro sobre la distancia, la primera “demostración” ingeniosa de que la cuarta dimensión es imposible.

En realidad, lo único que Ptolomeo demostraba era que, era imposible visualizar la cuarta dimensión con nuestros cerebros tridimensionales (de hecho, hoy sabemos que muchos objetos matemáticos no pueden ser visualizados, aunque puede demostrarse que en realidad, existen).  Ptolomeo puede pasar a la Historia como el hombre que se opuso a dos grandes ideas en la ciencia: el sistema solar heliocéntrico y la cuarta dimensión.

La ruptura decisiva con la geometría euclidiana llegó cuando Gauss pidió a su discípulo Riemann que preparara una presentación oral sobre los “fundamentos de la geometría”.  Gauss estaba muy interesado en ver si su discípulo podía desarrollar una alternativa a la geometría de Euclides.

Riemann desarrolló su teoría de dimensiones más altas.

Parte real (rojo) y parte imaginaria (azul) de la línea crítica Re(s) = 1/2 de la función zeta de Riemann. Pueden verse los primeros ceros no triviales en Im(s) = ±14,135, ±21,022 y ±25,011. La hipótesis de Riemann, por su relación con la distribución de los números primos en el conjunto de los naturales, es uno de los problemas abiertos más importantes en la matemática contemporánea.

Finalmente, cuando hizo su presentación oral en 1.854, la recepción fue entusiasta.  Visto en retrospectiva, esta fue, sin discusión, una de las conferencias públicas más importantes en la historia de las matemáticas.  Rápidamente se entendió por toda Europa la noticia de que Riemann había roto definitivamente los límites de la geometría de Euclides que había regido las matemáticas durante los milenios.

Riemann creó el tensor métrico para que, a partir de ese momento, otros dispusieran de una poderosa herramienta que les hacía posible expresar a partir del famoso teorema de Pitágoras (uno de los grandes descubrimientos de los griegos en matemáticas que establece la relación entre las longitudes de los tres lados de un triángulo rectángulo: afirma que la suma de los cuadrados de los lados menores es igual al cuadrado del lado mayor, la hipotenusa; es decir, si a y b son los longitudes de los dos catetos, y c es la longitud de la hipotenusa, entonces a2 + b2 = c2.  El teorema de Pitágoras, por supuesto, es la base de toda la arquitectura; toda estructura construida en este planeta está basada en él.  Claro que, es una herramienta para utilizar en un mundo tridimensional.)

El tensor métrico de Riemann, o N dimensiones, fue mucho más allá y podemos decir que es el teorema para dimensiones más altas con el que podemos describir fenómenos espaciales que no son planos, tales como un remolino causado en el agua o en la atmósfera, como por ejemplo también la curvatura del espacio en presencia de grandes masas.  Precisamente, el tensor de Riemann, permitió a Einstein formular su teoría de la gravedad y, posteriormente lo utilizo Kaluza y Klein para su teoría en la quinta dimensión de la que años más tarde se derivaron las teorías de supergravedad, supersimetría y, finalmente las supercuerdas.

Para asombro de Einstein, cuando tuvo ante sus ojos la conferencia de Riemann de 1.854, que le había enviado su amigo Marcel Grossman, rápidamente se dio cuenta de que allí estaba la clave para resolver su problema.  Descubrió que podía incorporar todo el cuerpo del trabajo de Riemann en la reformulación de su principio.  Casi línea por línea, el gran trabajo de Riemann encontraba su verdadero lugar en el principio de Einstein de a relatividad general.  Esta fue la obra más soberbia de Einstein, incluso más que su celebrada ecuación E=mc2.  La reinterpretación física de la famosa conferencia de Riemann se denomina ahora relatividad general, y las ecuaciones de campo de Einstein se sitúan entre las ideas más profundas de la historia de la ciencia.

emilio silvera

Abrir nuevos caminos

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

ABC -Ciencia

A punto de probar la hipótesis “sacrílega” que cambiaría la Física. Experimentos con protones pueden reescribir desde cero lo que sabemos sobre la estructura íntima de la materia.

Recreación de unos átomos

                                                                  Recreación de unos átomos – Archivo

JOSÉ MANUEL NIEVES – Madrid -

 

 

Un equipo internacional de investigadores está a punto de poner a prueba una hipótesis “sacrílega” sobre la naturaleza de los protones, uno de los “ladrillos” fundamentales del Universo. Si tienen razón, no habría más remedio que reescribir, prácticamente desde cero, lo que sabemos, o creíamos saber, sobre la estructura íntima de la materia.

Los experimentos, que ya se están llevando a cabo en Estados Unidos, tratarán de demostrar que los protones pueden sufrir cambios en el interior del núcleo de un átomo en determinadas condiciones. Algo que se considera impensable, ya que estas partículas están entre las más estables de todo el Universo. Tanto, que se consideran, virtualmente, eternas.

Dirigido por Anthony Thomas, de la universidad australiana de Adelaida, el equipo de científicos acaba de publicar sus predicciones en Physical Review Letters y ArXiv.org. Si al final se demuestra que están en lo cierto, una enorme cantidad de trabajos y experimentos llevados a cabo durante las últimas décadas deberán ser revisados a fondo.

“Para la mayoría de los científicos -explica Thomas- la idea de que la estructura interna de los protones pueda variar en determinadas ciscunstancias resulta absurda, incluso sacrílega. Pero para otros, igual que para mi, la evidencia de ese cambio interno ayudaría a explicar algunas de las inconsistencias de la Física Teórica.”

¿Pero qué significa exactamente que los protones puedan cambiar su estructura interna? Para nuestra vida diara, prácticamente nada, pero en los campos de la Física nuclear y la Física Teórica sería una auténtica revolución que lo cambiaría todo. Para entenderlo, veamos primero de qué está hecho un protón.

           Estructura interna del núcleo y sus nucleones

A pesar de que son extraordinariamente pequeños y constituyen una parte fundamental de los núcleos atómicos, los protones están, a su vez, formados por otras partículas, los quarks, que permanecen estrechamente unidas entre sí gracias a la acción de los gluones, partículas que, como un pegamento, son responsables de la cohesión interna de los núcleos atómicos. Y por lo que sabemos hasta ahora, tanto los protones libres como los que están integrados en átomos tienen, exactamente, la misma estructura.

Pero esa suposición no encaja bien con la Cromodinámica Cuántica, la teoría que describe las interacciones entre quarks y gluones. En base a esa teoría, los protones dentro de los núcleos de un átomo deberían estar sujetos, teóricamente, a cambios bajo ciertos niveles de energía.

CROMODIN1

Hasta ahora, sin embargo, ha sido prácticamente imposible probar si esos cambios se producen realmente. Pero gracias a los nuevos equipos del acelerador Thomas Jefferson, en Virgina, eso está a punto de cambiar.

“Disparando un haz de electrones contra un núcleo atómico -afirma Thomas- es posible medir la diferencia de energía de los electrones salientes, lo que representa un estado de cambio. Tenemos una predicciones bastante sólidas sobre lo que mostrarán los resultados de estas pruebas, y tenemos la esperanza de lograr una medida definitiva”.

Sean correctos o no, los resultados de Thomas y su equipo constituirán un enorme desafío para nuestra comprensión de uno de los “ladrillos” más importantes del Universo. Y conducirán, sin duda, hacia un mejor entendimiento de la física que se esconde detrás de cada una de las interacciones que se producen a nuestro alrededor.

“Las implicaciones para el mundo científico -concluye Thomas- son enormes. Estamos ante una de las mayores apuestas que se pueden hacer en Ciencia. Y podría representar todo un nuevo paradigma para la Física nuclear“.

La Ciencia no duerme

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Ciencia ABC

Hallan, por vez primera, la forma de teletransportar un organismo vivo. Científicos proponen cómo pasar la memoria de un microorganismo a otro en un experimento que parece sacado de Star Trek

La investigación puede ser un espectacuar primer avance en el teletransporte de seres vivos completos

La investigación puede ser un espectacuar primer avance en el teletransporte de seres vivos completos – Archivo

JOSÉ MANUEL NIEVES – Madrid

 

 

Nunca hasta ahora habíamos estado tan cerca de Star Trek y el impresionante teletransportador que permitía a la tripulación de la nave Enterprise desmaterializarse en un punto y reaparecer instantaneamente en otro. Un equipo mixto de investigadores de las Universidades de Purdue, en Estados Unidos, y Tsinghua, en China, ha elaborado, en efecto, el primer esquema realizado hasta ahora para teletransportar el estado cuántico interno (la memoria) de un microorganismo vivo a otro. La investigación constituye un espectacular avance en el camino, hoy propio de la ciencia ficción, del teletransporte de seres vivientes completos.

El esquema propuesto por Tongcan Li y Zhang-qi Yin prevé el uso de osciladores electromecánicos y circuitos superconductores para lograr su ambicioso objetivo. En un artículo publicado en Science Bulletin, los investigadores proponen también un esquema para crear un estado de “Gato de Schrodinger” en el que un microorganismo puede estar en dos lugares al mismo tiempo.

En 1935, Erwin Schroedinger propuso un experimento imaginario que consistía en encerrar un gato vivo dentro de una caja en la que se había introducido también una probeta con gas venenoso y un dispositivo, de una sola partícula radiactiva y que tenía una probabilidad del 50% de desintegrarse en un tiempo dado. Al desintegrarse la partícula, el veneno quedaría liberado y el gato moriría sin remedio. Una vez pasado el tiempo establecido, tendríamos un 50% de probabilidades de que la partícula se haya desintegrado y encontrar que el gato está muerto, y otro 50% de que no haya sido así y el gato siga vivo. En el idioma de la Física Cuántica, estaríamos ante una superposición de dos estados posibles (vivo o muerto) que no se concretará hasta el instante en que se abra la caja. Hasta ese momento, en efecto, podríamos decir sin miedo a equivocarnos que el gato está vivo y muerto al mismo tiempo. Sólo abriendo la caja modificaremos el estado de Superposición y haremos que se concrete una de las dos posibilidades.

Realidades «imposibles»

La idea de Schroedinger sirvió para revelar por primera vez al gran público las profundas implicaciones de la Mecánica Cuántica, en cuyo reino la superposición de estados de las partículas está a la orden del día y es pura rutina para los investigadores, que han tenido que acostumbrarse a realidades “imposibles”, como electrones que están en varios lugares a la vez, partículas que se comunican de forma instantánea sin importar la distancia o que, incluso, son capaces de viajar en el tiempo. Desde el hipotético experimento de Schroedinger, los físicos han dedicado décadas de estudio y esfuerzo para tratar de averiguar si las extrañas leyes que rigen en el universo cuántico pueden trasladarse también al mundo macroscópico. Y es que, después de todo, tanto nosotros como todo lo que nos rodea está hecho de partículas.

Por supuesto, se han hecho ya importantes avances. Y en las últimas dos décadas diversos grupos de investigadores han conseguido cada vez mejores resultados a la hora de “teletransportar” estados cuánticos, primero de partículas individuales (un único fotón, en 1997), después de átomos completos, y últimamente de conjuntos cada vez más numerosos de átomos. Recientemente, por ejemplo, un equipo de la Universidad de Colorado logró llevar al estado cuántico toda una membrada de aluminio de 15 micrómetros de diámetro (un micrómetro es la milésima parte de un milímetro), y “teletransportar” sus características y su movimiento a una serie de fotones aislados.

Pero nadie ha conseguido hacer lo mismo con un organismo vivo. Y todos los experimentos llevados a cabo hasta ahora están aún muy lejos de conseguir teletransportar un organismo, o su estado cuántico.

Bacteria cuántica

 

En su estudio, Tongcang Li y Zhang-qi Yin proponen colocar una bacteria sobre un oscilador electromecánico integrado en un circuito superconductor para conseguir un estado cuántico de superposición en el organismo y teletransportar después ese estado. En principio, el microorganismo es mucho más pequeño que la membrana del oscilador y no debería, por lo tanto, afectar a su funcionamiento. La bacteria, junto a la membrana, serían llevados a un estado cuántico. Después de lo cual, ese estado se podría teletransportar hasta otro organismo distante por medio de circuitos superconductores de microondas. Dado que los estados internos del organismo contienen información, la propuesta de los investigadores supone, en realidad, un esquema para teletransportar esa información, o memoria, de un organismo vivo a otro.

Este es el esquema propuesto por Tongcan Li y Zhang-qi Yin para teletransportar un organismo

 

Este es el esquema propuesto por Tongcan Li y Zhang-qi Yin para teletransportar un organismo- Science China Press

 

La configuración propuesta por Tongcang Li y Zhang-qi Yin constituye también un poderoso microscopio, ya que no solo es capaz de detectar la existencia del spin de electrones individuales (que puede asociarse a determinados defectos genéticos), sino que puede también manipular y detectar sus estados cuánticos, permitiendo su uso como “memorias cuánticas”.

En palabras de Li, “proponemos un método sencillo para poner un microorganismo en dos lugares al mismo tiempo, y facilitamos un esquema para teletransportar el estado cuántico de un organismo completo. Espero que nuestro trabajo inspire a otros investigadores para que piensen seriamente sobre la posibilidad de la teleportación cuántica de microorganismos y en sus posibilidades futuras. Nuestro trabajo también proporciona pistas para futuros estudios sobre los efectos de las reacciones bioquímicas en los estados de superposición cuántica de los organismos vivientes”.