jueves, 14 de noviembre del 2019 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Sí, todo cambia y nada permanece

Autor por Emilio Silvera    ~    Archivo Clasificado en Transiciones de fase    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 « 

 »

La Naturaleza juega con el paso del Tiempo para cambiar las cosas utilizando herramientas  la Temperatura y otras fuentes de energía. En el agua, tenemos un ejemplo cercano y cotidiano de esos cambios que se producen merced a diversas circunstancias. Así, podemos constatar que, en la Naturaleza, nada permanece para siempre, todo cambia y se transformaen algodiferente a lo que fue.

Las transiciones de fase no son nada . Trasladémoslo a nuestras propias vidas. En un libro llamado Pasajes, el autor, Gail Sheehy, destaca que la vida no es un flujo continuo de experiencias, como parece, sino que realmente pasa por varios estadios, caracterizados por conflictos específicos que debemos resolver y por objetivos que debemos cumplir.

File:Werke und Tage.jpg

 

“Comienzo de Trabajos y días (folio 3Av/4Ar).  Trabajos y días (en griego antiguo Ἔργα καὶ Ἡμέραι, referida a veces por el  latino Opera et Dies) es un poema de  800 versos escrito por Hesíodo en torno al 700 a. C. La obra está compuesta a partir de géneros poéticos preexistentes que la tradición oral griega había incorporado del mundo oriental: sobre todo, variantes del “catálogo” (cuyo ejemplo homérico es el canto II de la Ilíada): los “calendarios” y los “días”; y de colecciones de consejos, instrucciones y proverbios (como el Ahikar asirio)”

Todo,  la acción y los pensamientos del hombre a lo largo de la Historia son cambiantes.

Lo cierto es que, a lo largo de toda nuestra vida estamos experimentando cambios de fase que se producen hasta en la manera de pensar, de ver las cosas y el mundo que nos rodea. Nosotros, al igual que todo en el Universo, somos objeto de cambios continuados que se están produciendo  nuestro nacimiento hasta nuestro final.

El psicólogo Eric Ericsson llegó a proponer una teoría de estadios psicológicos del desarrollo. Un conflicto fundamental caracteriza cada fase. Si este conflicto no queda resuelto,  enconarse e incluso provocar una regresión a un periodo anterior. Análogamente, el psicólogo Jean Piaget demostró que el desarrollo mental de  tampoco es un desarrollo continuo de aprendizaje, sino que está realmente caracterizado por estadios discontinuos en la capacidad de conceptualización de un niño. Un mes, un niño puede dejar de buscar una pelota una vez que ha rodado fuera de su campo de visión, sin comprender que la pelota existe aunque no la vea. Al mes siguiente, esto resultará obvio para el niño.

Esta es la esencia de la dialéctica. Según esta filosofía, todos los objetos (personas, gases, estrellas, el propio universo) pasan por una serie de estadios. Cada estadio está caracterizado por un conflicto entre dos fuerzas opuestas. La naturaleza de dicho conflicto determina, de hecho, la naturaleza del estadio. Cuando el conflicto se resuelve, el objeto pasa a un objetivo o estadio superior, llamado síntesis, donde empieza una nueva contradicción, y el proceso pasa de  a un nivel superior.

Los filósofos llaman a esto transición de la “cantidad” a la “cualidad”.  Pequeños cambios cuantitativos se acumulan hasta que, eventualmente, se produce una ruptura cualitativa con el pasado.  teoría se aplica también a las sociedades o culturas. Las tensiones en una sociedad pueden crecer espectacularmente, como la hicieron en Francia a finales del siglo XVIII. Los campesinos se enfrenaban al hambre, se produjeron motines espontáneos y la aristocracia se retiró a sus fortalezas. Cuando las tensiones alcanzaron su punto de ruptura, ocurrió una transición de fase de lo cuantitativo a los cualitativo: los campesinos tomaron las armas, tomaron París y asaltaron la Bastilla.

                                    Las tensiones terminan por romperlo todo. Nada aguanta de manera indefinida

Las transiciones de fases pueden ser  asuntos bastante explosivos. Por ejemplo, pensemos en un río que ha sido represado. Tras la presa se forma rápidamente un embalse con agua a enorme presión. Puesto que es inestable, el embalse está en el falso vacío. El agua preferiría estar en su verdadero vacío, significando esto que preferiría reventar la presa y correr aguas abajo, hacia un  de menor energía. Así pues, una transición de fase implicaría un estallido de la presa, que tendría consecuencias desastrosas.

También podría poner aquí el ejemplo más explosivo de una bomba atómica, donde el falso vacío corresponde al núcleo inestable de uranio donde residen atrapadas enormes energías explosivas que son un millón de veces más poderosas, para masas iguales, que para un explosivo químico.  De vez en cuando, el núcleo pasa por efecto túnel a un  más bajo, lo que significa que el núcleo se rompe espontáneamente. Esto se denomina desintegración radiactiva. Sin embargo, disparando neutrones contra los núcleos de uranio, es posible liberar de golpe  energía encerrada según la formula de Einstein E = mc2. Por supuesto, dicha liberación es una explosión atómica; ¡menuda transición de fase!

 Resultado de imagen de La Bomba de Uranio

La bomba de uranio es más simple que la de plutonio y funciona cuando a una masa de uranio que aún no ha alcanzado el punto crítico de reacción en cadena descontrolada, se le añade una cantidad del mismo elemento para alcanzar esa masa crítica con la capacidad de fisionarse por sí sola. De forma simultánea, a esa masa se le agregan más elementos que potencian la creación de neutrones libres. Esto produce una aceleración de la velocidad de la reacción en cadena, resultando en la destrucción del área que rodea el dispositivo debido a la onda de choque creada por la liberación de los neutrones.

Resultado de imagen de La mano derecha contacta con la mano izquierda en la imagen especular

La mano derecha contacta con la mano izquierda en la imagen especular

Las nuevas características descubiertas por los científicos en las transiciones de fases es que normalmente van acompañadas de una ruptura de simetría. Al premio Nobel Abdus Salam le gusta la ilustración siguiente: consideremos una mesa de banquete circular, donde todos los comensales están sentados con una copa de champán a  lado. Aquí existe simetría. Mirando la mesa del banquete reflejada en un espejo, vemos lo mismo: cada comensal sentado en torno a la mesa, con copas de champán a cada lado.  Asimismo, podemos girar la mesa de banquete circular y la disposición sigue siendo la misma.

Rompamos  la simetría. Supongamos ahora que el primer comensal toma la copa que hay a su derecha. Siguiendo la pauta, todos los demás comensales tomaran la copa de champán de su derecha. Nótese que la imagen de la mesa del banquete vista en el espejo produce la situación opuesta.  Cada comensal ha tomado la copa izquierda. De este modo, la simetría izquierda-derecha se ha roto.

Así pues, el  de máxima simetría es con frecuencia también un estado inestable, y por lo tanto corresponde a un falso vacío.

 

 

 

 

No os equivoquéis, lo que llaman “Vacío de Bootes”  es un falso “vacío” de inmensas dimensiones

 

 

 

 

Cuando hablamos de falso vacío lo hacemos del estado en teoría cuántica de campos que es un mínimo local, pero no un estado de energía mínima del sistema en su totalidad (lo que se denomina el verdadero vacío). Tarde o temprano ocurrirá un efecto túnel desde el falso vacío al vacío verdadero, que puede ser calculado por técnicas de instantón. El falso vacñio no ha sido nunca observado, pero se predice que existe en varias teorías cuánticas de campo de relevancia para el estudio de las partículas elementales, incluyendo las teorías de gran unificación. En particular, ha sido sugerido que el falso vacío puede ser el responsable de la expansión del universo inflacionario, que pudo haber sido importante en el universo primitivo.

 

 

 

Solo podemos ver tres dimensiones y sentir la cuarta

Con respecto a la teoría de supercuerdas, los físicos suponen (aunque todavía no lo puedan demostrar) que el universo decadimensional original era inestable y pasó por efecto túnel a un universo de cuatro y otro de seis dimensiones. Así pues, el universo original estaba en un estado de falso vacío, el estado de máxima simetría, mientras que hoy estamos en el estado roto del verdadero vacío.

 

 

Lo cierto es que, por mucho que nos esforzamos mentalmente  “ver” ese universo de más dimensiones… ¡No conseguimos verlo!

Al principio, cuando el universo era simétrico, sólo existía una sola fuerza que unificaba a todas las que  conocemos, la gravedad, las fuerzas electromagnéticas y las nucleares débil y fuerte, todas emergían de aquel plasma opaco de alta energía que lo inundaba todo. Más tarde,  el universo comenzó a enfriarse, se hizo transparente y apareció la luz, las fuerzas se separaron en las cuatro conocidas, emergieron las primeras quarks para unirse y formar protones y neutrones, los primeros núcleos aparecieron para atraer a los electrones que formaron aquellos primeros átomos.  Doscientos millones de años más tarde, se formaron las primeras estrellas y galaxias. Con el paso del tiempo, las estrellas sintetizaron los elementos pesados de nuestros cuerpos, fabricados en supernovas que estallaron, incluso antes de que se formase el Sol. Podemos decir, sin temor a equivocarnos, que una supernova anónima explotó hace miles de millones de años y sembró  de gas que dio lugar a nuestro sistema solar, poniendo allí los materiales complejos y necesarios para que algunos miles de millones de años más tarde, tras la evolución, apareciéramos nosotros.

 

 

 

 

 

Las estrellas evolucionan desde que en su núcleo se comienza a fusionar hidrógeno en helio, de los elementos más ligeros a los más pesados.  Avanza creando en el  termonuclear, cada vez, metales y elementos más pesados. Cuando llega al hierro y explosiona en la forma explosiva de  una supernova. Luego, cuando este material estelar es otra vez recogido en una nueva estrella rica en hidrógeno, al ser de segunda generación (como nuestro Sol), comienza de nuevo el proceso de fusión llevando consigo materiales complejos de aquella supernova.

Puesto que el peso promedio de los protones en los productos de fisión,  el cesio y el kriptón, es menor que el peso promedio de los protones de uranio, el exceso de masa se ha transformado en energía mediante E = mc2 es la fuente de energía que subyace en las explosiones atómicas.

 

 

 

    El tiempo con ayuda de la entropía, lo transforma todo. Hoy es, mañana no es

Así pues, la curva de energía de enlace no sólo explica el nacimiento y muerte de las estrellas y la creación de elementos complejos que también hicieron posible que nosotros estemos  aquí y, muy posiblemente, será también el factor determinante para que, lejos de aquí, en otros sistemas solares a muchos años luz de distancia, puedan florecer otras especies inteligentes que, al igual que la especie humana, se pregunten por su origen y estudien los fenómenos de las fuerzas fundamentales del universo, los componentes de la materia y, como nosotros, se interesen por el destino que nos espera en el futuro.

Cuando alguien oye por vez primera la historia de la vida de las estrellas, generalmente (lo sé por experiencia), no dice nada, pero su rostro refleja escepticismo. ¿Cómo  vivir una estrella 10.000 millones de años? Después de todo, nadie ha vivido tanto tiempo como para ser testigo de su evolución.

 

 

 

Sin embargo, tenemos los medios técnicos y científicos  saber la edad que tiene, por ejemplo, el Sol. Y, como podemos contemplar en la imagen de arriba, sabemos de los cambios que se avecinan. Dentro de unos cinco mil millones de años, cuando se agote el combustible nuclear de fusión, el Sol se convertirá en una gigante roja que crecerá más y más hasta alcanzar 1 UA (ciento cincuenta millones de kilometros) y, engullirá a los planetas Mercurio y Venus y, nuestra querida Tierra, quedará literalmente arrasada por las terroríficas temperaturas de los vientos solares que evaporarán los océanos y hará imposible ninguna clase de vida sobre el planeta.

Nuestro Sol, la estrella alrededor de la que giran todos los planetas de nuestro Sistema Solar es la estrella más cercana a la Tierra (150 millones de Km = 1 UA), con un diámetro de 1.392.530 Km, tiene una edad de 4.500 millones de años y, aunque fusiona 4.654.600 Tn de Hidrógeno en Helio  segundo, aún le quedan otros cinco mil millones de años de vida.

Ilustración del universo

        El Universo como una burbuja dentro de la cual está, ¡todo lo que existe!

El Universo siempre nos parece inmenso, y, al principio, aquellos pensadores que estuvieron aquí antes que jnosotros y que empezaron a preguntarse cómo sería, lo imaginaron como una esfera cristalina que dentro contenía unos pocos mundos y algunas estrellas, hoy, hemos llegado a saber un poco más sobre él. Sin embargo, dentro de unos cuantos siglos, los que detrás de nosotros llegarán, hablarán de universos en plural, y, cuando pasen algunos eones, estaremos de visita de un universo a otro como  vamos de una ciudad a otra.

¡Más transiciones de fase! Ahora de evolución del el conocimiento. ¡Quién pudiera estar allí! En ese futuro en el que, realmente y si nada lo remedia, nos podremos llamar “Señores del Espacio” “Descubridores de Mundos” “Habitantes del Universo”…

¡Sería bonito ser testigo de todo eso!

emilio silvera

Si existen ¿Cómo serían otros universos?

Autor por Emilio Silvera    ~    Archivo Clasificado en Multiverso    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Siempre hablamos de visitar otros mundos, otros universos y, en ellos, las condiciones físicas no tienen, necesariamente, que ser como en el nuestro. Los mundos, como las estrellas y los universos, pueden tener sus propias características dependiendo de muchos factores que lo podrían conformar de manera muy diferente a como lo está nuestro mundo y vemos que se comporta el universo con sus cuatro leyes fundamentales y sus constantes que, en otro universo, podrían ser de otra manera.

Formas de vida diferentes, estructuras asombrosas y para nosotros desconocidas, y, hasta el Tiempo se podría comportar de diferente manera.

Si es cierto lo que afirman algunas teorías, entonces existen en realidad un número infinito de universos paralelos, muchos de ellos con diferentes constantes físicas. En algunos de ellos, quizá los protones se desintegran con demasiada rapidez, o las estrellas no pueden fabricar los elementos pesados por encima del hierro, o el Big Crunch tiene lugar demasiado deprisa porque su densidad crítica sobrepasa en mucho a la ideal y no da tiempo a que pueda comenzar la germinación de la vida, y así sucesivamente. De hecho, un número infinito de estos universos paralelos están muertos, sin las leyes físicas que puedan hacer posible la vida tal como la conocemos.

En tal universo paralelo (el nuestro), las leyes de la física eran compatibles con la vida que conocemos. La prueba es que nosotros estamos aquí para tratar esta cuestión. Si esto es cierto, entonces quizá no haya que invocar a Dios para explicar por qué la vida, por preciosa que sea, es posible en nuestro universo. Sin embargo, esto reabre la posibilidad del principio antrópico débil, es decir, que coexistimos con nuestros universos muertos y que el nuestro sea el único compatible para vida.

La segunda controversia estimulada por la función de onda del universo de Hawking es mucho más profunda y, de hecho, aun está sin resolver. Se denomina el Gato de Schrödinger. Empezamos con una función de onda que describe el conjunto de todos los universos posibles. Esto significa que el punto de partida de la teoría de Hawking debe ser un conjunto infinito de universos paralelos, la función de onda del universo. El análisis bastante simple de Stephen Hawking, reemplazando la palabra partícula por universo, ha conducido a una revolución conceptual en nuestras ideas sobre la cosmología.

La teoría cuántica, recordémoslo, afirma que para todo objeto existe una función de onda que mide la probabilidad de encontrar dicho objeto en un cierto punto del espacio y del tiempo. La teoría cuántica afirma también que nunca se conoce realmente el estado de una partícula hasta que se haya hecho una observación. Antes de que haya una medida, la partícula puede estar en uno de entre una diversidad de estados, descritos por la función de onda de Schrödinger. Por consiguiente, antes de que pueda hacerse una observación o medida, no se puede conocer realmente el estado de la partícula.  De hecho, la partícula existe en un estado ultramundano, una suma de todos los estados posibles, hasta que se hace una medida.

Cuando esta idea fue propuesta por primera vez por Niels Bohr y Werner Heisemberg, Einstein se revolvió contra ella. “¿Existe la luna sólo porque la mira un ratón?“, -o un gato- le gustaba preguntar. Según la teoría cuántica, en su más estricta interpretación, la Luna, antes de que sea observada, no existe realmente tal como la conocemos. “La Luna puede estar, de hecho, en uno cualquiera de entre un número infinito de estados, incluyendo el estado de estar en el cielo, de estar explotando, o de no estar allí en absoluto. Es el proceso de medida que consiste en mirarla el que decide que la Luna está girando realmente alrededor de la Tierra“. Decía Einstein con ironía.

Edwin Schrödinger, autor de la ecuación con su función de onda, se disgustó con estas interpretaciones de su ecuación. Para demostrar lo absurdo de la situación creada, Schrödinger colocó un gato imaginario en una caja cerrada. El gato estaba frente a una pistola, que está conectada a un contador Geiger, que a su vez está conectado a un fragmento de uranio. El átomo de uranio es inestable y sufrirá una desintegración radiactiva. Si se desintegra un núcleo de uranio, será detectado por el contador Geiger que entonces disparará la pistola, cuya bala matará al gato.

Para decidir si el gato está vivo o muerto, debemos abrir la caja y observar al gato. Sin embargo, ¿cuál es el estado del gato antes de que abramos la caja? Según la teoría cuántica, sólo podemos afirmar que el gato esta descrito por una función de onda que describe la suma de un gato muerto y un gato vivo.

Para Schrödinger, la idea de pensar en gatos que no están ni muertos ni vivos era el colmo del absurdo, pero la confirmación experimental de la mecánica cuántica nos lleva inevitablemente a esta conclusión. Hasta el momento, todos los experimentos han verificado, favorablemente, la teoría cuántica.

Sí, a veces la mecánica cuántica parece tan fantástica como el cuento de Alicia

La paradoja del gato de Schrödinger es tan extraña que uno recuerda a menudo la reacción de Alicia al ver desaparecer el gato de Cheshire en el centro del cuento de Lewis Carroll: “Allí me verás“, dijo el Gato, y desapareció, lo que no sorprendió a Alicia que ya estaba acostumbrada a observar cosas extrañas en aquel lugar fantástico. Igualmente, los físicos durante años se han acostumbrados a ver cosas “extrañas” en la mecánica cuántica.

Existen varias maneras de abordar esta dificultad de lo incomprensible en mecánica cuántica. En primer lugar, podemos suponer que Dios existe.   Puesto que todas las “observaciones” implican un observador, entonces debe haber alguna “conciencia” en el universo. Algunos físicos como el premio Nobel Eugene Wigner, han insistido en que la teoría cuántica prueba la existencia de algún tipo de conciencia cósmica universal.

La segunda forma de tratar la paradoja es la preferida por la gran mayoría de los físicos en activo: ignorar el problema.

El físico Richard Feynman dijo en cierta ocasión: “Creo que es justo decir que nadie comprende la mecánica cuántica. No siga diciéndose a sí mismo, si puede evitarlo, “¿pero cómo puede ser así?” porque usted se meterá “hasta el fondo” en un callejón sin salida del que nadie ha escapado.  Nadie sabe como puede ser eso“. De hecho, a menudo se ha dicho que de todas las teorías propuestas en el siglo XX, la más absurda es la teoría cuántica. Algunos dicen que la única cosa que la teoría tiene a su favor es que “es indudablemente correcta”.

Sin embargo, existe una tercera forma de tratar esta paradoja, denominada teoría de los muchos universos. Esta teoría (como el principio antrópico) no gozó de mucho favor en la última década, pero está siendo revitalizada por la función de onda del universo de Stephen Hawking.

Aunque no siempre, lo más simple tiene que ser lo verdadero. El principio de la Navaja de Ockham es fundamental para el reduccionismo metodológico.

Existe un principio de la física denominado Navaja de Ockham, que afirma que siempre deberíamos tomar el camino más sencillo posible e ignorar las alternativas más complicadas, especialmente si las alternativas no pueden medirse nunca.

Para seguir fielmente el consejo contenido en la navaja de Ockham , primero hay que tener el conocimiento necesario para poder saber elegir el camino más sencillo, lo que en la realidad, no ocurre. Nos faltan los conocimientos necesarios para hacer las preguntas adecuadas.

¿Quién puede saber lo que ahí fuera existe? ¡Nadie! Sólo podemos imaginarlo en función de cada Mente y de distintas maneras

Hugo Everett, Bryce DeWitt y ahora Hawking (también otros), han propuesto la teoría de los universos múltiples. En unos universos los protones se desintegran antes haciendo inestable la materia, en otros, el átomo de uranio se desintegra mediante un proceso sin radiaciones, y en otros universos las constantes universales que existen en el nuestro, son totalmente diferentes y no dan posibilidad alguna para la existencia de seres vivos. Está claro que cualquier variación que en principio pudiera parecer sin importancia, como por ejemplo la carga del electrón, podría transformar radicalmente nuestro universo.

Como apuntó el físico Frank Wilczek:

Resultado de imagen de Helena de troya con una verruga en la nariz

“Se dice que la historia del mundo sería totalmente distinto si Helena de Troya hubiera tenido una verruga en la punta de su nariz.”

 

Hasta el momento, se han celebrado varias conferencias internacionales sobre la función de onda del universo. Sin embargo, como ocurre en la teoría de supercuerdas, las matemáticas implicadas en la función de onda del universo, parecen estar más allá de la capacidad de cálculo que cualquier humano en este planeta pudiera resolver, y tendríamos que esperar años antes de que aparezca un individuo genial que pudiera encontrar una solución rigurosa a las ecuaciones de Hawking.

Recordemos aquí de nuevo que, precisamente ahora, un siglo más tarde, en el Congreso Internacional de Matemáticas celebrado en Madrid el mes de Agosto de 2.006, se otorgó la Medalla Field (una especie de Nobel de las matemáticas) al matemático ruso Perelman, extraño ser que ni se dignó comparecer a recogerla con el premio, hizo caso omiso. Perelman ha resuelto la conjetura expuesta por Poincaré planteada en 1.904.

La conjetura de Poincaré de 1.904, en el año 2.000, fue catalogada por el Instituto Clan como uno de los siete problemas del milenio. Para hacer un comentario sobre esta conjetura tengo que referirme a la topología, el nivel de las matemáticas donde está ubicada.

      Verdaderamente Perelman es, un extraño personaje metido en su propio mundo

Las últimas fotos que se conocen de él se las sacaron con un celular en un vagón del metro de Petersburgo. Se está quedando pelado pero las mechas largas y desgreñadas le llegan a los hombros, va en zapatillas sucias, un traje arrugado que le queda corto, sin corbata y con la camisa enteramente desprendida, flaco como un Cristo, la barba igual, la mirada perdida, las uñas largas y sucias y curvadas hacia adentro como garras. El vagón va en dirección sur, a Kúpchino, un barrio de monoblocks donde muere el metro. Todos los vecinos de Kúpchino saben quién es Grisha Perelman y cuál es la puerta del ínfimo departamento que comparte con su madre. Pero ninguno va a decírselo a los periodistas y a los fanáticos de la matemática que cada tanto merodean por ahí.

La topología tienen unas matemáticas endiabladamente complejas

La topología es la geometría de los objetos elásticos o flexibles que cambian de forma pero tienen las mismas propiedades que antes de ser estirados, achatados, etc. Se pueden retorcer pero no cortar ni pegar.

Los topólogos no tienen en cuenta la distancia, puesto que se puede variar al deformar el objeto, sino nociones más sutiles. Los orígenes de la topología se remontan a mediados del siglo XVIII, con los trabajos de Euler en teoría de grafos, que llamó “análisis situs”.

A finales del siglo XIX y principios del siglo XX, la topología recibió un gran impulso con los trabajos de Poincaré, matemático francés muy influyente en el posterior desarrollo de diversas áreas de las matemáticas y de la física. En particular, en 1.904 planteó la conjetura que lleva su nombre y que no se ha resuelto hasta el siglo XXI. Este problema ha sido un motor para la investigación en topología de todo el siglo pasado y se ha llegado a su resolución con ideas nuevas y apasionantes.

                                                                Henri Poincaré en su estudio trabajando

Para situarnos mejor debemos hablar de las variedades, espacios que tienen una dimensión determinada. Por ejemplo una recta o un circulo son variedades de dimensión uno, puesto que se describen como un parámetro.  El plano o la esfera son ejemplos de variedades bidimensionales, al utilizar dos parámetros para describir sus posiciones. El espacio en que vivimos es una variedad tridimensional, y si le añadimos la dimensión temporal, el espacio-tiempo es una variedad de dimensión cuatro. Ya he comentado en este mismo trabajo cómo las singularidades geométricas, las variedades, fueron introducidas por Riemann a mediados del s.    XIX y constituyeron una herra-mienta clave para la física del siglo XX. De hecho, la teoría de la relatividad especial de Einstein fue postulada por Einstein en 1.905, pero hasta que no incorporó las variedades contenidas en el tensor métrico de Riemann, no pudo completar la teoría de la relatividad que incluía los espacios curvos.

La pregunta que hizo Poincaré fue la siguiente: ¿Es la esfera la única variedad tridimensional para la cual toda curva se contrae?

Se pasó un siglo entero antes de que un genio de las matemáticas, el extraño G. Perelman, pudiera demostrar la conjetura de Poincaré.

De todas las maneras, avanzar en el conocimiento de las cosas no resulta nada fácil, y, aunque el avance es exponencial (cuanto más datos vamos teniendo más rápidamente avanzamos), hay algunos enigmas de la Naturaleza que, de momento, segurán en la oscuridad de nuestra profunda ignorancia.

emilio silvera

Hoy un sueño ¿Realidad mañana?

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

  

Llegará un día en el que, podremos entrar en un inmenso espacio, una enorme habitación, en la que, previa elección de la  programación adecuada, todo se transformará en un “mundo ficticio”, un holograma que, lo mismo podrá ser una playa luminosa con arena dorada por el Sol que, una Selva tropical o un desierto, dependiendo de los gustos del usuario.

Si repasamos la historia de la ciencia, seguramente encontraremos muchos motivos para el optimismo. Witten (el Físico de la Teoría M),  está convencido de que la ciencia será algún día capaz de sondear hasta las energías de Planck. Como ya he referido en otras ocasiones, él dijo:

“No siempre es tan fácil decir cuáles son las preguntas fáciles y cuáles las difíciles. En el siglo XIX, la pregunta de por qué el agua hierve a 100 grados era desesperadamente inaccesible. Si usted hubiera dicho a un físico del siglo XIX que hacia el siglo XX sería capaz de calcularlo, le habría parecido un cuento de hadas… La teoría cuántica de campos es tan difícil que nadie la creyó completamente durante 25 años.”

 

 

 

 

En su opinión, las buenas ideas siempre se verifican. Los ejemplos son innumerables: la gravedad de Newton, el campo eléctrico de Faraday y el electromagnetismo de Maxwell, la teoría de la relatividad de Einstein en sus dos versiones y su demostración del efecto fotoeléctrico, la teoría del electrón de Paul Dirac, el principio de incertidumbre de Heisenberg, la función de ondas de Schrödinger, y tantos otros. Algunos de los físicos teóricos más famosos, sin embargo, protestaban de tanto empeño en la experimentación. El astrónomo arthur Eddington se cuestionaba incluso si los científicos no estaban forzando las cosas cuando insistían en que todo debería ser verificado. ¡Cómo cambia todo con el Tiempo! Hasta la manera de pensar.

Sin embargo, muchos son los ejemplos de un ingenio superior que nos llevaron a desvelar secretos de la Naturaleza que estaban profundamente escondidos, y, el trabajo de Dirac en relación al electrón, es una buena muestra de ese ingenio humano que, de vez en cuando vemos florecer.

Ya que la ecuación de Dirac fue originalmente formulada para describir el electrón, las referencias se harán respecto a “electrones”, aunque actualmente la ecuación se aplica a otros tipos de partículas elementales de espín ½, como los quarks. Una ecuación modificada de Dirac puede emplearse para describir de forma aproximada los protones y los neutrones, formados ambos por partículas más pequeñas llamadas quarks (por este hecho, a protones y neutrones no se les da la consideración de partículas elementales).

La ecuación de Dirac presenta la siguiente forma:

 \left(\alpha_0 mc^2 + \sum_{j = 1}^3 \alpha_j p_j \, c\right) \<a href=

Siendo m la masa en reposo del electrónc la velocidad de la luz,  p el operador de momento, \hbar la constante reducida de Planck,  x y t las coordenadas del espacio y el tiempo,  respectivamente; y ψ (xt) una función de onda de cuatro componentes. La función de onda ha de ser formulada como un espinor (objeto matemático similar a un vectorque cambia de signo con una rotación de 2π descubierto por Pauli y Dirac) de cuatro componentes, y no como un simple escalar,  debido a los requerimientos de la relatividad especial. Los α son operadores lineales que gobiernan la función de onda, escritos como una matriz y son matrices de 4×4 conocidas como matrices de Dirac.

El premio Nobel Paul dirac incluso llegó a decir de forma más categórica: “Es más importante tener belleza en las ecuaciones que tener experimentos que se ajusten a ellas“, o en palabras del físico John Ellis del CERN, “Como decía en una envoltura de caramelos que abrí hace algunos años, «Es sólo el optimista el que consigue algo en este mundo».

Yo, como todos ustedes, un hombre normal y corriente de la calle, escucho a unos y a otros, después pienso en lo que dicen y en los argumentos y motivaciones que les han llevado a sus respectivos convencimientos, y finalmente, también decido según mis propios criterios mi opinión, que no obligatoriamente coincidirá con alguna de esas opiniones, y que en algún caso, hasta me permito emitirla.

¿No es curioso que, cuando se formula la moderna Teoría M, surjan, como por encanto, las ecuaciones de Einstein de la Relatividad General? Nadie las llama y, sin embargo, allí aparecen para decirnos que, la Teoría de cuerdas es un buen camino a seguir, ya que, si en ella subyacen las ecuaciones de Einstein de la relatividad General… ¡No debe ser por casualidad!

Suponiendo que algún físico brillante nos resuelva la teoría de campos de cuerdas y derive las propiedades conocidas de nuestro universo, con un poco de suerte, podría ocurrir en este mismo siglo, lo que no estaría nada mal considerando las dificultades de la empresa. El problema fundamental es que estamos obligando a la teoría de supercuerdas a responder preguntas sobre energías cotidianas, cuando “ámbito natural” está en la energía de Planck. Esta fabulosa energía fue liberada sólo en el propio instante de la creación, lo que quiere decir que la teoría de supercuerdas es naturalmente una teoría de la creación.

Las primeras observaciones realizadas por Planck | ESA y Axel Mellinger.

    Las primeras observaciones realizadas por Planck | ESA y Axel Mellinger.

Fuimos capaces de predecir que el Big Bang produjo un “eco” cósmico reverberando en el universo y que podría ser mesurable por los instrumentos adecuados. De hecho, Arno Penzias y Robert Wilson de los Bell Telephone Laboratories ganaron el premio Nobel en 1.978 por detectar este eco del Big Bang, una radiación de microondas que impregna el universo conocido. El que el eco del Big Bang debería estar circulando por el universo miles de millones de años después del suceso fue predicho por primera vez por George Gamow y sus discípulos Ralpher y Robert Herman, pero nadie les tomó en serio. La propia idea de medir el eco de la creación parecía extravagante cuando la propusieron por primera vez poco después de la segunda guerra mundial. Su lógica, sin embargo, era aplastante.

la estufa básica es la resistencia por hilo enrollado Nicrom. Ésta se llega a poner al rojo vivo, por lo que emite también algo de calor por radiación.

Cualquier objeto, cuando se calienta, emite radiación de forma gradual. Ésta es la razón de que el hierro se ponga al rojo vivo cuando se calienta en un horno, y cuanto más se calienta, mayor es la frecuencia de radiación que emite. Una fórmula matemática exacta, la ley de Stefan-Boltzmann, relaciona la frecuencia de la luz (o el color en este caso) con la temperatura. De hecho, así es como los científicos determinan la temperatura de la superficie de una estrella lejana; examinando su color. Esta radiación se denomina radiación de cuerpo negro.

Esta radiación, cómo no, ha sido aprovechada por los ejércitos, que mediante visores nocturnos pueden operar en la oscuridad. De noche, los objetos relativamente calientes, tales como soldados enemigos o los carros de combate, pueden estar ocultos en la oscuridad, pero continúan emitiendo radiación de cuerpo negro invisible en forma de radiación infrarroja, que puede ser captada por gafas especiales de infrarrojo. Ésta es también la razón de que nuestros automóviles cerrados se calientes en verano, ya que la luz del Sol atraviesa los cristales del coche y calienta el interior. A medida que se calienta, empieza a emitir radiación de cuerpo negro en forma de radiación infrarroja. Sin embargo, esta clase de radiación no atraviesa muy bien el vidrio, y por lo tanto queda atrapada en el interior del automóvil, incrementando espectacularmente la temperatura.

Análogamente, la radiación de cuerpo negro produce el efecto invernadero. Al igual que el vidrio, los altos niveles de dióxido de carbono en la atmósfera, causados por la combustión sin control de combustibles fósiles, pueden atrapar la radiación de cuerpo negro infrarroja en la Tierra, y de este modo calentar gradualmente el planeta.

Gamow razonó que el Big Bang era inicialmente muy caliente, y que por lo tanto sería un cuerpo negro ideal emisor de radiación. Aunque la tecnología de los años cuarenta era demasiado primitiva para captar esta débil señal de la creación, Gamow pudo calcular la temperatura de dicha radiación y predecir con fiabilidad que un día nuestros instrumentos serían lo suficientemente sensibles como para detectar esta radiación “fósil”.

Ya la lista de ingenios es larga. Todos quieren medir la radiación del fondo de microondas generadas por el Big Bang. Incluso hemos preparado telescopios especiales para que nos puedan captar las ondas gravitatorias surgidas en aquellos primeros momento de la inflación.

La lógica que había detrás de su razonamiento era la siguiente: alrededor de 300.000 años después del Big Bang, el universo se enfrió hasta el punto en el que los átomos pudieron empezar a componerse; los electrones pudieron empezar a rodear a los protones y neutrones formando átomos estables, que ya no serían destruidos por la intensa radiación que estaba impregnando todo el universo. Antes de este momento, el universo estaba tan caliente que los átomos eran inmediatamente descompuestos por esa radiación tan potente en el mismo acto de su formación. Esto significa que el universo era opaco, como una niebla espesa absorbente e impenetrable.

Pasados 300.000 años, la radiación no era tan potente; se había enfriado y por lo tanto la luz podía atravesar grades distancias sin ser dispersada. En otras palabras, el universo se hizo repentinamente negro y transparente.

Terminaré esta parte comentando que un auténtico cuerpo negro es un concepto imaginario; un pequeño agujero en la pared de un recinto a temperatura uniforme es la mejor aproximación que se puede tener de él en la práctica.

La radiación de cuerpo negro es la radiación electromagnética emitida por un cuerpo negro. Se extiende sobre todo el rango de longitudes de onda y la disminución de energías sobre este rango tiene una forma característica con un máximo en una cierta longitud de onda, desplazándose a longitudes de onda más cortas al aumentar las temperaturas*.

Hablar, sin más especificaciones, de radiación, es estar refiriéndonos a una energía que viaja en forma de ondas electromagnéticas o fotones por el universo. También nos podríamos estar refiriendo a un chorro de partículas, especialmente partículas alfa o beta de una fuente radiactiva o neutrones de un reactor nuclear.

La radiación actínida es la electromagnética que es capaz de iniciar una reacción química. El término es usado especialmente para la radiación ultravioleta y también para denotar radiación que podría afectar a las emulsiones fotográficas.

Monografias.com

La radiación gamma es un tipo de radiación electromagnética producida generalmente por elementos radioactivos o procesos subatómicos como la aniquilación de un par positrón-electrón. Este tipo de radiación de tal magnitud también es producida en fenómenos astrofísicos de gran violencia.

La radiación gamma

Debido a las altas energías que poseen, los rayos gamma constituyen un tipo de radiación ionizante capaz de penetrar en la materia más profundamente que la radiación alfa o beta. Dada su alta energía pueden causar grave daño al núcleo de las células, por lo que son usados para esterilizar equipos médicos y añimentos.

La Radiación expone un amplio abanico dependiendo de la fuente:  blanda, radiación cósmica, radiación de calor, radiación de fondo, de fondo de microondas, radiación dura, electromagnética, radiación gamma, infrarroja, ionizante, monocromática, policromática, de sincrotón, ultravioleta, de la teoría cuántica, de radiactividad… y, como se puede ver, la radiación en sus diversas formas es un universo en sí misma.

Siempre me llamó la atención y se ganó mi admiración el físico alemán Max Planck (1.858 – 1.947), responsable entre otros muchos logros de la ley de radiación de Planck, que da la distribución de energía radiada por un cuerpo negro. Introdujo en física el concepto novedoso de que la energía es una cantidad que es radiada por un cuerpo en pequeños paquetes discretos, en vez de una emisión continua. Estos pequeños paquetes se conocieron como cuantos y la ley formulada es la base de la teoría cuántica.

Einstein se inspiró en este trabajo para a su vez presentar el suyo propio sobre el efecto fotoeléctrico, donde la energía máxima cinética del fotoelectrónEm, está dada por la ecuación que lleva su nombre: Em = hf – Φ.

Cada metal requiere, para que se produzca la extracción, una radiación con una frecuencia mínima (no). Cualquier otra radiación de menor frecuencia, no será capaz de arrancar electrones. Por debajo de la frecuencia mínima la intensidad de corriente -”i” (amperios)- será cero. No hay efecto fotoeléctrico.

Planck publicó en 1.900 un artículo sobre la radiación de cuerpo negro que sentó las bases para la teoría de la mecánica cuántica que más tarde desarrollaron otros, como el mismo Einstein, Heisenberg, Schrödinger, Dirac, Feymann, etc. Todos los físicos son conocedores de la enorme contribución que Max Planck hizo en física: la constante de Planck, radiación de Planck, longitud de Planck, unidades de Planck, etc. Es posible que sea el físico de la historia que más veces ha dado su nombre a conceptos de física. Pongamos un par te ejemplos de su ingenio:

1.      vale 10-35 metros. Esta escala de longitud (veinte órdenes de magnitud menor que el tamaño del protón, de 10-15 m) es a la que la descripción clásica de gravedad cesa de ser válida y debe ser tenida en cuenta la mecánica cuántica. En la fórmula que la describe, G es la constante gravitacional, ħ es la constante de Planck racionalizada y c en la velocidad de la luz.

2.      . Es la masa de una partícula cuya longitud de onda Compton es igual a la longitud de Planck. En la ecuación, ħ es la constante de Planck racionalizada, c es la velocidad de la luz y G es la constante gravitacional. Así, Se denomina masa de Planck a la cantidad de masa (21,7644 microgramos) que, incluida en una esfera cuyo radio fuera igual a la longitud de Planck,  generaría una densidad del orden de 1093 g/cm³. Según la física actual, esta habría sido la densidad del Universo cuando tenía unos {10}^{-44} segundos, el llamado Tiempo de Planck. Su ecuación, es decir la masa de Planc se denota:

M_p = \sqrt{\frac{\hbar c}{G}} = 2,18 \times 10^{-8}\, \mbox{kg}

El valor de la masa de Planck (M_p) se expresa por una fórmula que combina tres constantes fundamentales, la constante de Planck,  (h), la velocidad de la luz (c),  y la constante de gravitación universal (G). La masa de Planck es una estimación de la masa del agujero negro primordial menos masivo, y resulta de calcular el límite donde entran en conflicto la descripción clásica y la descripción cuántica de la gravedad.

Al entrar en algunos límetes de la materia, nos encontramos con la espuma cuántica

“Aunque todas estas descripciones reflejan más una abundante imaginación que un hecho existencial apoyado teóricamente con alguna hipótesis que pueda ser comprobada en el laboratorio sobre hechos que están más allá de poder ser medidos jamás en algún laboratorio construído por humanos. La única forma de confrontar la factibilidad o la posibilidad del modelo de la espuma cuántica nos lleva necesariamente a confrontar la carencia de un modelo que logre unificar exitosamente al macrocosmos con el microcosmos, a la Relatividad General con la Mecánica Cuántica, la Gravedad Cuántica. Si la energía y la materia (o mejor dicho la masa-energía) están discretizadas, se supone que también deben de estarlo el espacio y el tiempo (o mejor dicho, el espacio-tiempo), y la “partícula fundamental” del espacio-tiempo debe de serlo el gravitón, aunque de momento todo esto son especulaciones que seguirán siéndolo mientras no tengamos a la mano algo que pueda confirmar la existencia de tan exótica partícula, quizá la más exótica de cuantas hayan sido concebidas por la imaginación del hombre.”

 

 

 

La descripción de una partícula elemental de esta masa, o partículas que interaccionan con energías por partículas equivalentes a ellas (a través de E = mc2), requiere de una teoría cuántica de la gravedad. Como la masa de Planck es del orden de 10-8 Kg (equivalente a una energía de 1019 GeV) y, por ejemplo, la masa del protón es del orden de 10-27 Kg y las mayores energías alcanzables en los aceleradores de partículas actuales son del orden de 103 GeV, los efectos de gravitación cuántica no aparecen en los laboratorios de física de partículas. Únicamente en un laboratorio aparecieron partículas que tenían energías del orden de la masa de Planck: en el universo primitivo, de acuerdo con la teoría del Big Bang, motivo éste por el que es necesaria una teoría cuántica de la gravedad para estudiar aquellas condiciones. Esta energía de la que estamos hablando, del orden de 1019 GeV (inalcanzable para nosotros), es la que necesitamos para verificar la teoría de supercuerdas.

Siempre, desde que puedo recordar, me llamó la atención los misterios y secretos encerrados en la naturaleza, y la innegable batalla mantenida a lo largo de la historia por los científicos para descubrirlos. Muchos han sido los velos que hemos podido descorrer para que, la luz cegadora del saber pudiera entrar en nuestras mentes para hacerlas comprender cómo actuaba la Naturaleza en ciertas ocasiones y el por qué de tales comportamientos, y, sin embargo, a pesar del largo camino recorrido, es mucho más el que nos queda por andar.

emilio silvera

Sagitario A

Autor por Emilio Silvera    ~    Archivo Clasificado en Agujeros negros    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Agujeros Negros

Logran fotografiar por primera vez el agujero negro del centro de nuestra galaxia

 

Sin embargo, la imagen que acompaña a este impactante titular es una ilustración. ¿Por qué? Más detalles -incluyendo la participación española en esta gesta científica- en el interior de la noticia.

 

Ilustración de un agujero negro.Ilustración de un agujero negro. NASA / JPL

Chandra image of Sgr A.jpg
esta es la región en la que se encuentra Sagitario A

El titular de esta noticia anuncia que, por primera vez, se ha logrado fotografiar un agujero negro pero la imagen que lo acompaña es simplemente una ilustración. Pero eh, no se marchen todavía: esa foto existe, ha sido tomada por el Event Horizon Telescope (EHT) a lo largo de diez días y, aparentemente, representa a Sagitario A*, el agujero negro supermasivo ubicado en el centro de nuestra Vía Láctea.

La imagen, según sus responsables, está siendo sometida a investigación, pero se espera que para finales de 2017 la anhelada foto se haga pública. Por hacer un símil fotográfico, la imagen del agujero negro es como una Polaroid que tendremos que agitar durante unos meses para ver si representa con exactitud lo que queríamos fotografiar o si se ve borrosa.

Sagitario A, el agujero negro que amenaza la Vía Láctea

Pese a tener una masa equivalente a cuatro millones de soles, Sagitario A* fue un desconocido hasta mediados de los años setenta, cuando Bruce Balick y Robert Brown descubrieron que algo perturbaba la órbita de una estrella cercana, S2. Pese a las sospechas, no pudieron identificar inmediatamente que fuese un agujero negro.

Hubo que esperar hasta 2002, cuando el alemán Reinhard Genzel reveló que hablábamos de un agujero negro supermasivo en el centro de nuestra galaxia. “¿Pueden ser los agujeros negros y las galaxias dos sistemas que se alimentan el uno al otro con un intercambio de gas y radiación?”, declaró Genzel en entrevista con EL ESPAÑOL, “vamos teniendo evidencia ahora de que esto es así, es fascinante lo que estamos aprendiendo: parece ser una relación cercana, pero aún no sabemos si fue primero el huevo o la gallina”.

Así se hizo la foto

Hasta el momento, lo más cercano que tenemos para ver el citado agujero negro es esta imagen del Observatorio Europeo Austral, en el que el efecto gravitatorio de Sagitario A* lleva a una nube de polvo a moverse en dirección al agujero negro desde el punto azul (2006) al verde (2010) y finalmente al rojo (2013).

Una nube de gas desplazada del punto azul (2006) al rojo (2013) por Sagitario A*.

Una nube de gas desplazada del punto azul (2006) al rojo (2013) por Sagitario A*. ESO / S. Gillessen

 

Otro reciente intento de enmarcar al esquivo agujero negro es éste, de la NASA, con telescopios de rayos X. Lo que brilla en este caso es un fogonazo de actividad que brota de las nubes de gas que rodean al agujero.

Arriba a la derecha, imagen destacada de Sagitario A*.

 

Arriba a la derecha, imagen destacada de Sagitario A*. NASA

 

La anhelada fotografía del agujero negro ocupa el trozo de espacio entre Sagitario A* y sus alrededores hasta la ‘cercana’ galaxia M87 y está almacenada en 4.024 discos duros. Se ha tomado desde ocho radio telescopios de alta frecuencia ubicados en altiplanos o montañas de distintas partes del mundo, entre ellos el Telescopio de 30 metros que tenemos situado en el Pico Veleta, en Sierra Nevada.

Por qué es tan difícil fotografiar un agujero negro

 

En primer lugar, porque son muy pequeños. Sagitario A* tiene una masa equivalente a cuatro millones de soles, pero su tamaño es tan sólo 17 veces mayor que nuestra estrella más cercana, y eso, a 25.000 años luz de distancia, no es nada.

A este problema hay que añadir otro, que un agujero negro es espacio vacío y que, con una concentración semejante de masa en tan poco espacio, su fuerza gravitatoria es tan grande que atrae toda la luz a su alrededor.

Imagen relacionada

La combinación de varios telescopios recogiendo datos en distintos puntos del globo resolvió un problema, pero generó otro: ¿Cómo combinar tantos y tan variados conjuntos de datos sobre el espacio? Porque en realidad, si este año logramos ver finalmente la imagen de un agujero negro es gracias a un algoritmo, llamado CHIRP y generado en el Instituto Tecnológico de Massachussets (MIT) por Katie Bouman, una joven doctoranda en informática, y su equipo.

Cuando tomamos una fotografía panorámica con el móvil, lo que va haciendo la cámara es tomar distintas fotos y superponerlas como parches. CHIRP hace algo parecido, aunque con un nivel de complejidad supremo: millones de datos sobre el espacio mezclados, que se confunden con la composición de nuestra propia atmósfera y que además fueron recogidos en momentos diferentes.

Incluso si esta foto acaba siendo más cutre de lo esperado, para los astrofísicos tendrá un enorme valor porque podrá servir para comprobar si las teorías de Albert Einstein sobre la gravedad siguen siendo válidas en un espacio tan extremo como los alrededores de un agujero negro.