Muchas veces hemos hablado del electrón que rodea el núcleo, de su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; tiene una masa de solamente 1/1.836 de la del núcleo más ligero (el del hidrógeno). La importancia del electrón es vital en el universo. Simplemente con que su carga fuera distinta en una pequeña fracción… ¡El mundo que nos rodea sería muy diferente! Y, ni la vida estaría presente en el Universo.
La Radiación de Cuerpo Negro no puede ser explicada clásicamente
Experimentos con electrones y positrones nos enseñaron cómo funciona el universo
Pero busquemos los “cuantos”. La física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menor intensidad, por los objetos más fríos (radiación de cuerpo negro).
En esta gráfica a cada temperatura el cuerpo negro emite una cantidad estándar de energía que está representada por el área bajo la curva en el intervalo.
Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si utilizamos las leyes de la termodinámica para calcular la intensidad de una radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para menores. Esta longitud de onda característica es inversamente proporcional a la temperatura absoluta de objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273º bajo cero). Cuando a 1.000º C un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.
Hierro al rojo vivo
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda, y por tanto, proporcional a la frecuencia de radiación emitida. La fórmula es E = hν, donde E es la energía del paquete, ν es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.
Dualidad inda partícula
Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: él sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta región del espacio, y que la frecuencia ν de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilantes de campos de fuerza, pero esto lo veremos más adelante.
La primera es la imagen obtenida por los físicos en el laboratorio y, la segunda es la Imagen ilustrativa de la dualidad onda-partícula, con la cual se quiere significar cómo un mismo fenómeno puede tener dos percepciones distintas. Lo cierto es que, el mundo de lo muy pequeño es extraño y no siempre lo podemos comprender.
El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de de Broglie. Poco después, en 1926, Edwin Schrödinger descubrió cómo escribir la teoría ondulatoria de de Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de ondas cuánticas”.
Está bien comprobado que la mecánica cuántica funciona de maravilla…, pero, sin embargo, surge una pregunta muy formal: ¿Qué significan realmente estas ecuaciones?, Qué es lo que están describiendo? Cuando Isaac Newton, allá en 1867 formuló cómo debían moverse los planetas alrededor del Sol, estaba claro para todo el mundo qué significaban sus ecuaciones: que los planetas estaban siempre en una posición bien definida des espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades en el tiempo.
Pero para los electrones todo es diferente. Su comportamiento parece estar envuelto en misterio. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?
El “universo de las partículas nunca ha sido fácil de comprender y su rica diversidad, nos habla de un vasto “mundo” que se rige por su propias reglas que hemos tenido que ir conociendo y seguimos tratando de saber, el por qué de esos comportamientos extraños y a veces misteriosos. Así, la pregunta anterior, de ¿Qué puede significar todo eso?…
La pudo contestar Niels Bohr, de forma tal que, con su explicación se pudo seguir trabajando, y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la interpretación de Copenhague de la mecánica cuántica.
Las leyes de la mecánica cuántica han sido establecidas con mucha precisión; permite cómo calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas de manera simultánea. Por ejemplo, podemos determinar la velocidad de una partícula con mucha precisión, pero entonces no sabremos exactamente dónde se encuentra; o a la inversa, podemos determinar la posición con precisión, pero entonces su velocidad queda mal definida. Si una partícula tiene espín (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.
—
No es fácil explicar de forma sencilla de dónde viene esta incertidumbre, pero existen ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar. Para afinar un instrumento musical se debe escuchar una nota durante un cierto intervalo de tiempo y compararla, por ejemplo, con un diapasón que debe vibrar también durante un tiempo. Notas muy breves no tienen bien definido el tono.
Para que las reglas de la mecánica cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuando más grande y más pesado es un objeto, más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica. Me gustaría referirme a esta exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por holismo, y que podría definir como “el todo es más que la suma de sus partes”. Si la física nos ha enseñado algo es justo lo contrario. Un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (partículas); basta que sepamos sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes. Por ejemplo, la constante de Planck, h, que es igual a 6’626075… × 10-34 Julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.
¿Qué sería de nosotros sin los amaneceres, y, la Tierra como sería sin luz?
Mucho ha sido el camino andado hasta nuestros tratando de conocer los secretos de la naturaleza que, poco a poco, nos van siendo familiares. Sin embargo, es más el camino que nos queda por recorrer. Es mucho lo que no sabemos y, tanto el micro-mundo como en el vasto mundo de muy grande, hay que cosas que aún, no hemos llegado a comprender.
El detector ATLAS funcionó, y rastrearon las partículas subatómicas…
Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los “trucos” ingeniosos descubiertos por Werner Heisemberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros como Erwin Schrödinger siempre presentaron serias objeciones a esta interpretación. Quizá funcione bien, pero ¿dónde está exactamente el electrón?, ¿en el punto x o en el punto y? En pocas palabras, ¿dónde está en realidad?, y ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.
Es cierto que, localizar y saber en qué punto exacto están esas pequeñas partículas… no es fácil
La mecánica cuántica puede ser definida o resumida así: en principio, con las leyes de la naturaleza que conocemos ahora se puede predecir el resultado de cualquier experimento, en el sentido que la predicción consiste en dos factores: el primer factor es un cálculo definido con exactitud del efecto de las fuerzas y estructuras, tan riguroso como las leyes de Isaac Newton para el movimiento de los planetas en el Sistema Solar; el segundo factor es una arbitrariedad estadística e incontrolable definida matemáticamente de forma estricta. Las partículas seguirán una distribución de probabilidades dadas, primero de una forma y luego de otra. Las probabilidades se pueden calcular utilizando la ecuación de Schrödinger de función de onda (Ψ) que, con muchas probabilidades nos indicará el lugar probable donde se encuentra una partícula en un momento dado.
Función de onda para una partícula bidimensional encerrada en una caja. Las líneas de nivel sobre el plano inferior están relacionadas con la probabilidad de presencia.
Muchos estiman que esta teoría de las probabilidades desaparecerá cuando se consiga la teoría que explique, de forma completa, todas las fuerzas; la buscada teoría del todo, lo que implica que nuestra descripción actual incluye variables y fuerzas que (aún) no conocemos o no entendemos. Esta interpretación se conoce como hipótesis de las variables ocultas.
Albert Einstein, Nathan Rosen y Boris Podolski idearon un “Gedankenexperiment”, un experimento hipotético, realizado sobre el papel, para el cual la mecánica cuántica predecía como resultado algo que es imposible de reproducir en ninguna teoría razonable de variables ocultas. Más tarde, el físico irlandés John Stewar Bell consiguió convertir este resultado en un teorema matemático; el teorema de imposibilidad.
(“El teorema de Bell o desigualdades de Bell se aplica en mecánica cuántica para cuantificar matemáticamente las implicaciones planteadas teóricamente en la paradoja de Einstein-Podolsky-Rosen y permitir así su demostración experimental. Debe su nombre al científico norirlandésJohn S. Bell, que la presentó en 1964.
El teorema de Bell es un metateorema que muestra que las predicciones de la mecánica cuántica (MC) no son intuitivas, y afecta a temas filosóficos fundamentales de la física moderna. Es el legado más famoso del físicoJohn S. Bell. El teorema de Bell es un teorema de imposibilidad, que afirma que:
Ninguna teoría física de variables ocultas locales puede reproducir todas las predicciones de la mecánica cuántica.”)
¿Cómo saber el número que saldrá cuando lanzamos los dados?
¡¡La mecánica cuántica!!, o, la perplejidad de nuestros sentidos ante lo que ese “universo cuántico” nos ofrece que, generalmente, se sale de lo que entendemos por sentido común. Ahí, en el “mundo” de los objetos infinitesimales, suceden cosas que no siempre podemos comprender. Y, como todo tiene una razón, no dejamos de buscarla en cada uno de aquellos sorprendentes sucesos que en ese lugar se producen. Podríamos llegar a la conclusión de que, la razón está en todo y solo la encontramos una vez que llegamos a comprender, mientras tanto, todo nos resulta extraño, irrazonable, extramundano y, algunas veces…imposible. Sin embargo, ahí está. Dos elementos actúan de común acuerdo para garantizar que no podamos descorrer el velo del futuro, de lo que será después (podemos predecir aproximaciones, nunca certezas), el principal de esos elementos es la ignorancia nunca podremos saber el resultado final de éste o aquél suceso sin tener la certeza de las condiciones iniciales. En la mayoría de los sistemas físicos son, en mayor o menor medida dada su complejidad, del tipo caótico es tal que, el resultado de las interacciones entre elementos son sumamente sensibles a pequeñísimas variaciones de los estados iniciales que, al ser perturbados mínimamente, hacen que el suceso final sea y esté muy alejado del que se creía al comienzo.
En su obra Materia y memoria, Henri Bergson decía:
“La percepción, en su conjunto, tienen su verdadera razón de ser en la tendencia del cuerpo a moverse”
Nosotros hablamos de los cinco sentidos de los que nos valemos para tener una percepción del mundo que nos rodea. Sabemos, que muchos de los animales que pueblan nuestro planeta tienen algunos de esos sentidos mucho más desarrollados que nosotros, y, sin embargo, es nuestra especie la que prevalece como superior de todas las demás. Nuestras mentes, han llegado a desarrollar un mayor y más completo conjunto de conexiones neuronales que han posibilitado una más amplia consciencia del mundo que nos rodea, de la Naturaleza.
La percepción, los sentidos y los pensamientos… Para poder entender la conciencia como proceso es preciso que entendamos cómo funciona nuestro cerebro, su arquitectura y desarrollo con sus funciones dinámicas. Lo que no está claro es que la conciencia se encuentre causalmente asociada a ciertos procesos cerebrales pero no a otros.
El cerebro humano -hay que reconocerlo-, es especial; su conectividad, su dinámica, su forma de funcionamiento, su relación con el cuerpo y con el mundo exterior, no se parece a nada que la Ciencia conozca. Tiene un carácter único y ofrecer una imagen fidedigna del cerebro no resulta nada fácil; es un reto tan extraordinario que no estamos preparados para cumplir en este momento. Estamos lejos de ofrecer esa imagen completa, y sólo podemos dar resultados parciales de esta increíble maravilla de la naturaleza.
Nuestro cerebro adulto, con poco más de 1,5 Kg de peso, contiene unos cien mil millones de células nerviosas o neuronas. La parte o capa ondulada más exterior o corteza cerebral, que es la parte del cerebro de evolución más reciente, contiene alrededor de treinta millones de neuronas y un billón de conexiones o sinapsis. Si contáramos una sinapsis cada segundo, tardaríamos 32 millones de años en acabar el recuento. Si consideramos el número posible de circuitos neuronales, tendremos que habérnoslas con cifras hiper-astronómicas. Un 10 seguido de, al menos, un millón de ceros (en comparación, el número de partículas del universo conocido asciende a 1079 “tan sólo” un 10 seguido de 79 ceros). ¡A que va a resultar que no somos tan insignificantes!
Con tan enorme cantidad de circuitos neuronales, ¿podremos algún día ser capaces de descifrar todos los secretos de nuestro universo? ¿De qué seremos capaces cuando podamos disponer de un cerebro totalmente evolucionado?
¡Tan frágil y tan fuerte! En tan pequeño conjunto reside el secreto mejor guardado por la Naturaleza que hizo posible, ese asombroso viaje que va, desde la materia inerte hasta los pensamientos. Han sido necesarios dies mil millones de años para que, las estrellas, pudieran fabricar los elementos bioquímicos necesarios para hacer posible tal transición que, por mucho que la queremos comprender…
El límite de lo que podremos conseguir tiene un horizonte muy lejano. Desde hablar o comunicarnos sin palabras sonoras -no es ninguna broma- , a la auto-transportación. Ahora mismo, simplemente con el pensamiento, podemos dar instrucciones a máquinas que obedecen nuestras órdenes. Sí, somos pura energía pensante, el poder de la mente no está totalmente desarrollado y, simplemente es cuestión de tiempo. Creo que no habrá límite alguno; el cuerpo que ahora nos lleva de un lugar a otro, ya no será necesario, y como los fotones que no tienen masa… ¿Podremos desplazarnos entre las estrellas a velocidades superl-umínicas? Mi imaginación se desboca y va mucho más allá de lo que la razón aconseja.
Creo que estoy corriendo demasiado en el tiempo, volvamos a la realidad. A veces mi mente se dispara. Lo mismo visito mundos extraordinarios con mares luminosos de neón líquido poblados por seres transparentes, que viajo a galaxias muy lejanas pobladas de estrellas de fusión fría circundadas por nubes doradas compuestas de anti-materia en la que, los positrones medio congelados, se mueven lentamente formando un calidoscopio de figuras alucinantes de mil colores. ¡La mente, qué tesoro!
Es cierto que existen otros mundos y, todos, están dentro de nuestras mentes
Cuando seamos capaces de convertir en realidad todo aquello en lo que podamos pensar, entonces, habremos alcanzado la meta. Para que eso sea una realidad… aún falta y, debemos ser conscientes de que nunca, podremos alcanzarlo todo. Si la Naturaleza y el Universo nos dejo, jugamos con ventaja y con tiempo por delante… ¿Qué se nos puede resistir? Nuestra manera de generar entropía negativa es dejar descendencia, así luchamos contra la desaparición de nuestra especie y de los logros que, durante milenios pudo alcanzar. Dejamos lo que logramos descubrir a los que nos siguen, ellos a los que vendrán después, y así hasta “el infinito”.
El mundo físico se representa gobernado de acuerdo a leyes matemáticas -fuerzas y constantes universales-. Desde este punto de vista, todo lo que hay en el universo físico está realmente gobernado en todos sus detalles por principios matemáticos, quizá por ecuaciones tales como las que describen nuestras mejores teorías.
Lo más seguro es que la descripción real del mundo físico esté pendiente de matemáticas futuras, aún por descubrir, fundamentalmente distintas de las que ahora tenemos. Llegarán nuevos Gauss, Riemann, Euler, Ramanujan, Cantor…, que con sus frescas y nuevas ideas, transformarán el pensamiento matemático y nuestra manera de ver el mundo.
¿Es, entonces, la Naturaleza matemática? Bueno, yo no me atrevería a negarlo… del todo. Una gran parte sí que lo es.
Sí, se podría decir que la Naturaleza está intrínsicamente ligada a las matemáticas, ya que los patrones y estructuras que encontramos en el mundo natural a menudo se describen y modelan utilizando conceptos matemáticos. Desde las proporciones de los seres vivos hasta las formas fractales en las rocas, las matemáticas nos ayudan a entender la organización y belleza de la naturaleza.
Ejemplos de matemáticas en la naturaleza:
Secuencia de Fibonacci:
Esta secuencia numérica (0, 1, 1, 2, 3, 5, 8, …) aparece en la disposición de las hojas de las plantas, en las espirales de las conchas de los caracoles, en la flor de girasol y en la ramificación de los árboles.
Proporción áurea (1,618):
Se encuentra en las proporciones de las estructuras de los seres vivos, como las proporciones de las manos, las de un cuerpo humano o incluso los anillos de un árbol.
Para llegar a comprenderlo, antes, tendremos que haber descifrado las funciones modulares de los cuadernos perdidos de Ramanujan, o por ejemplo, el verdadero significado del número 137, ése número puro adimensional que encierra los misterios del electrón (e–) -electromagnetismo -, de la constante de Planck (h) – el cuanto de acción – y de la luz (c) -la relatividad-, además de otros muchos secretos que nos quedan por desvelar.
Los resultados son lentos, no se avanza con la rapidez que todos deseamos. Poincaré expuso su conjetura para que el mundo la pudiera desvelar y no ha sido posible en más de un siglo, hasta que llegó Perelman para resolverla. Riemann expuso su geometría del espacio curvo, y hasta 60 años más tarde no fue descubierta por Einstein para hacer posible su formulación de la relatividad general, donde describe cómo las grandes masas distorsionan el espacio y el tiempo por medio de la fuerza de gravedad que generan para dibujar la geometría del Universo.
Rebote cuántico de la función de ondas del universo ψ para un espacio-tiempo de Friedmann-Robertson-Walker con campo escalar ϕ. v corresponde al volumen del universo en unidades de Planck. Complejidades como éstas son posibles gracias a los conceptos matemáticos creados por nuestras mentes. Por ejemplo, pensar en las complejas matemáticas topológicas requeridas por la teoría de supercuerdas puede producir incomodidad en muchas personas que, aún siendo físicos, no están tan capacitados para entender tan profundas y complejas ideas.
Bernhard Riemann introdujo muchas nuevas ideas y fue uno de los más grandes matemáticos. En su corta vida (1.826 – 1.866) propuso innumerables propuestas matemáticas que cambiaron profundamente el curso del pensamiento de los números en el planeta Tierra, como el que subyace en la teoría relativista en su versión general de la gravedad, entre otras muchas (superficie de Riemann, etc.). Riemann les enseñó a todos a considerar las cosas de un modo diferente.
La superficie de Riemann asociada a la función holomorfa “tiene su propia opinión” y decide por sí misma cuál debería ser el, o mejor, su dominio, con independencia de la región del plano complejo que nosotros podamos haberle asignado inicialmente. Durante su corta carrera, Riemann hizo avanzar las matemáticas en muchos campos y, en especial:
El Análisis.
La Teoría de números,
La Geometría, y la
Topología
Ahora podemos comprender la complejidad y la belleza de las superficies de Riemann. Este bello concepto desempeña un papel importante en algunos de los intentos modernos de encontrar una nueva base para la física matemática (muy especialmente en la teoría de cuerdas), y al final, seguramente, podremos desvelar el mensaje que encierra.
El caso de las superficies de Riemann es fascinante, aunque desgraciadamente sólo es para iniciados. Proporcionaron los primeros ejemplos de la noción general de variedad, que es un espacio que puede pensarse “curvado” de diversas maneras, pero que localmente (por ejemplo, en un entorno pequeño de cualquiera de sus puntos), parece un fragmento de espacio euclídeo ordinario.
La esfera de Riemann, superficie de Riemann compacta, el teorema de la aplicación de Riemann, las superficies de Riemann y aplicaciones complejas… He tratado de exponer en unas líneas la enorme importancia de este personaje para las matemáticas en general y la geometría en particular, y, para la física.
Lo cierto es que, si miramos hacia atrás en el tiempo, nos encontramos con el hecho cierto de que, Einstein pudo formular su bella teoría de la relatividad general gracias a una conferencia que dio Riemann y que, habiendo pedido ayuda a su amigo Marcel Grosmman, éste le mandara una copia en la que, aparecía el Tensor Métrico de Riemann que le dio a Einstein las herramientas de las que carecía.
En escritos anteriores consideramos dos aspectos de la relatividad general de Einstein, a saber, el principio de la relatividad, que nos dice que las leyes de la física son ciegas a la distinción entre reposo y movimiento uniforme; y el principio de equivalencia, que nos dice de qué forma sutil deben modificarse estas ideas para englobar el campo gravitatorio.
Ahora hay que hablar del tercer ingrediente fundamental de la teoría de Einstein, que está relacionada con la finitud de la velocidad de la luz. Es un hecho notable que estos tres ingredientes básicos puedan remontarse a Galileo; en efecto, parece que fue también Galileo el primero que tuvo una expectativa clara de que la luz debería viajar con velocidad finita, hasta el punto de que intentó medir dicha velocidad. El método que propuso (1.638), que implica la sincronización de destellos de linternas entre colinas distantes, era, como sabemos hoy, demasiado tosco. Él no tenía forma alguna de anticipar la extraordinaria velocidad de la luz.
Esta teoría del electromagnetismo de Maxwell tenía la particularidad de que requería que la velocidad de la luz tuviera un valor fijo y definido, que normalmente se conoce como c, y que un unidades ordinarias es aproximadamente 3 × 108 metros por segundo. Parece que tanto Galileo como Newton tenían poderosas sospechas respecto a un profundo papel que conecta la naturaleza de la luz con las fuerzas que mantienen la materia unida.
Pero la comprensión adecuada de estas ideas tuvo que esperar hasta el siglo XX, cuando se reveló la verdadera naturaleza de las fuerzas químicas y de las fuerzas que mantienen unidos los átomos individuales. Ahora sabemos que tales fuerzas tienen un origen fundamentalmente electromagnético (que vincula y concierne a la implicación del campo electromagnético con partículas cargadas) y que la teoría del electromagnetismo es también la teoría de la luz.
Para entender los átomos y la química se necesitan otros ingredientes procedentes de la teoría cuántica, pero las ecuaciones básicas que describen el electromagnetismo y la luz fueron propuestas en 1.865 por el físico escocés James Clark Maxwell, que había sido inspirado por los magníficos descubrimientos experimentales de Michael Faraday unos treinta años antes y que él plasmó en una maravillosa teoría.
Gracias a la luz, a la radiación electromagnética, podemos saber del universo lejano
Como he dicho antes, la teoría del electromagnetismo de Maxwell tenía la particularidad de que requería que la velocidad de la luz tuviera un valor fijo y definido, que normalmente se conoce como c, y que un unidades ordinarias es aproximadamente 3 × 108 metros por segundo.
Sin embargo, esto nos presenta un enigma si queremos conservar el principio de relatividad. El sentido común nos diría que si se mide que la velocidad de la luz toma el valor concreto c en el sistema de referencia del observador, entonces un segundo observador que se mueva a una velocidad muy alta con respecto al primero medirá que la luz viaja a una velocidad diferente, aumentada o disminuida, según sea el movimiento del segundo observador.
Pero el principio de relatividad exigiría que las leyes físicas del segundo observador (que definen en particular la velocidad de la luz que percibe el segundo observador) deberían ser idénticas a las del primer observador. Esta aparente contradicción entre la constancia de la velocidad de la luz y el principio de relatividad condujo a Einstein (como de hecho, había llevado previamente al físico holandés Hendrick Antón Lorentz y muy en especial al matemático francés Henri Poincaré) a un punto de vista notable por el que el principio de relatividad del movimiento puede hacerse compatible con la constancia de una velocidad finita de la luz.
Baste saber que, como quedó demostrado por Einstein, la luz, independientemente de su fuente y de la velocidad con que ésta se pueda mover, tendrá siempre la misma velocidad en el vacío, c, o 299.792.458 metros por segundo. Cuando la luz atraviesa un medio material, su velocidad se reduce. Precisamente, es la velocidad c el límite alcanzable de la velocidad más alta del universo. Es una constante universal y, como hemos dicho, es independiente de la velocidad del observador y de la fuente emisora.
¿Cómo funciona esto? Sería normal que cualquier persona creyera en la existencia de un conflicto irresoluble entre los requisitos de una teoría como la de Maxwell, en la que existe una velocidad absoluta de la luz, y un principio de relatividad según el cual las leyes físicas parecen las mismas con independencia de la velocidad del sistema de referencia utilizado para su descripción.
¿No podría hacerse que el sistema de referencia se moviera con una velocidad que se acercara o incluso superara a la de la luz? Y según este sistema, ¿no es cierto que la velocidad aparente de la luz no podría seguir siendo la misma que era antes? Esta indudable paradoja no aparece en una teoría, tal como la originalmente preferida por Newton (y parece que también por Galileo), en la que la luz se comporta como partículas cuya velocidad depende de la velocidad de la fuente. En consecuencia, Galileo y Newton podían seguir viviendo cómodamente con un principio de relatividad.
Galileo trató de medir su velocidad
Newton también quiso saber sobre los misterios de la Luz
Pero semejante imagen de la naturaleza de la luz había entrado en conflicto con la observación a lo largo de los años, como era el caso de observaciones de estrellas dobles lejanas que mostraban que la velocidad de la luz era independiente de la de su fuente. Por el contrario, la teoría de Maxwell había ganado fuerza, no sólo por el poderoso apoyo que obtuvo de la observación (muy especialmente en los experimentos de Heinrich Hertz en 1.888), sino también por la naturaleza convincente y unificadora de la propia teoría, por la que las leyes que gobiernan los campos eléctricos, los campos magnéticos y la luz están todos subsumidos en un esquema matemático de notable elegancia y simplicidad.
En la teoría de Maxwell, la luz toma forma de ondas, no de partículas, y debemos enfrentarnos al hecho de que en esta teoría hay realmente una velocidad fija a la que deben viajar las ondas luminosas. El punto de vista geométrico-espaciotemporal nos proporciona una ruta particularmente clara hacia la solución de la paradoja que presenta el conflicto entre la teoría de Maxwell y el principio de relatividad.
El día que podamos comprender lo que es la luz, habremos logrado secar todas las fuentes de nuestra inmensa ignorancia
Este punto de vista espaciotemporal no fue el que Einstein adoptó originalmente (ni fue el punto de vista de Lorentz, ni siquiera, al parecer, de Poincaré), pero, mirando en retrospectiva, podemos ver la potencia de este enfoque. Por el momento, ignoremos la gravedad y las sutilezas y complicaciones asociadas que proporciona el principio de equivalencia y otras complejas cuestiones, que estimo aburrirían al lector no especialista, hablando de que en el espacio-tiempo se pueden concebir familias de todos los diferentes rayos de luz que pasan a ser familias de líneas de universo, etc.
Baste saber que, como quedó demostrado por Einstein, la luz, independientemente de su fuente y de la velocidad con que ésta se pueda mover, tendrá siempre la misma velocidad en el vacío, c, o 299.792.458 metros por segundo. Cuando la luz atraviesa un medio material, su velocidad se reduce. Precisamente, es la velocidad c el límite alcanzable de la velocidad más alta del universo. Es una constante universal y, como hemos dicho, es independiente de la velocidad del observador y de la fuente emisora.
Aquí, en este mismo trabajo, tenemos un ejemplo de lo que la mente es. Comencé hablando de una cosa y, sin que me diera cuenta, he recorrido caminos que, ni pensaba recorrer cuando comencé a escribir.
Desde hace bastante tiempo ya que, los científicos de nuestra especie, a lo largo de la Historia, descubrieron que todo lo que somos está ahí, en el complejo órgano que llamamos cerebro. En ese “universo cognitivo” donde residen los 86.000 millones de neuronas que realizan fogonazos eléctricos llamados sinapsis en un proceso sin fin.
Aunque es mucho lo que hemos conseguido conocer de nuestro cerebro y su funcionamiento, mucho más es lo que nos queda por conocer. Ahí, en todo ese conglomerado de complejas estructuras que juntas, forman un todo, es de donde surge la Conciencia y, para poder entender como ocurre tal maravilla, debemos antes y es preciso que entendamos primero como funciona el cerebro: su arquitectura, su desarrollo y sus funciones dinámicas, su organización anatómica y la increíble dinámica que llega a generar. Todo ella nos llevará a tener una idea del por qué puede, a partir de está increíble “maquina de la naturaleza” surgir la conciencia.
Lo hemos comentado aquí en muchas ocasiones. El cerebro se cuenta entre los objetos más complicados del Universo y es, sin duda, una de las estructuras más notables que haya podido producir la evolución y, si pensamos que toda esa inmensa complejidad ha tenido su origen en los materiales creados en las estrellas, no tendremos otra opción que la del asombro. ¿A partir de la materia “inerte” llegaron los pensamientos?
Antes incluso del advenimiento de la moderna neurociencia, se sabía ya que el cerebro era necesario para la percepción, los sentimientos y los pensamientos. Lo que no está tan claro es por qué la conciencia se encuentra causalmente asociada a ciertos procesos cerebrales pero no a otros.
En tanto que objeto y sistema, el cerebro humano es especial: su conectividad, su dinámica, su forma de funcionamiento, su relación con el cuerpo al que ordena qué funciones debe desarrollar en cada momento dependiendo de tal o cual situación dada y también su relación con el mundo exterior a él que, por medio de los sentidos, le hace llegar información de todo lo que ocurre para que, pueda ado0ptar en cada momento, las medidas más adecuadas. Su carácter único hace que ofrecer una imagen fidedigna del cerebro, que pueda expresar todo lo que es, se convierta en un reto extraordinario que, en este momento, la ciencia no puede cumplir. Sin embargo, sí que puede, al menos, dar alguna que otra pista de lo que el cerebro y la conciencia puedan llegar a ser y aunque, aún lejos de una imagen completa, sí se puede dar una imagen parcial que siempre será mejor que nada, especialmente si nos da la suficiente información como para tener, una idea aproximada, de lo que el cerebro y la conciencia que surge de él, pueden llegar a ser.
Si nos paramos a pensar en el hecho cierto de que, el cerebro humano adulto, con poco más de un kilo de peso, contiene unos cien mil millones de células nerviosas o neuronas, La capa ondulada más exterior o corteza cerebral, que es la parte del cerebro de evolución más reciente, contiene alrededor de 30 mil millones de neuronas y más de un billón de conexiones o sinapsis. Si contáramos una sinapsis cada segundo, tardaríamos 32 millones de años en completar el recuento. Si consideramos el número posible de circuitos neuronales, tenemos que habérnosla con cifras hiper-astronómicas: 10 seguido de un millón de ceros. No existe en el Universo ninguna otra cosa de la que pueda resultar una cantidad igual. Incluso el número de partículas del universo conocido es de 10 seguido de tan sólo 79 ceros (El número de Eddington). En comparación con el número de circuitos neuronales…¡No es nada!
Santiago Ramón y Cajal fue un científico español y pionero en la neurociencia, famoso por su teoría de la neurona y sus detallados estudios del cerebro. Su trabajo revolucionó la comprensión del sistema nervioso, demostrando que las neuronas son unidades individuales, no una red continua como se creía antes.
El trabajo de Ramón y Cajal en el sistema nervioso:
La teoría de la neurona:
Cajal propuso la teoría de que el sistema nervioso está formado por células individuales (neuronas) que se comunican entre sí a través de sinapsis, no formando una red continua.
El estudio de las neuronas:
A través de técnicas de tinción, Cajal pudo observar la estructura de las neuronas en detalle, incluyendo sus dendritas, axones y sinapsis.
Plasticidad neuronal:
Cajal también reconoció la capacidad de las neuronas para reorganizarse y formar nuevas conexiones después de lesiones, una idea que fue pionera en su época y que ahora es una base fundamental de la neurociencia.
Impacto en la medicina:
El trabajo de Cajal fue fundamental para entender el funcionamiento del cerebro y el sistema nervioso, lo que tuvo un impacto significativo en la medicina y el tratamiento de enfermedades neurológicas.
Su legado:
Ramón y Cajal es considerado el padre de la neurociencia moderna y su trabajo ha influido enormemente en la investigación y el conocimiento del cerebro.
Cajal partió de la hipótesis – no demostrada científicamente hasta los años 1950 – de que las neuronas del cerebro estaban conectadas mediante sinapsis eléctricas que procesaban información-.
El conjunto de modelos del cerebro humano consiste en 300 partes. Se ha dado mayor énfasis a las partes internas del cerebro, tronco cerebral y cerebelo -con las estructuras completamente detalladas, manteniendo la estructura simple. Además de los principales vasos sanguíneos del cerebro, los nervios craneales también están incluidos en el conjunto, emanando de sus orígenes de forma exacta. Este elaborado sistema nervioso central disponible todo el mundo rompe límites y se ajusta perfectamente al cráneo y otras partes del conjunto.
Intrincado laberinto de conexiones sin fin
Aunque es mucho lo que hemos conseguido conocer de nuestro cerebro y su funcionamiento, mucho más es lo que nos queda por conocer. Ahí, en todo ese conglomerado de complejas estructuras que juntas, forman un todo, es de donde surge la Conciencia y, para poder entender como ocurre tal maravilla, debemos antes y es preciso que entendamos primero como funciona el cerebro: su arquitectura, su desarrollo y sus funciones dinámicas, su organización anatómica y la increíble dinámica que llega a generar. Todo ella nos llevará a tener una idea del por qué , a partir de está increíble “maquina” creada por la naturaleza” pudo surgir la conciencia.
“El cerebro es la estructura más compleja y enigmática en el universo. Contiene más neuronas que las estrellas existentes en la galaxia”.
Lo hemos comentado aquí en muchas ocasiones. El cerebro se entre los objetos más complicados del Universo y es, sin duda, una de las estructuras más notables que haya podido producir la evolución y, si pensamos que toda esa inmensa complejidad ha tenido su origen en los materiales creados en las estrellas, no tendremos otra opción que la del asombro. ¿A partir de la materia “inerte” llegaron los pensamientos, la consciencia y los sentimientos?
Antes incluso del advenimiento de la moderna neurociencia, se sabía ya que el cerebro era necesario para la percepción, los sentimientos y los pensamientos. Lo que no está tan claro es por qué la conciencia se encuentra causalmente asociada a ciertos procesos cerebrales pero no a otros.
“La sinapsis es el punto de encuentro y comunicación entre dos neuronas, o entre una neurona y otra célula, como una muscular o glandular. Es la forma mediante la cual viajan los impulsos nerviosos de nuestro cerebro. Imagina tu cerebro como una autopista neuronal por donde tienen que ir a toda velocidad los impulsos que comandan las funciones del cuerpo. En ese contexto, la sinapsis serían puentes que conectan diversos puntos de esa carretera. En palabras sencillas, la sinapsis es ese puente que permite el paso de información de una neurona a otra.”
Espacio entre el extremo de una neurona y otra célula. Los impulsos nerviosos se transmiten habitualmente a la célula vecina por medio de sustancias químicas que se llaman neurotransmisores. La neurona libera los neurotransmisores y otra célula del otro lado de la sinapsis los recibe.
En tanto que objeto y sistema, el cerebro humano es especial: su conectividad, su dinámica, su forma de funcionamiento, su relación con el cuerpo y con el mundo, no se parece a nada que la ciencia conozca. Su carácter único hace que el ofrecer una imagen del cerebro ofrezca un reto extraordinario. Aunque todavía estamos lejos de ofrecer una imagen completa, una imagen parcial siempre será mejor que nada, especialmente si nos da suficiente información como para generar una teoría satisfactoria de la conciencia.
¡Qué complejo es todo esto!
Y pensar que además, existen infinidad de secretos por desvelar, que existen cosas asombrosas que ni conocemos, que la inmensidad del Universo nunca podrá ser abarcada por el conocimiento humano, que siempre seguiremos haciendo preguntas que nadie podrá contestar… Y, entonces pregunto: ¿Qué haríamos si lo supiéramos todo?
Bueno creo que, en ese caso, caeríamos en la dejadez, desaparecería la curiosidad, estaríamos sumergidos en un mar de tristeza, sería el fin de la especie.
(99942) Aphofis, el asteroide que sembró el pánico cuando surgió la noticia.
El Meteorito Aphofis (el dios del Caos)Pasará dos veces cerca de la Tierra
Hace días que salió en algunos medios (otra vez), la noticias de que se nos acercaba el Asteroide Aphofis. Se le puede apreciar en el centro de la imagen, moviéndose de derecha a izquierda, tomado el 30 de diciembre de 2004 (Observatorio Astronómico Sormano). La trayectoria ha sido estudiada en varias ocasiones y, finalmente, el 9 de enero de 2013, el Laboratorio de Propulsión a Chorro en Pasadena (California) de la NASA descartó la posibilidad de una colisión de este asteroide, tanto en 2029 como en 2036. Aunque su tamaño de algo más de 300 metros no es descomunal, su caída sobre nuestras cabezas no hubiera sido una fiesta.
Muchos son los objetos que pasan por nuestra vecindad sin que nos causen problemas. Pasan a distancias que no pueden inquietarnos. En la Tabla adjunta podéis ver algunos de esos visitantes y a las Distancias Lunares (LD) que pasaron de nosotros.
Los movimientos de cometas y asteroides, a pesar de tener la defensa de Júpiter, son una seria y cierta amenaza para el desarrollo y persistencia de vida. Los impactos no han sido infrecuentes en el pasado lejano de la Tierra, habiendo tenido efectos catastróficos. Somos afortunados al tener la protección de la Luna y de la enorme masa de Júpiter que atrae hacia sí los cuerpos que llegan desde el exterior desviándolos de su probable trayectoria hacia nuestro planeta.
El pasado mes de Octubre, un asteroide de un diámetro comprendido entre 25 y 50 metros pasó junto a la Tierra a unos 256.500 kilómetros.
La caída en el planeta de un asteroide de dimensiones considerables, nos podría causar muy graves problemas y producir extinciones globales que retrasarían en millones de años la evolución y hacer desaparecer algunas especies. Cuando comento este tema no puedo evitar el recuerdo del meteorito caído en la Tierra que impactó en la península de Yucatán hace 65 millones de años, al final de la Era Mesozoica, cuando según todos los indicios, los dinosaurios se extinguieron. Sin embargo, aquel suceso catastrófico para los grandes lagartos, en realidad supuso que la Tierra fue rescatada de un callejón sin salida evolutivo. Parece que los dinosaurios evolucionaron por una vía que desarrollaba el tamaño físico antes que el tamaño cerebral.
Aquel no era un mundo para nosotros
La desaparición de los dinosaurios junto con otras formas de vida sobre la Tierra en aquella época, hizo un hueco para la aparición de los mamíferos. Se desarrolló la diversidad una vez desaparecidos los grandes depredadores. Así que, al menos en este caso concreto, el impacto nos hizo un gran favor, dado que hizo posible que 65 millones de años más tarde pudiéramos llegar nosotros. Los dinosaurios dominaron el planeta durante 150 millones de años; nosotros, en comparación, llevamos aquí tres días y, desde luego, ¡la que hemos formado!
La Vida eligió a la Tierra para surgir
En nuestro sistema solar la vida se desarrolló por primera vez sorprendentemente pronto tras la formación de un entorno terrestre hospitalario. Hay algo inusual en esto. El secreto reside en el tiempo biológico necesario para desarrollar la vida y el tiempo necesario para desarrollar estrellas de segunda generación y siguientes que en novas y supernovas cristalicen los materiales complejos necesarios para la vida, tales como el hidrógeno, nitrógeno, oxígeno, carbono, etc.
Parece que la similitud en los “tiempos” no es una simple coincidencia. El argumento, en su forma más simple, lo introdujo Brandon Carter y lo desarrolló John D. Barrow por un lado y por Frank Tipler por otro. Al menos, en el primer sistema solar habitado observado, ¡el nuestro!, parece que sí hay alguna relación entre tiempo(bio) y tiempo(estrella) que son aproximadamente iguales; el t(bio) –tiempo biológico para la aparición de la vida– algo más extenso.
La evolución de una atmósfera planetaria que sustente la vida requiere una fase inicial durante la cual el oxígeno es liberado por la foto-disociación de vapor de agua. En la Tierra esto necesitó 2.400 millones de años y llevó el oxígeno atmosférico a aproximadamente una milésima de su valor actual. Cabría esperar que la longitud de esta fase fuera inversamente proporcional a la intensidad de la radiación en el intervalo de longitudes de onda del orden de 1000-2000 ángstroms, donde están los niveles moleculares clave para la absorción de agua.
Este simple modelo indica la ruta que vincula las escalas del tiempo bioquímico de evolución de la vida y la del tiempo astrofísico que determina el tiempo requerido para crear un ambiente sustentado por una estrella estable que consume hidrógeno en la secuencia principal y envía luz y calor a los planetas del Sistema Solar que ella misma forma como objeto principal.
Telescopio Spitzer de la NASA ha detectado los pilares de la vida en el universo distante, aunque en un entorno violento. Ha posado su poderoso ojo infrarrojo en un débil objeto situado a una distancia de 3.200 millones de años luz (recuadro), Spitzer ha observado la presencia de agua y moléculas orgánicas en la galaxia IRAS F00183-7111.
A muchos les cuesta trabajo admitir la presencia de vida en el universo como algo natural y corriente, ellos abogan por la inevitabilidad de un universo grande y frío en el que es difícil la aparición de la vida. Yo (como muchos otros), estoy convencido de que la vida, es de lo más natural en el universo y estará presente en millones de planetas que, como la Tierra, tienen las condiciones para ello. Una cosa no se aparta de mi mente, muchas de esas formas de vida, serán como las nuestras aquí en la Tierra y estarán también, basadas en el Carbono. Claro que, no por eso niego que puedan existir otras formas de vida diferentes a las terrestres.
Los biólogos, parecen admitir sin problemas la posibilidad de otras formas de vida, pero no están tan seguros de que sea probable que se desarrollen espontáneamente, sin un empujón de formas de vida basadas en el carbono. La mayoría de las estimaciones de la probabilidad de que haya inteligencias extraterrestres en el universo se centran en formas de vida similares a nosotros que habiten en planetas parecidos a la Tierra y que necesiten agua y oxígeno o similar con una atmósfera gaseosa y las demás condiciones de la distancia entre el planeta y su estrella, la radiación recibida, etc. En este punto, parece lógico recordar que antes de 1.957 se descubrió la coincidencia entre los valores de las constantes de la Naturaleza que tienen importantes consecuencias para la posible existencia de carbono y oxígeno, y con ello para la vida en el universo.
Un nuevo estudio revela la innovadora investigación en la formación hidrotermal de rocas de carbonato de arcilla en la Fosa Nili, en una región de Marte. Los resultados pueden proporcionar un vínculo a la evidencia de organismos vivos en Marte hace 4 mil millones de años aproximadamente.
Hay una coincidencia o curiosidad adicional que existe entre el tiempo de evolución biológico y la astronomía. Puesto que no es sorprendente que las edades de las estrellas típicas sean similares a la edad actual del universo, hay también una aparente coincidencia entre la edad del universo y el tiempo que ha necesitado para desarrollar formas de vida como nosotros.
Si miramos retrospectivamente cuánto tiempo han estado en escena nuestros ancestros inteligentes (Homo Sapiens) vemos que han sido sólo unos doscientos mil años, mucho menos que la edad del universo, trece mil millones de años, o sea, menos de dos centésimos de la Historia del Universo. Pero si nuestros descendientes se prolongan en el futuro indefinidamente, la situación dará la vuelta y cuando se precise el tiempo que llevamos en el universo, se hablará de miles de millones de años. Lo que parece poco probable. La dinámica del Universo es cambiante y nada dura eternamente.
Una galaxia, una estrella, un planeta situado a la distancia adecuada y presencia de agua… La Vida prolifera por todo el universo que es igual en todas partes y en todas sus regiones, por lejos que puedan estar, están gobernadas por las mismas leyes y constantes.
Entristece que la llegada de un asteroide de grandes dimensiones pueda acabar con todo lo que la Naturaleza ha logrado, en el sentido de planetas situados en los lugares adecuados para que, habiendo evolucionado con el paso del tiempo, habiendo logrado el surgir de la Vida que ha evolucionado hacia niveles complejos, se pudiera ir al traste con un suceso del que ya, en varias ocasiones, se plasmaron en nuestro planeta.
No alcanzamos el nivel que se esperaba de nosotros
Surgirá otra especie más avanzada para sustituirnos
Sin descartar que esa especie sea artificial y ya la estemos “fabricando” nosotros mismos
Claro que, los Dinosaurios reinaron aquí durante 150 millones de años y desaparecieron (según parece), por la caída de uno de estos grandes monstruos espaciales. A veces he llegado a pensar que, si la Naturaleza es realmente sabia… ¿No habrá pensado que nuestra especie no ha sabido alcanzar el nivel de humanización que se esperaba de ella, y, se puede valer de este suceso para eliminarnos y que pueda dar entrada a otra especie que sí pueda alcanzar lo que nosotros no pudimos
Emilio Silvera Vázquez
Aparte de varias fuentes más y otras propias, lo que pudimos leer tiene su origen en un artículo publicado el 29 de julio de 2011 en la web delIAC.
El Cúmulo Copo de Nieve en la Nebulosa del Cono, es como tantas otras Nebulosas, el resultado de la explosión de una estrella al final de sus días. Las estrellas nunca quieren morir del todo y, cuando lo hacen al finalizar sus ciclos de fusión, se convierten en otros objetos distintos y, sus materiales sobrantes son dejados esparcidos por grandes regiones del espacio interestelar, en forma de bellas nebulosas de las que surgen nuevas estrellas, nuevos mundos y… -seguramente- nuevas formas de vida.
Ahora sabemos que el Universo está constituido de innumerables galaxias que forman cúmulos que, a su vez, se juntan en supercúmulos. Estas galaxias están abarrotadas de estrellas y las estrellas, no pocas veces, están acompañadas de planetas que forman sistemas planetarios. Nosotros, los humanos, hemos realizado profundas observaciones que, con nuestros modernos ingenios, nos han podido llevar hasta el espacio profundo, allí donde habitan galaxias que nacieron hace ahora doce mil millones de años.
Arriba podemos contemplar una especie de incubadora estelar que todos conocemos como la Gran Nebulosa de Orión, una familiar imagen que está cerca de “nuestro barrio” dentro de la Galaxia Vía Láctea y también conocida como M42 con sus resplandecientes nubes y sus jóvenes y masivas estrellas nuevas que radian en el ultravioleta ionizando la región que toma ese familiar tono azulado.
Situada en el borde de un complejo de nubes moleculares gigantes, esta cautivadora nebulosa -laboratorio espacial- es solo una pequeña fracción de la inmensa cantidad de material interestelar en nuestra vecindad galáctica.El campo de la imagen se extiende cerca de 75 años-luz a la distancia estimada a la Nebulosa de Orión de 1.500 años-luz. Es una de las Nebulosas más estudiada por los Astrónomos y astrofísicos debido a su enorme capacidad de crear nuevas estrellas y estar en ella presentes procesos de transmutación de elementos y una vertiginosa actividad que es la mejor muestra del comportamiento de la materia en estos lugares.
Sin salir de nuestra región, nos vamos al barrio vecino que conocemos como Cinturón de Orión donde destacan las estrellas azuladas Alnitak, Alnilam y Mintaka, estrellas supermasivas y muy calientes que forman el Cinturón del Cazador. Ahí podemos ver, abajo a la izquierda la famosa Nebulosa oscura Cabeza de Caballo.
Del Brazo de Orión, la región que nos acoge y en la que se encuentra situado nuestro Sistema solar, al no poderlo tomar desde fuera y tenerlo tan cerca (de hecho estamos en él inmersos), no podemos tener una imagen como las que hemos captado de otros lugares y regiones más alejadas. También conocido como “brazo local” que es alternativo al Brazo de Orión de nuestra Galaxia, así se define algunas veces al Brazo espiral que contiene a nuestro Sol.
Cuando hablamos de brazo espiral nos estamos refiriendo a una estructura curvada en el disco de las galaxias espirales (y de algunas irregulares) donde se concentran las estrellas jóvenes, las nebulosas (regiones H II) y el polvo. Algunas galaxias tienen un patrón bien definido de dos brazos espirales, mientras que otras pueden tener tres o cuatro brazos, estando en ocasiones fragmentados. Los brazos son visibles por la reciente formación de estrellas brillantes, masivas y de corta vida en ellos. Esta actividad de formación de estrellas es periódica, correspondiendo al movimiento a través del disco de una onda de densidad gravitatoria y de fuertes vientos estelares.
Nuestra curiosidad nos ha llevado, mediante la observación y estudio del cielo, desde tiempos inmemoriales, a saber de las estrellas, de cómo se forman, viven y mueren y, de las formas que adoptan al final de sus vidas, en qué se convierten cuando llega ese momento final y a dónde va a parar la masa de las capas exteriores que eyectan con violencia al espacio interestelar para formar nuevas nebulosas. De la estrella original, según sus masas, nos quedará una enana blanca, una estrella de neutrones y, un agujero negro. También, en encuentros atípicos o sucesos inesperados, pueden crearse estrellas por fusión que las transforman en otras diferentes de lo que en su origen fueron.
Uno de los acontecimientos más increíbles que podríamos contemplar en el Universo sería, cómo se forma un Agujero negro que, lo mismo es el resultado de la muerte de una estrella masiva que implosiona y se contrae más y más hasta que desaparece de nuestra vista, o, también, se podría formar en otros sucesos como, por ejemplo, la fusión de dos estrellas de neutrones.
La formación de un agujero negro es una de las manifestaciones más grandes de las que tenemos constancia con la Gravedad. La estrella, en este caso gigante y muy masiva, llega a su final por haber agotado todo su combustible nuclear de fusión y, queda a merced de la fuerza de gravedad que genera su propia masa que, entonces, comienza a contraerse sobre sí misma más y más hasta llegar a convertirse en una singularidad, es decir, un punto matemático en el que ciertas cantidades físicas pueden alcanzar valores infinitos de temperatura y densidad. Por ejemplo, de acuerdo con la relatividad general, la curvatura del espacio-tiempo se hace infinita en un agujero negro en el que, el espacio y el tiempo…¡dejan de existir!
Es tan fuerte la Gravedad generada que nada la puede frenar. Muchas veces hemos hablado aquí de la estabilidad de una estrella que se debe a la igualdad de dos fuerzas antagómicas: por un lado, la fuerza de fusión y de radiación de una estrella que la impulsa a expandirse y que, sólo puede ser frenada por aquella otra fuerza que emite la misma masa estelar, la Gravedad. Las dos se ven compensadas y, de esa manera, la estrella vive miles de millones de años.
Mientras la estrella está fusionando elementos, la radiación hace que toda su masa quiera expandirse, y, por el contrario, la misma masa genera una fuerza de Gravedad que tiende a contraerse, así las dos fuerza antagónicas se equilibran y la estrella vive fusionando elementos miles de años. Sin embargo, cuando agota todo el combustible nuclear de fusión, la Gravedad se ve libre para contraer toda aquella ingente masa que implosiona najo la fuerza de la gravedad que genera, y, acaba convirtiéndose en una estrella de neutrones o un agujero negro.
Las estrellas implosionan y se contraen sobre sí mismas cuando la fusión finaliza en sus núcleos por falta de combustible nuclear, tales como el hidrógeno, helio, berilio, Carbono, Oxígeno… Entonces, el proceso de contracción no es igual en todas ellas, sino que, está reglado en función de la masa que cada estrella pueda tener. En una estrella como nuestro Sol, cuando comienza a contraerse está obligando a la masa a que ocupe un espacio cada vez menor.
La masa, la materia, como sabemos está formada por partículas subatómicas que, cada una de ellas tienen sus propias singularidades, y, por ejemplo, el electrón, es una partícula que, siendo de la familia de los leptones es, además, un fermión que obedece a la estadística de Fermi-Dirac y está sometido al Principio de exclusión de Pauli que es un principio de la mecánica cuántica aplicable sólo a los fermiones y no a los bosones, y, en virtud del cual dos partículas idénticas en un sistema, como por ejemplo electrones en un átomo o quarks en un hadrón, no pueden poseer un conjunto idénticos de números cuánticos. (esto es, en el mismo estado cuántico de partícula individual) en el mismo sistema cuántico ligado (El origen de este Principio se encuentra en el teorema de espín-estadística de la teoría relativista).
Toda la explicación anterior está encaminada a que, podáis comprender el por qué, se forman las estrellas enanas blancas y de neutrones debido al Principio de exclusión de Pauli. Sabemos que la materia, en su mayor parte son espacios vacíos pero, si la fuerza de Gravedad va comprimiendo la masa de una estrella más y más, lo que está haciendo es que va juntando, cada vez más, a las partículas que conforman esa materia. Así, los electrones se ven más juntos cada vez y, llega un momento, en el que sienten una especie de “claustrofobia”, su condición de fermiones, no les permite estar tan juntos y, entonces, se degeneran y comienzan a moverse a velocidades relativista. Tal suceso, es de tal magnitud que, la Gravedad que estaba comprimiendo la nasa de la estrella, se ve frenada y se alcanza una estabilidad que finaliza dejando una estrella enana blanca estable.
Pero, ¿qué pasaría si la estrella en vez de tener la masa de nuestro Sol, tiene varias veces su masa? Entonces, ni la degeneración de los electrones puede frenar la fuerza gravitatoria que sigue comprimiendo la masa de la estrella y fusiona electrones con protones para formar neutrones. Los neutrones, que también son fermiones, se ven comprimidos hasta tal punto que, también se degeneran y, ellos, sí son capaces de frenar la fuerza gravitatoria quedando esa masa estabilizada como estrella de Neutrones.
Como el niño que no deja de hacer preguntas, nosotros, llegados a este punto también, podríamos preguntar: ¿Qué ocurriría si la estrella es muy masiva? Entonces amigos míos, el Principio de Exclusión de Pauli haría mutis por el foro, impotente ante la descomunal fuerza gravitatoria desatada y, ni la degeneración de electrones y neutrones podría frenarla. La masa se vería comprimida más y más hasta convertirse en un agujero negro de donde, ni la luz puede escapar.
Pero los mecanismos del Universo son muchos y los sucesos que podemos contemplar son asombrosos. Por ejemplo, si una inocente estrella está situada cerca de una enana blanca de gran densidad, se vería atraída por ella y “vería” como, poco a poco, le robaría su masa hasta que, finalmente, la engulliría en su totalidad.
Si eso ocurre tal y como vemos en la imagen, ¿qué pasaría entonces? Sencillamente que, la estrella enana blanca pasaría a transformarse en una estrella de neutrones, ya que, la masa que a pasado a engrosar su entidad, es demasiado para poder quedar estable como enana blanca y, de nuevo la gravedad hace que electrones y protones se fundan para formar neutrones que, degenerados, estabilizan la nueva estrella.
Sí, hemos llegado a ser conscientes de nuestro entorno y hemos podido crear ingenios que nos hablan y muestran las lejanas regiones del Universo. Ahora podemos hablar de las tremendas energías presentes en el espacio cosmológico y sabemos por qué se generan y cuáles son sus consecuencias. Conocemos de la importancia del Sol para la vida en la Tierra, hemos observado el Sistema solar al que pertenecemos dentro una inmensa galaxia de estrellas y, sobre todo, hemos llegado a comprender que, la Vida en nuestro planeta, puede no ser un privilegio, sino cosa cotidiana repartida por todo el universo infinito.
El Telescopio Espacial Fermi, de Rayos Gamma de la NASA ha descubierto y nos enseña una estructura nunca antes vista en el centro de nuestra Galaxia, la Vía Láctea. La estructura se extiende a 50.000 años luz y puede ser el remanente de una erupción de un agujero negro de enorme tamaño en el centro de nuestra Galaxia.
Imagen artística de la sonda Dawn acercándose Vesta – Crédito NASA/JPL. El pasado 16 de julio de 2011, la sonda Dawn de la NASA se acercó al gran asteroide Vesta; el Telescopio Espacial Hubble ha capturó imágenes de Vesta, que ayudaron a afinar los planes para el encuentro de la nave espacial con el asteroide.
El desarrollo de la ciencia tiene su frontera superior en el desarrollo de tecnologías que hacen posible el conocimiento de nuestro universo. Satélites, telescopios, radio telescopios, sondas espaciales, naves, cohetes y transbordadores son el fruto de la investigación de muchos profesionales de diversas áreas del conocimiento que están llevando a toda la Humanidad hacia el futuro.
Con el radiotelescopio ALMA, ubicado en el desierto de Atacama (Chile), a 5.000 metros de altura, los científicos lograron captar moléculas de glicolaldehído en el gas que rodea la estrella binaria joven IRAS 16293-2422, con una masa similar a la del Sol y ubicada a 400 años luz de la Tierra.
El glicolaldehído ya se había divisado en el espacio interestelar anteriormente, pero esta es la primera vez que se localiza tan cerca de una estrella de este tipo, a distancias equivalentes a las que separan Urano del Sol en nuestro propio sistema solar.
“En el disco de gas y polvo que rodea a esta estrella de formación reciente encontramos glicol-aldehído, un azúcar simple que no es muy distinto al que ponemos en el café”, señaló Jes Jørgensen, del Instituto Niels Bohr de Dinamarca y autor principal del estudio.
Voyager I y II en su viaje sin fin, llegan a los límites del Sistema Solar
El observatorio espacial Kepler encontró en el sistema planetario Kepler-22, a 600 años luz, el primer planeta situado en la llamada “zona habitable”, un área en la que, por su distancia a su sol, puede haber agua líquida, según anunció este lunes la NASA en una rueda de prensa. Los científicos del Centro de Investigación Ames de la NASA anunciaron además que Kepler ha identificado 1.000 nuevos “candidatos” a planeta, diez de los cuales tienen un tamaño similar al de la Tierra y orbitan en la zona habitable de la estrella de su sistema solar, esto es, ni demasiado cerca ni demasiado lejos de una estrella.
El planeta, Kepler-22b, es el más pequeño hallado por la sonda espacial orbitando en la “zona habitable” -aquella donde las temperaturas permiten la vida- de una estrella similar a la de la Tierra. 55 planetas son aún más grandes que Júpiter, el más grande de nuestro sistema solar Es más grande que la Tierra y todavía no se ha determinado si es rocoso, gaseoso o líquido, pero, según dijo la subdirectora del equipo científico del Centro Ames, Natalie Batalha, “estamos cada vez más cerca de encontrar un planeta parecido a la Tierra”.
Esta escena es del día en que, en 1997, fue lanzada la Misión Cassini-Huygens hacia el vecino Saturno. ¿Qué podemos comentar de esa misión que nos llevó al más grande de los asombros, al podernos mostrar imágenes nunca antes vistas?
Imágenes tomadas por Cassini a su paso por Júpiter
La misión Cassini a Saturno y Huygens a Titán, es una de las misiones más ambiciosas hasta el momento jamás llevado a cabo. Todos sabemos ahora de su alta rentabilidad y de los muchos logros conseguidos. Gracias a esta misión sabemos de mucho más sobre el planeta hermano y de su gran satélite Titán del que hemos podido comprobar que es una “pequeña Tierra” con sus océanos de metano y su densa atmósfera inusual en cuerpos tan pequeños.
¡El ingenio humano!
La masa de la sonda Cassini es tan grande que no fue posible emplear un vehículo de lanzamiento que la dirigiese directamente a Saturno. Para alcanzar este planeta fueron necesarias cuatro asistencias gravitacionales; de esta forma, Cassini empleó una trayectoria interplanetaria que la llevaría a Venus en dos ocasiones, posteriormente hacia la Tierra y después hacia Júpiter. Después de sobrevolar Venus en dos ocasiones a una altitud de 284 Km, el 26 de abril de 1998 y a 600 Km, el 24 de junio de 1999, el vehículo se aproximó a la Tierra, acercándose a 1171 Km de su superficie el 18 de agosto de 1999. Gracias a estas tres asistencias gravitacionales, Cassini adquirió el momento suficiente para dirigirse al Sistema Solar externo. La cuarta y última asistencia se llevaría a cabo en Júpiter, el 30 de diciembre de 2000, lo sobrevoló a una distancia de 9.723.890 Km, e impulsándose hacia Saturno.
¿Os dais cuenta de la asombrosa imaginación y los conocimientos que son necesarios para llevar a cabo todo este conglomerado de datos?
Fase de Crucero:
Cassini llevó a cabo un plan de vuelo de baja actividad durante el cual sólo se realizaron las actividades de navegación e ingeniería imprescindibles, como maniobras de chequeo o corrección de trayectoria. Los instrumentos científicos fueron desconectados permanentemente, salvo en el transcurso de unas pocas actividades de mantenimiento. Estas incluían sólo un chequeo de todo su instrumento cuando la sonda estaba cerca de la Tierra, así como la calibración del magnetómetro. Las comprobaciones sobre el estado de la sonda Huygens se llevaron a cabo cada seis meses, mientras que las observaciones científicas se realizaron cuando el vehículo se aproximó a Venus, la Tierra y Júpiter.
El sobrevuelo de Júpiter significó una buena oportunidad para las sondas Cassini y Galileo de cara a estudiar varios aspectos de este planeta y su medio circundante desde octubre de 2000 hasta marzo de 2001, es decir, antes, durante y después de la máxima aproximación a Júpiter, el 30 de diciembre de 2000. Las observaciones científicas contaron con la ventaja de disponer de dos sondas espaciales en las cercanías del planeta al mismo tiempo. Algunos de los objetivos llevados a cabo conjuntamente por la Cassini y la Galileo incluyeron el estudio de la magnetosfera y los efectos del viento solar en ésta, así como la obtención de datos sobre las auroras en Júpiter.
Durante este sobrevuelo, la mayor parte de los instrumentos del orbitador Cassini fueron conectados, calibrados y trabajaron recogiendo información. Este estudio conjunto sirvió como buena práctica para comprobar el funcionamiento del instrumental de la sonda tres años antes de su llegada a Saturno.
Llegada a Saturno
Después de un viaje de casi siete años y más de 3500 millones de kilómetros recorridos, la sonda Cassini llegará a Saturno el día 1 de julio de 2004.
La fase más crítica de la misión –además del lanzamiento– es la inserción orbital del vehículo en torno al planeta. Cuando el vehículo alcance el planeta, la sonda pondrá en marcha su motor principal durante 96 minutos a las 04:36 T.U., con la finalidad de reducir su velocidad y permitir que la gravedad de Saturno la capture como un satélite del planeta. Atravesando el hueco entre los anillos F y G, Cassini se aproximará al planeta para iniciar así la primera de sus 76 órbitas que completará durante su misión principal de cuatro años.
Todos hemos podido admirar las imágenes y sabido de los datos científicos que la Cassini ha podido enviar a la Tierra para que, todos podamos saber mucho más del planeta Saturno y de su entorno. Imágenes inolvidables y de increíble belleza forman parte ya de la historia de la misión.
La misión de la sonda Huygens
La sonda Huygens viajó junto a la Cassini hacia Saturno. Anclada a ésta y alimentada eléctricamente por un cable umbilical, Huygens ha permanecido durante el viaje de siete años en modo inactivo, sólo puesta en marcha cada seis meses para realizar chequeos de tres horas de duración de su instrumental y de sus sistemas ingenieriles.
Unos 20 días antes de alcanzar la atmósfera alta de Titán, Huygens fue eyectada por Cassini. Esto ocurrió el 24 de diciembre de 2004. Tras cortar su cable umbilical y abrir sus anclajes, Huygens se separó de su nave madre y voló en solitario hacia Titán, con una trayectoria balística, girando a 7 revoluciones por minuto para estabilizarse. Varios temporizadores automáticos conectarán los sistemas de la sonda espacial antes de que ésta alcance la atmósfera superior de Titán.
Dos días después de la eyección de la sonda, Cassini realizará una maniobra de desviación, de manera que ésta puedo seguir a la Huygens cuando penetró en la atmósfera de Titán. Esta maniobra servió también para establecer la geometría requerida entre el orbitador con Huygens, así como las comunicaciones de radio durante el descenso.
Huygens porta dos transmisores de microondas en la banda S y dos antenas, las cuales enviarán simultáneamente la información recogida hacia el orbitador Cassini. Una de ellas emitirá con un retraso de seis segundos respecto a la otra, para evitar cualquier pérdida de información si tuviesen lugar problemas con las comunicaciones.
El descenso de Huygens tuvo lugar el 15 de enero de 2005. La sonda entró en la atmósfera de Titán a una velocidad de 20.000 Km/h. Este vehículo ha sido diseñado tanto para soportar el extremo frío del espacio (temperaturas de –200°C) como el intenso calor que se encontrará durante su entrada atmosférica (más de 12000°C).
Los paracaídas que transporta Huygens frenaron más la sonda, de tal modo que ésta puedo llevar a cabo un amplio programa de observaciones científicas al tiempo que desciende hacia la superficie de Titán. Cuando la velocidad de la sonda descendido hasta los 1400 Km/h, se desprendió su cubierta mediante un paracaídas piloto. Acto seguido se desplegó otro paracaídas de 8.3 metros de diámetro que frenó aún más el vehículo, permitiendo la eyección del decelerador y del escudo térmico.
Durante la primera parte del descenso, el trabajo de los instrumentos situados a bordo de la sonda Huygens será dirigido por un sistema temporizador, pero en los últimos 10 a 20 Km, será un altímetro radar quien medirá la altura a la que se encuentra el vehículo y controlará el instrumental científico.
Durante el descenso, el instrumento de estructura atmosférica de Huygens medió las propiedades físicas de la atmósfera. El cromatógrafo de gases y el espectrómetro de masas determinarán la composición química de la atmósfera en función de la altitud. El colector de aerosoles y el pirolizador capturarán partículas de aerosol –las finas partículas líquidas o sólidas suspendidas en la atmósfera–, las calentará y enviará el vapor resultante al espectrómetro y el cromatógrafo para su análisis.
El sistema de imagen de descenso y el radiómetro espectral trabajarán en la toma de imágenes de formaciones nubosas y de la superficie de Titán, determinando además la visibilidad en la atmósfera de este mundo. Según se vaya aproximando a la superficie, el instrumento encenderá un sistema de iluminación brillante que para medir la reflectividad superficial. Paralelamente a ello, la señal emitida por la sonda Huygens será recogida por el experimento Doppler de la Cassini, con lo cual se podrán determinar los vientos, ráfagas y turbulencias de la atmósfera. Cuando la sonda sea empujada por el viento, la frecuencia de su señal de radio variará ligeramente –en lo que se conoce como efecto Doppler, similar a la variación de la frecuencia del silbido de un tren que percibimos cuando éste pasa por delante de nosotros. Estos cambios en la frecuencia se emplearán para deducir la velocidad del viento que ha experimentado la sonda.
Pequeños mundos muy cercanos a nosotros y que nos podrían dar buenas sorpresas
La misión principal de la sonda Cassini tenía previsto que finalizaría el 30 de junio de 2008, cuatro años después de su llegada a Saturno y 33 días después de su último sobrevuelo a Titán, el cual tuvo lugar el 28 de mayo de 2008. Este sobrevuelo estaba diseñado para posicionar a la sonda de cara a un nuevo acercamiento a dicho satélite el 31 de julio de 2008, ofreciendo la oportunidad de proceder con más sobrevuelos durante la misión extendida, si es que los recursos disponibles la permiten. No hay ningún factor en la misión principal que impida una misión extendida. Lo cierto es que, Cassini sigue ahí y, como otros ingenios espaciales enviados al espacio, continúan más allá de la misión en principio previstas enviando datos e imagines que nos acercan al saber del mundo que nos rodea y nos dice cómo y por qué funciona así la Naturaleza.
Me he extendido más de lo previsto en este trabajo y, no puedo seguir nombrando otras misiones que, como las enviadas a Marte, tan buenos réditos de conocimiento nos han suministrado. Ya habrá lugar más adelante para continuar profundizando en todo lo que hicimos y, también, ¿Cómo no? en lo mucho nos queda por hacer.
No podemos negar que, escenas como la que arriba contemplamos, no sea algo cotidiano en el devenir de la Humanidad. El futuro que nos aguarda puede ser algo maravilloso y de asombrosos descubrimientos que nos llevaran lejos, hacia otros mundos, otras estrellas… ¡otras amistades!
Pero todo eso amigo míos, sólo podrá ser posible gracias al conocimiento y al hecho de ser conscientes de nuestras limitaciones. No debemos nunca querer superar a la Naturaleza, simplemente debemos aprender de ella.