viernes, 19 de abril del 2019 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Viaje con nosotros por el Tiempo

Autor por Emilio Silvera    ~    Archivo Clasificado en La Ciencia Fiscción    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Llega el auge de novelas sobre viajes en el tiempo, subgénero creado por un olvidado autor español

 

viajeros en el tiempo, con la máquina ideada por Gaspar en 1887, vistos por el ilustrador gallego Pinturero. / Pinturero

Tic-tac, tic-tac. Suenan los relojes en Avilés. sea con el frío e inaudible latido digital los prácticos o con el potente vibrar de un reloj de leontina los románticos, el constante fluir del tiempo se percibe en la ciudad asturiana, capital de la literatura fantástica mundial por su festival Celsius 232, que se despide hoy sábado. La importancia del reloj (y el calendario) la da una ola de novelas —muchas, de cuño y con firma española; otras, reediciones de clásicos en el olvido— con el mismo leitmotiv: los viajes en el tiempo como pilar central de la trama.

El caso es que los autores de estos paseos temporales, Félix J. Palma y su venidera El mapa del caos (Plaza y Janés), Vladímir Voinóvich y su clásico Moscú 2042 (Automática editorial), Tim Powers y sus reeditadas Las puertas de Anubis (Gigamesh), Nerea Riesco y su Tempus (Minotauro), Nina Allan y sus Máquinas del tiempo (Nevsky), en la boca un padre al que venerar: H.G. Wells, que escribió su inmortal La máquina del tiempo en 1895 y del que la editorial Sportula prepara una reedición con nueva traducción del ganador del Minotauro Rodolfo Martínez. Pero resulta que el verdadero colonizador de este subgénero de lo fantástico fue, pasó con las Américas, un español: Enrique Lucio Eugenio Gaspar y Riambau (Madrid, 1842 – Olorón, 1902). Diplomático, dramaturgo y autor de la primera novela de la historia de la literatura que inventa una máquina para viajar en el tiempo: El Anacronópete (1887).

Gaspar era un trotamundos. Grecia, Francia, China… Vida de diplomático que le costó a su prestigio literario al estar lejos de los círculos de influencia (periódicos y tertulias) de la época. Así las cosas, se planteó arrumbar por una vez su producción dramatúrgica y escribir la primera novela que inventaba una máquina del tiempo y planteaba este subgénero dentro de la naciente ciencia ficción, después de las célebres fantasías de Dickens (Un de navidad, 1843) o Poe (Un cuento de montañas escabrosas, 1844). ¿Cómo es máquina que inventa? Pues algo así como una casa voladora con unas “cucharas” que le permiten cambiar el giro de la esfera terrestre y con ello retroceder en el tiempo. María de los Ángeles Ayala (Alicante, 1950), profesora de literatura en la Universidad de Alicante y experta en el siglo XIX, señala que además de pionera la novela merece la pena: “Su calidad literaria es muy alta. Como era un gran dramaturgo, construye unos diálogos y personajes estupendos”. Eso sí, no se moja al compararla con la archiconocida de Wells: “Las dos grandes méritos”.

Portada original de ‘El anacronópete’, primera novela de la historia con una máquina del tiempo escrita por el español Enrique Gaspar. / Francesc

La obra ahora mismo se encuentra descatalogada. Pero sus semillas inverosímilmente han arraigado en jóvenes autores españoles. Al menos en uno. Francisco Miguel Espinosa (Alicante, 1990), de 24 años, y que presenta en Avilés su Cabeza de ciervo (Dolmen, 2014), es ferviente admirador de esta novela y tiene hasta escrita una segunda parte: “Se titula El Anacrónopete conquista el futuro. Me encontré con las cartas de rechazo de editores que nada sabían de la obra original: ‘No podemos publicar la continuación de algo que nadie conoce’. España es de esos lugares que se vanaglorian en olvidar sus logros”.

Pero aparte de quién fue el primero, el viaje en el tiempo literario tiene por pregunta esencial el cómo. Varios cómo. El primero es el teorema/ingenio/magia que permite el viaje. La máquina del tiempo es el ejemplo estrella: aparatosa, acompañada de luz y rayos y un probable estallido en blanco. Pero se puede viajar en el tiempo haciendo click en una cámara de fotos, como sucede en Legión (Brandon Sanderson, Fantascy), donde un científico consigue retratar el pedazo del pasado que elija. Solo con conocer el instante y el lugar preciso, ¡voilà!, Cristo ascendiendo el Gólgota, Julio César y los puñales, la cabeza de María Antonieta… Pero puede ser algo tan abstracto como una enfermedad: “Cronotenia, una enfermedad que te hace saltar en el tiempo”, confiesa, entusiasmado, Félix J. Palma (Cádiz, 1968), único best-seller español de género fantástico en el Top del The New York Times que cerrará en octubre su ambiciosa trilogía de ciencia ficción decimonónica con El mapa del caos. “El tejido del tiempo se resiente con estos saltos. Y claro, hay que enviar a unos cyborgs para que eliminen a los infectados antes que la realidad se colapse”.

Segundo cómo: ¿Cómo es el tiempo? ¿Es reversible? ¿Es inmutable? ¿Es infinito? Tres teorías se han planteado en la ficción como respuesta. Uno: que no puede cambiar, como han sostenido autores como Tim Powers en su clásico Las puertas de Anubis. Dos: que sí cambia pero que altera irreversiblemente la historia y así el hogar del viajero nunca existió/existirá; o aún peor, el propio viajero, como ocurría en la inolvidable Regreso al futuro con Michael J. Fox viendo cómo su carne se volvía translúcida. Tres, que por cada decisión que tomamos, tan banal como pedir una coca cola en vez de una caña, creamos un nuevo universo. Y el conjunto de todos ellos, que jamás se tocan, se llamaría multiverso. En este último paradigma se mueven la mayoría de novelas contemporáneas, como sucede en las sugerentes Máquinas del tiempo de Nina Allan (Londres, 1966), donde un reducido elenco de personajes va reencontrándose en distintas hebras del tiempo: “Me gusta pensar que el viaje en el tiempo no es algo épico, sino algo del día a día. Que lo hacemos cada vez que tomamos una decisión, de una manera natural, sin pensar en ello”.

Los efectos secundarios de viajar en el tiempo en ‘Regreso al futuro’.

 

¿Y qué dice la ciencia de todo esto? Pues poco menos que: “¡Paparruchas!”. Luis Álvarez Gaume (1955, Madrid), director durante seis años del departamento de Física Teórica del CERN, el hogar más ilustre de la cuántica mundial, ve entre los que se toman en serio del multiverso y los que creían en el espiritismo pocas diferencias: “Es literatura barata, paradojas psicolingüísticas. Que sepamos, solo se puede viajar en el tiempo hacia delante”. Gaume arranca de raíz cualquier escapatoria fantasiosa a ese “que sepamos”. Algunos son complejos y tienen que ver con que no se puede entender el mundo cuántico más que como una sopa de energía, de interacciones constantes que no permiten aislar un suceso concreto de su entorno y juguetear con él para sacarlo de su espacio-tiempo. Otras, de lógica aplastante: “La primera paradoja la sabemos todos: ¿qué pasaría si mato a mi abuelo? Pero hay otra: Si alguna vez fuera posible, entonces, ¿dónde están los turistas del futuro?”.

 

Portada de ‘Una aventura en el tiempo’ (Nevsky), el viaje de dos académicas de Oxford al Versalles de María Antonieta.

 

Para los que quieren seguir soñando, hay historias capaces de fascinar a espíritus como el de Jean Cocteau. El polifacético artista firma el prólogo de Una aventura en el tiempo, gema singular que rescata la editorial Nevsky y que narran en primera persona Charlotte Morby y Eleanor Jourdain, directora y subdirectora de Oxford a finales del siglo XIX y principios del XX que creyeron sufrir un viaje en el tiempo al Versalles de María Antonieta. Es más, el manuscrito ensayístico, prolijo hasta lo enfermizo en los detalles y análisis de la experiencia que afirman vivir, describe un encuentro con la mismísima reina el 5 de octubre de 1789, cuatro años antes de su muerte y el mismo día en que una horda de mujeres marchaba a palacio para ajustar cuentas con el Viejo Régimen. Mapas, testimonios y un dédalo de notas bibliográficas que abruman para corroborar unos hechos increíbles.

El viaje en el tiempo, sin embargo, no necesita de tantas alharacas. Basta con un plan de urbanismo benévolo. Por ejemplo aquí, en Avilés, el festival se celebra en el casco antiguo. Y así en un vértice de la Plaza Álvarez Acebal tenemos la Iglesia de San Nicolás de Bari, del siglo XII. Una cuesta más abajo y unos cuantos escalones está el Palacio de Ferrera, del XVII, ahora un cinco estrellas de la cadena NH. En resumen, logotipos aparte, el pasado existe en el presente. Tim Powers (Buffalo, 1952), una de las estrellas del festival, así lo cree: “Piensa en el Cairo, en las Pirámides. Tener esas obras de hace milenios nos permite hacer verosímil lo imposible. Hacer creer al lector que sí, se puede viajar en el tiempo”.

Fuente: El País.

Un segundo más en 2015 amenaza Internet

Autor por Emilio Silvera    ~    Archivo Clasificado en La importancia del tiempo    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Una fracción de tiempo que se añadirá en junio al UTC, el principal estándar temporal del mundo, puede provocar problemas en los sistemas conectados a la red.

 

 

 

El segundo extra del UTC tambalear Internet. / KACPER PEMPEL (REUTERS / Cordon Press)

Asumimos que la Tierra completa una rotación sobre sí misma en 86.400 segundos, los que contienen las 24 del día. Pero, de tanto en tanto, esos 86.400 segundos convertirse en 86.401. Es la corrección que aplica el Servicio Internacional de Rotación y Sistemas de Referencia Terrestre (IERS), institución encargada de velar por el principal estándar temporal del mundo, el UTC. La corrección, que empezó a asumirse en 1972, se explica, entre otros factores, por las complejas relaciones gravitatorias entre Tierra y Luna. El próximo 30 de junio, se añadirá el segundo extra 26 su implantación. Y el riesgo que se corre es que algunos ordenadores y programas den problemas. No sería la primera vez.

La Unión Internacional de Comunicaciones decidirá en noviembre si conserva o no segundo de más

En 2012, en el segundo que iba del 23:59:59 del 30 de junio al 00:00:00 del 1 de julio, este segundo extra se añadió al UTC. Inmediatamente, sistemas operativos como Linux, basados en Unix, comenzaron a fallar. Se produjeron retrasos de vuelos en Australia por el quiebre de los sistemas informáticos. Y páginas Reddit o sufrieron problemas técnicos. ¿El por qué? La conexión de los sistemas informáticos a la red: “Hace 30 años, los ordenadores usaban el reloj interno de su sistema. Eso no era lo suficientemente preciso para decir si uno de estos segundos extra [que deben añadirse para ir al compás de la rotación] ocurrían. es lo normal para muchos ordenadores el ajustarse al milisegundo con el UTC usando el Network Time Protocol [es decir, vía online]”, explica Steve Allen, ingeniero de software del observatorio astronómico de la Universidad de California.

Saber si la historia se repetirá es algo impredecible. Linus Torvalds, creador de Linux, uno de los sistemas más afectados por el anterior segundo extra, ha querido apagar el fuego en la revista Wired: “La última vez que ocurrió, la gente puso su esfuerzo para que quedara bien después. Con suerte, todo eso permanecerá”, declaró Torvalds a la revista. Precisamente ese “con suerte” es lo que preocupa a expertos como Allen: “POSIX [una serie de estándares informáticos de interfaz para un sistema operativo tipo Unix] dice que no existen segundos extras. Y hay millones de ordenadores en uso que creen que esto es cierto. El mayor problema es para sistemas que monitorizan proyectiles o satélites y los que operan fábricas robóticas. Imagine una línea de producción de robots moviendo grandes masas con herramientas cortantes, sopletes, láseres y prensas. Ahora imagine qué pasaría si los diferentes robots en dicha línea no estuvieran de acuerdo por un segundo”.

Crearíamos una definición del UTC que estaría desincronizada con la rotación terrestre. Y eso significaría que, en unos miles de años, nos tomaríamos el desayuno a medianoche”

Independientemente de lo que suceda en ese segundo de más del próximo 30 de junio, Daniel Gambis —director del Centro de Orientación Terrestre del IERS en el Observatorio de París— que ha dado el anuncio del segundo extra, cree que es “una responsabilidad de todos los sistemas informáticos el adecuarse a este segundo de más; si no, puede haber graves problemas”. Aunque tal vez sea la última vez que este segundo da quebraderos de cabeza. En noviembre, se celebrará en Ginebra una reunión de la Unión Internacional de Comunicaciones, organismo de la ONU que tendrá que decidir si conserva o no este segundo de más. El cambio, como explica Gambis, no sería banal: “Es una discusión que lleva en marcha desde hace 15 años. Si los elimináramos, crearíamos una nueva definición del UTC que estaría desincronizada con la rotación terrestre. Y eso significaría que, en unos miles de años, nos tomaríamos el desayuno a medianoche”.

La física tras el segundo extra

 

Varios factores entran en juego para que este segundo de más tenga que ajustar cómo medimos el día. “En 1967. el segundo fue redefinido como una cantidad física derivada del átomo de cesio y se pretendió igualar el segundo astronómico al atómico. Pero en aquel tiempo, la rotación de la Tierra era más rápida que ahora. Así que cogieron un segundo un pelín corto.”, explica Daniel Gambis, director del Centro de Orientación Terrestre del IERS.

Según Gambis, hay otros factores que influyen en que la rotación terrestre no sea un continuo: “Las mareas [provocadas por la interacción gravitatoria entra la Tierra y la Luna], ciertos procesos atmosféricos, y también la interacción entre el núcleo y el manto terrestre”.

Las galaxias y la Vida… ¡Reducen la entropía!

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo dinámico    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

       Estamos en un planeta lleno de vida y tal maravilla se nos olvida con frecuencia

Nuestro planeta, la Tierra, forma parte del Universo, y, es una prueba indiscutible de que sus componentes biológicos y físicos forman parte de una única red que funciona de un modo autorregulado, y, de esa forma, mantiene las condiciones que son ampliamente adecuadas para la existencia de vida, pero que sufren fluctuaciones a todas las escalas (incluidos los ritmos de alternancia de glaciaciones y periodos interglaciales, así como las extinciones masivas). En un sentido real, la Tierra es el lugar que alberga una red de vida multiforme, y la existencia de esta red (Gaia) sería visible para cualquier forma de vida inteligente que hubiera en Marte o en cualquier otro planeta y que fuera capaz de aplicar la prueba conocida de Lovelock y buscar señales de reducción de la entropía.

                La vida es un signo de entropía negativa cuando se replica

Ni la NASA, tomó nunca la prueba de Lovelock lo suficientemente en serio como para aplicarla a la búsqueda de vida en el Sistema Solar; pero si se lo tomó en serio para buscar vida más allá del Sistema Solar. Ahora, parece que han recapacitado y han enviado a Marte y otros lugares de nuestro entorno, una pléyade de ingenios que ya nos han enviado datos de imágenes de cómo son otros mundos y de las posibilidades que en ellos pueden existir de que la vida esté presente. De momento han encontrado hielo de agua, han diluido porciones de la tierra marciana en agua y debidamente tratada, han hallado la presencia de magnesio, sodio, potasio y cloruros.  En algunos lugares, como Titán, por ejemplo,  hay más que evidencia de agua porque las sales están allí con otros elementos esperanzadores y una atmósfera prometedora. Además han encontrado los compuestos químicos necesarios para la vida como la conocemos. y, lo sorprendente de estos lugares (también Marte) es que no son un mundos extraños, sino que, en muchos aspectos, son iguales que la Tierra fue en el pasado o podrá ser en el futuro. Por eso es importante que los estudiémos.

                                                           En alguna ocasión me he referido al comentario que hizo Darwin:

“… los materiales primigenios… en alguna pequeña charca caliente, tendrían la oportunidad de hacer el y organizarse en sistemas vivos…”

 

Hasta que supimos que existían otros sistemas planetarios en nuestra Galaxia, ni siquiera se podía considerar esta posibilidad como una prueba de que la vida planetaria fuera algo común en la Vía Láctea. Pero ahora se sabe que más de cien estrellas de nuestra zona de la galaxia tienen planetas que describen órbitas alrededor de ellas. Casi todos los planetas descubiertos hasta ahora son gigantes de gas, como Júpiter y Saturno (como era de esperar, los planetas grandes se descubrieron primero, por ser más fáciles de detectar que los planetas pequeños), sin embargo,  es difícil no conjeturar que allí, junto a esos planetas, posiblemente estarán también sus hermanos planetarios más pequeños que, como la Tierra, pudieran tener condiciones para generar la vida en cualquiera de sus millones de formas, incluso desconocidas para nosotros como ocurre aquí mismo en nuestro planeta.

Supertierras que son fáciles de detectar por su inemnsas masas pero, los planetas terrestres también están por ahí, orbitando a miles y miles de estrellas y a la distancia adecuada poder contener la vida. Los elementos más abundantes del Universo: carbono, hidrógeno, oxígeno y nitrógeno (CHON). Están ahí, dispersos por las Nebulosas que forman sus materiales en estrellas y mundos.

Lee Smolin, de la Universidad de Waterloo,  Ontario, ha investigado la relación existente entre, por una parte, las estrellas que convierten unos elementos más sencillos en algo como el CHON y arroja esos materiales al espacio, y, por otra parte, las nubes de gas y polvo que hay en éste, que se contrae para formar nuevas estrellas y mundos.

Nuestro hogar dentro del espacio, la Vía Láctea, es una entre los cientos de miles de millones de estructuras similares dispersas por todo el Universo visible, y parece ser una más, con todas las características típicas – de tipo medio en cuanto a tamaño, composición química, etc.- La Vía Láctea tiene forma de disco plano, con alrededor de cien mil años luz de diámetro, y está formada por doscientos mil millones de estrellas que describen órbitas en torno al centro del disco.

El Sol, en realidad, sólo es importante para nosotros al ser el cuerpo central de nuestro Sistema Solar, y con mucho, la estrella más cercana al planeta Tierra y la única que se puede estudiar con todo lujo de detalles. Se clasifica como una estrella G2V: una estrella amarilla con una temperatura efectiva de 5.770 K ( espectral G2) y una enana de la secuencia principal (clase de luminosidad V). Los detalles de su composición son sobradamente sabidos por todos y cabe destacar su abundancia de hidrógeno – 71% en masa- y de helio el 27% y elementos más pesados hasta completarlo. Por lo tanto, nuestro Sol no destaca por nada entre esa multitud de de cientos de miles de millones de estrellas.

Recorre su órbita a una distancia del centro que viene a ser más o menos dos tercios del diámetro. En el centro de la Galaxia las estrellas forman una protuberancia, de tal modo que desde el exterior daría la sensación de estar viendo un enorme huevo frito, en el que la protuberancia sería la yema. Sin embargo, el modo en que este disco gira revela que todo el material brillante (materia bariónica) que compone la parte visible de la Vía Láctea queda sujeto por el tirón gravitatorio que la propia masa galáctica genera. Otros hablan de una materia invisible que no brilla ni emite radiación y que viene a ser más o menos diez veces mayor que la materia visible de la Galaxia y que suponen diseminada en un halo situado alrededor de ella, extendiéndose mucho más allá del borde del disco de estrellas brillantes.

Descubrir qué es realmente esta materia oscura (si existe, yo prefiero llamarla no luminosa o materia escondida) constituye un tema de crucial interés para los astrónomos, pero no entraremos en eso, ya que, para lo que estamos tratando, no tiene importancia. Muchas galaxias en forma de disco se caracterizan por una especie de serpentinas que se alejan en espiral desde su centro, lo que hace que se les aplique el nombre de galaxias espirales. Es fácil estudiar las pautas que siguen los llamados “brazos espirales”, porque las galaxias se encuentran relativamente cerca unas de otras, si comparamos estas distancias con sus tamaños.

Una fuerza misteriosa hace que las figuras se repitan en las formas de los objetos

Andrómeda (que no es la que arriba vemos), la galaxia espiral más cercana comparable a la Vía Láctea, se encuentra con respecto a nosotros a una distancia de poco más de dos millones de años luz; parece una gran distancia, pero la galaxia de Andrómeda es tan grande (un poco mayor que la Vía Láctea) que, incluso a esa distancia, vista desde la Tierra cubre un trozo de cielo del tamaño de la Luna, y puede observarse a simple vista en una noche despejada y sin luz lunar, si nos situamos lejos de las ciudades y de otras fuentes de emisión de luz.

Los brazos espirales, que son una característica tan llamativa en galaxias como la nuestra, son visibles porque están bordeados por estrellas calientes de gran masa que relucen con mucho brillo. Esto significa que también son estrellas jóvenes, ya que no hay estrellas viejas que tengan gran cantidad de masa.

 [M42 - La Gran Nebulosa de Orión]

                                                                                                                    La hermosa Orión

No hay misterio alguno en cuanto al modo en que mantienen esa forma espiral. Se debe exclusivamente a un fenómeno de retroalimentación.  Las nubes gigantescas a partir de las cuales se forman las estrellas pueden contener hasta un millón de veces la masa del Sol cuando empieza a contraerse gravitatoriamente para formar estrellas. Cada nube que se contrae produce, no una sola estrella de gran tamaño, sino todo un conglomerado de estrellas, así como muchas estrellas menores. Cuando las estrellas brillantes emiten luz, la energía de esta luz estelar (especialmente en la parte ultravioleta del espectro) forma una burbuja dentro de la nube, y tiende a frenar la formación de más estrellas. Sin embargo, una vez que las estrellas de gran masa han recorrido sus ciclos vitales y han explotado, sembrando además el material interestelar con elementos de distintos tipos, la onda expansiva ejerce presión sobre las nubes interestelares cercanas y hace que éstas comiencen a contraerse.

Las ondas procedentes de distintas supernovas, al entrecruzarse unas con otras, actúan mutuamente barrer el material interestelar y formar nuevas nubes de gas y polvo que se contraen produciendo más estrellas y supernovas, en un ejemplo clásico de interacción que se mantiene por sí sola en la que intervienen una absorción de energía (procedentes de las supernovas) y una retroalimentación.

Si la nube es demasiado densa, su interna se contraerá gravitatoriamente de manera rápida, formando unas pocas estrellas grandes que recorren sus ciclos vitales rápidamente y revientan la nube en pedazos antes de que puedan formarse muchas estrellas. Esto significa que la generación siguiente de estrellas nace de una nube más delgada, porque ha habido pocas supernovas que barrieran material formando pedazos densos. Si la nube es tan delgada que su densidad queda por debajo de la densidad óptima, nacerán muchas estrellas, y habrá gran cantidad de explosiones supernovas, lo cual producirá gran número de ondas de choque que barrerán el material interestelar, acumulándolo en nubes más densas.

Sí, siento debidlidad por esta Nebulosa que, para los astrónomos, es un gran laboratorio espacial

De esta manera, por ambas partes, las retroalimentaciones operan para mantener un equilibrio aproximadamente constante entre la densidad de las nubes y el de supernovas (y estrellas de tipo Sol) que se producen en cada generación. La propia pauta espiral resulta del hecho de que la galaxia realiza movimiento de rotación y está sometida al tirón gravitatorio que crea la fuerza de marea proveniente de esa materia no luminosa.

Claro que, la materia interestelar es variada. Existen nubes de gas y polvo fríos, que son ricas en interesantes moléculas y se llaman nubes moleculares gigantes; a partir de estas nubes se forman nuevas estrellas (y planetas). Hay nubes de lo que consideraríamos gas “normal”, formadas por átomos y moléculas de sustancias tales como el hidrógeno, y quizá tan caliente como una habitación cerrada toda la noche y con la temperatura de dos cuerpos dormidos y emitiendo calor. Además, hay regiones que se han calentado hasta temperaturas extremas mediante la energía procedente de explosiones estelares, de tal modo que los electrones han sido arrancados de sus átomos formar un plasma cargado de electricidad.

La densidad de materia entre las estrellas es escasa, dado que estas la obsorbieron y la que había están convertidas en cuerpos homogéneos que brillan y generan calor transformando el material más sencillo en otro más complejo y pesado. También, alrededor de estas estrellas se forman los mundos.

Dentro del medio interestelar las densidades varían. En la modalidad más común, la materia existente las estrellas es tan escasa que sólo hay un átomo por cada mil centímetros cúbicos de espacio: en la modalidad más densa, las nubes que están a punto de producir nuevas estrellas y nuevos planetas contienen un millón de átomos por centímetro cúbico. Sin embargo, esto es algo muy diluido si se compara con el aire que respiramos, donde cada centímetro cúbico contiene más de diez trillones de moléculas, pero incluso una diferencia de mil millones de veces  en densidad sigue siendo un contraste espectacular.

La cuestión es que, pocos investigadores destacaron allá por 1.990 en que todos estos aspectos –composición, temperatura y densidad- en el medio interestelar dista mucho de ser uniforme. Por decirlo de otra manera más firme, no está en equilibrio, y parece que lo que lo mantiene lejos del equilibrio son unos pocos de procesos asociados con la generación de las pautas espirales.

Esto significa que la Vía Láctea (como otras galaxias espirales) es una zona de reducción de la entropía. Es un sistema auto-organizador al que mantienen lejos del equilibrio, por una parte, un flujo de energía que atraviesa el sistema y, por otra, como ya se va viendo, la retroalimentación. En este sentido, nuestra Galaxia supera el test de Lovelock para la vida, y además prestigiosos astrofísicos han argumentado que las galaxias deben ser consideradas como sistemas vivos.

Creo que llevan toda la razón. También la Tierra, como sistema cerrado, es “un sistema vivo” (Gaia) que, se recicla y renueva mediante los fenómenos naturales que podemos ahora contemplar y, hasta comprender.

Imagen artística del sistema planetario Gliese 876. Dos planetas gigantes orbitan la estrella (Imagen de Lynette Cook)

Algunas veces nos preguntamos por qué las cosas son como son y si, cuando obtenemos una respuesta en términos de algún principio científico, seguimos preguntando: ¿por qué ese principio es verdadero? y, si como un crio maleducado, insistimos una y otra vez, preguntando ¿por qué?, ¿por qué?, ¿por qué?, entonces, más tarde o más temprano, alguien nos llamará reduccionista. Algunas personas otorgan diferentes sentidos a esa palabra, sin embargo, supongo que una caracterísitca común de la idea que todo el mundo tiene del reduccionismo es un sentido de jerarquía, de que algunas verdades son menos fundamentales que otras a las que las anteriores pueden ser reducidas, como la la química puede ser reducida a la física.

Antes comentaba sobre los elementos más abundantes del Universo: Carbono, Hidrógeno, Oxígeno y Nitrógeno (CHON), y os decía que Lee Smolin, de la Universidad de Waterloo, Ontario, ha investigado la relación existente entre, por una parte, las estrellas que convierten unos elementos más sencillos en algo como el CHON y arroja esos materiales al espacio, y, por otra parte, las nubes de gas y polvo que hay en éste, que se contrae para formar nuevas estrellas, nuevos mundos y… ¡nuevas formas de vida!

emilio silvera