jueves, 28 de marzo del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¡Las Galaxias! ¡La Entropía! ¡El Universo! ¡La Vida!

Autor por Emilio Silvera    ~    Archivo Clasificado en Astronomía y Astrofísica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

http://img.seti.cl/choque-galaxias-arp274_hst.jpg

La Vía Láctea (como otras galaxias espirales) es una zona de reducción de entropía…,  así se deduce de varios estudios realizados  y  se puede argumentar que,  las galaxias deben ser consideradas, por su dinámica muy especial, como sistemas vivos. En planteamiento más prudente se señala que el test de Lovelock constituye lo que se llama una condición “necesaria, pero no suficiente” para la existencia de vida. Si un sistema se encuentra en equilibrio termodinámico -si no supera el test de Lovelock-, podemos tener la seguridad de que está muerto. Si está vivo, debe producir una reducción de la entropía y superar dicho test.

Pero un sistema podría producir emtropía negativa sin estar vivo, como en el caso de contracción por efecto de la gravedad que hemos comentado a lo largo de estos trabajos. Desde este punto de vista, no hay frontera claramente definida entre los objetos vivos y la materia “inerte”. Yo, por mi parte creo que, la materia nunca es inerte y, en cada momento, simplemente ocupa la fase que le ha tocado representar en ese punto del espacio y del tiempo.

http://www.ecolo.org/lovelock/photos/Gaia.JimSandy.Lovelock1.jpg

                                       James y Sandy Lovelock  ¿Qué haríamos sin ellas?

El mero hecho de que la frontera entre la vida y la ausencia de vida sea difuso, y que el lugar en el que haya que trazar la línea sea un tema de discusión, es, sin embargo, un descubrimiento importante. Contribuye a dejar claro que en relación con la vida no hay nada insólito en el contexto del modo en que funciona el UNiverso.

Como ya hemos visto en las explicaciones de otros trabajos expuestos aquí, es natural que los sistemas simples se organicen en redes al borde del caos y, una vez que lo hacen, es natural que la vida surja allí donde hay  “una pequeña charca caliente” que sea adecuada para ello. Esto es parte de un proceso más o menos continuo, sin que haya un salto repentino en el que comience la vida. Desde ese punto de vista,  lo más importante que la ciencia podría lograr sería el descubrimiento de, al menos, otro planeta en el que haya surgido la vida.

http://universodoppler.files.wordpress.com/2011/05/ig272_kees_saturn_titan_02.jpg
                                       ¡La vida! podría estar presente… ¡ en tantos lugares…!

Gracias a la teoría de Lovelock sobre la naturaleza de la vida estamos a punto de poder conseguirlo, y es posible que antes de los próximos 50 años se lance al espacio un telescopio capaz de encontrar planetas con sistemas como el de Gaia, nuestra Tierra.

Hay dos etapas del descubrimiento de estas otras Gaias. En primer lugar debemos ser capaces de detectar otros planetas del tamaño de la Tierra que describan órbitas alrededor de otras estrellas; luego tenemos que analizar la atmósfera de esos planetas para buscar pruebas de que los procesos de reducción de la entropía están en marcha. Los primeros planetas “extrasolares” se detectaron utilizando técnicas Doppler, que ponían de manifiesto unos cambios pequeñísimos en el movimiento de las estrellas alrededor de las cuales orbitaban dichos planetas. Este efecto, que lleva el nombre del físico del siglo XIX Christian Doppler, modifica la posición de las líneas en el espectro de la luz de un objeto, desplazándolas en una cantidad que depende de lo rápido que el objeto se mueva con respecto al observador.

http://farm6.static.flickr.com/5010/5348863194_0e954d8a95.jpg

Zonas habitables, los astrónomos han ignorado las enanas blancasen su búsqueda de exoplanetas. Esto puede haber sido un error, de acuerdo con un nuevo estudio de zonas habitables en enanas blancas. Aunque los agujeros negrosy las estrellas de neutronescaptan toda la atención como destinos finales de las estrellas, la mayor parte nunca llegarán a ese extremo. Aproximadamente el 97 por ciento de las estrellas de nuestra galaxia no son lo bastante masivas para acabar en ninguna de esas dos opciones.

En lugar de eso, los astrónomos creen que terminarán sus vidas como enanas blancas, densos y calientes trozos de materia inerte en los que las reacciones nucleares terminaron hace mucho. Estas estrellas tienen aproximadamente el tamaño de la Tierra y se mantienen en contra del colapso gravitatorio mediante el Principio de Exclusión de pauli, el cual evita que los electrones ocupen el mismo estado al mismo tiempo. Pero, a todo esto, hay que pensar en el tirón gravitatoria que una de estas estrellas podría incidir sobre cualquier planeta.

Para hacernos una idea de lo que es este tipo de observaciones, pensemos que el tirón gravitatorio que  Júpiter  ejerce sobre el Sol produce en éste un cambio de velocidad de unos 12,5 metros por segundo, y lo desplaza (con respecto al centro de masa del Sisterma solar) a una distancia de 800.000 kilómetros, más de la mitad del diámetro de este astro, cuando el Sol y Júpiter orbitan en torno a sus recíprocos centros de masa. La velocidad de este movimiento es comparable a la de un corredor olímpico de 100 metros lisos y, para un observador situado fuera del Sistema solar, esto, por el efecto Doppler, produce un pequeñísimo desplazamiento de vaiven en la posición exacta de las líneas del espectro de luz emitida por el Sol.

Se trata del tipo de desplazamiento que se ha detectado en la luz a partir de los datos de algunas estrellas de nuestro entorno, y demuestra que en torno a ellas orbitan cuerpos celestes similares a Júpiter. Como ilustración diremos que la Tïerra induce en el Sol, mientras orbita alrededor de él, un cambio de velocidad de tan sólo 1 metro por segundo (la velocidad de un agradable paseo), y desplaza al Sol unicamente 450 kilómetros, con respecto al centro de masa del Sistema solar. No se dispone aún de la tecnología necesaria para medir un efecto tan pequeño a distancias tales como las de nuestras estrellas, y, pensemos que, la más cercana (Alfa Centauri), está situada a 4,3 a.l. de la Tierra, esta es la razón por la cual no se han detectado aún planetas similares a la Tierra.

http://www.cardassiaprimera.com.ar/Alfa-Centauri.jpg

                                                                                                                Sistema Alfa Centauri

Hay otras técnicas que podrían servir para identificar planetas más pequeños. Si el planeta pasa directamente por delante de su estrella (una ocultación o un tránsito), se produce un empalidecimiento regular de la luz procedente de dicha estrella. Según las estadísticas, dado que las órbitas de los planetas extrasolares podrían estar inclinadas en cualquier dirección con respecto a nuestra posición, sólo el 1 por ciento de estos planetas estará en órbitas tales que podríamos ver ocultaciones y, en cualquier caso, cada tránsito dura sólo unas pocas horas (una vez al año para un planeta que tenga una órbita como la de la Tierra; una vez cada once años para uno cuya órbita sea como la de Júpiter.

 Cuando los humanos miramos al espacio y pensamos en sus increíbles distancias, es inevitable imaginar que sería posible encontrar algún sitio como nuestra casa. No sería lógico creer que sólo en la Tierra se han dado las condiciones para la vida. En nuestra misma Galaxia, planetas como la Tierra los hay a miles o cientos de miles.

Existen, sin embargo, proyectos que mediante el sistema de lanzar satélites al espacio que controlaran el movimiento (cada uno de ellos) de un gran número de estrellas con el fin de buscar esas ocultaciones. Si se estudian 100.000 estrellas, y 1.000 de ellas muestran tránsitos, la estadística resultyante implicaría que practicamente

toda estrella similar al Sol está acompañada por planetas. Sin embargo, aunque todas las búsquerdas de este tipo son de un valor inestimable, la técnica Doppler es la que, de momento, se puede aplicar de manera más general a la búsqueda de planetas similares a la Tierra. De cualquier manera, independientemente de los planetas de este tipo que se descubran, lo que está claro es que, de momento, carecemos de la tecnología necesaria para dicha búsqueda.

La mejor perspectiva que tenemos en el momento inmediato, es la que nos ofrece el satélite de la NASA llamado SIM (Space Interforometry Mission) que mediante la técnica de interferometría (combinar los datos de varios telescopios pequeños para imitar la capacidad de observación de un telescopio mucho mayor) ver y medir la posición de las estrellas con la exactituid necesaria para descubrir las oscilaciones que delaten la presencvia de planetas como la Tierra que describen orbitas alrededor de cualquiera de las 200 estrellas más cercanas al Sol, así como por cualquiera de los planetas similares a Júpiter hasta una distancia del Sol que podría llegar hasta los 3.000 años luz.

Hacia el final de la década presente (si todo va bien), la Agencia Espacial Europea lanzará un satélite cuyo nombre será GAIA y que tendrá como misión principal, no precisamente buscar otras Gaias, sino trazar un mapa con las posiciones de los mil millones de objetos celestes más brillantes. Dado que GAIA tendrá que observar tantas estrellas, no mirará cada una muchas veces ni durante mucho tiempo, por lo que no podría detectar las oscilaciones ocasionadas por planetas similares a la Tierra; pero si podría detectar planetas del tamaño de Júpiter y, si estos planetas son tan abundantes como parece indicar los datos obtenidos hasta ahora, no es descabellado pensar que, puedan estar acompañados, como en nuestro propio Sistema solar, por otros planetas más pequeños.

Fotografía cedida del observatorio astronómico de Paranal, cerca del lugar donde se levanta el imponente cerro que en la próxima década albergará el Telescopio Europeo Extremadamente Grande, E-ELT, el mayor ojo que desde la Tierra rastreará el Universo en busca de vida en otros mundos. EFE/Marcelo Hernández/Observatorio Austral Europeo
Fotografía cedida del observatorio astronómico de Paranal, cerca del lugar donde se levanta el imponente cerro que en… medio del árido desierto de Atacama, allí donde la existencia parece una quimera, se levanta el imponente cerro que en la próxima década albergará el Telescopio Europeo Extremadamente Grande, E-ELT, el mayor ojo que desde la Tierra rastreará el Universo en busca de vida en otros mundos.

Dentro de los próximos 10 años, deberíamos tener localizados decenas de miles de sistemas planetarios extrasolares en las zonas de la Vía Láctea próxima a nosotros. Sin embargo, seguiría tratándose de observaciones indirectas y, para captar los espectros de algunos de esos planetas, se necesita dar un salto más en nuestra actual tecnológía que, como he dicho, resulta indificiente para realizar ciertas investigaciones que requieren y exigen mucha más precisión.

Los nuevos proyectos y las nuevas generaciones de sofisticados aparatos de alta precisión y de IA avanzada, nos traerán, en los próximos 50 años, muchas alegrías y sorpresas que ahora, ni podemos imaginar.

Cambiemos de tema: ¿Qué es una partícula virtual?

Diagrama de Feynmann. No pocas veces hemos dicho que, en una partícula virtual las relaciones que normalmente existen entre las magnitudes físicas de cualquier partícula no tienen por qué cumplirse. En particular, nos interesan dos magnitudes, que seguro que conocéis de sobras: energía y momento.

Por partícula-antipartícula que aparece de la “nada” y luego se aniquila rápidamente sin liberar energía.  Las partículas virtuales pueblan la totalidad del espacio en enormes cantidades, aunque no pueden ser observadas directamente.

En estos procesos no se viola el principio de conservación de la masa y la energía siempre que las partículas virtuales aparezcan y desaparezcan lo suficientemente rápido como para que el cambio de masa o energía no pueda ser detectado.  No obstante, si los miembros de una partícula virtual se alejan demasiado como para volverse a juntar, pueden convertirse en partículas reales, según ocurre en la radiación Hawking de un agujero negro; la energía requerida para hacer a las partículas reales es extraída del agujero negro.

 

En el Gran Colisionador de Hadrones (LHC) a  las 14:22 del dia 23 de Noviembre del 2009, el detector ATLAS registro la primera colision de protones en el LHC, seguido del detector CMS, y mas tarde los detectores ALICE y LHCb. Estas primeras colisiones solo son para probar la sincronizacion de las colisiones de haces de protones con cada uno de los detectores, lo cual resultó  con éxito en cada uno de los experimentos y, marca un avance muy alentador hacia la tan esperada etapa (pasada en parte)  de toma de datos donde se pueda buscar la partícula dadora de masas a las demás partículas,  Super Simetria, Dimensiones Extras, y tantas otras cosas mas que surgen de la inmensa imaginación del  intelecto humano.

Es sin duda un momento para recordar, especialmente para aquellos que han invertido parte de su vida en un proyecto tan grande e importante como este con la esperanza de alcanzar el conocimiento sobre la materia, la Naturaleza y el Universo mismo que, nunca pudimos soñar.

Muchas han sido, aparte del coste económico, las ilusiones y noches sin dormir, de muchos científicos empeñados en este magno proyecto que, como todos esperamos, nos podría llevar hasta otra “dimensión” de la física del mundo. Ahí podrían residir muchas de las respuestas no contestadas hasta el momento. Veremos a ver que nos trae el LHC en su nueva etapa cuando de nuevo se ponga en marcha y utilice algo más que los 14 TeV que hicieron falta para busgar el Bosón de Higgs.

Pero, continuémos con la virtualidad de las partículas. La vida media de una partícula virtual aumenta a medida que disminuye la masa o energía involucrada.   Así pues, un electrón y un positrón pueden existir durante unos 4×10-21 s, aunque un par de fotones de radio con longitud de onda de 300.000 km pueden vivir hasta un segundo.

En realidad, lo que llamamos espacio vacío, está rebosante de partículas virtuales que bullen en esa “nada” para surgir y desaparecer continuamente en millonésimas de segundo.  ¡los misterios del Universo!

                                                 Era de Planck


En la teoría del Big Bang, fugaz periodo de tiempo entre el propio Big Bang y el llamado Tiempo de Planck, cuando el Universo tenía 10-43 segundo de edad y la temperatura era de 1034 k.

Durante este periodo, se piensa que los efectos de la Gravitación cuántica fueron dominantes.  La comprensión teórica de esta fase es virtualmente inexistente.

Plasma.

El plasma forma las estrellas y otros objetos estelares que podemos ver, es la mayor concentraci´çon de materia del univeros visible. Según algunos el cuarto estado de la materia que consiste en electrones y otras partículas subatómicas sin ninguna estructura de un orden superior a la de los núcleos atómicos.

Se trata de un Gas altamente ionizado en el que el número de electrones libres es aproximadamente igual al número de iones positivos.  Como dije antes, a veces descrito como el cuarto estado de la materia, las plasmas aparecen en el espacio interestelar, en las atmósferas de las estrellas (incluyendo el Sol), en tubos de descarga y en reactores nucleares experimentales.

             El plasma está bien presente en todos los remanentes de supernovas

Debido a que las partículas en un plasma están cargadas, su comportamiento difiere en algunos aspectos a un gas.  Los plasmas pueden ser creados en un laboratorio calentando un gas a baja presión hasta que la energía cinética media de las partículas del gas sea comparable al potencial de ionización de los átomos o moléculas de gas.  A muy altas temperaturas, del orden de 50.000 K en adelante, las colisiones entre las partículas del gas causan una ionización en cascada de este.  Sin embargo, en algunos casos, como en lámparas fluorescentes, la temperatura permanece muy baja al estar las partículas del plasma continuamente colisionando con las paredes del recipiente, causando enfriamiento y recombinación.  En esos casos la ionización es solo parcial y requiere un mayor aporte de energía.

En los reactores termonucleares, es posible mantener una enorme temperatura del plasma confinándolo lejos de las paredes del contenedor usando campos electromagnéticos.

El estudio de los plasmas se conoce como física de plasmas y, en el futuro, dará muy buenos beneficios utilizando en nuevas tecnologías como la nanotecnología que se nos viene encima y será el asombro del mundo.

Pluralidad de mundos.

Muchos mundos, como la Tierra, estarán situados en la zona habitable de sus estrellas y, el agua líquida, correra por los riachuelos y océanos.  Si eso es así (que lo será), muchos mundos estarán habitados y, algún día lejano en el futuro, podremos saber de ellos con precisión antes de que se produzca el contacto.

Desde tiempos inmemoriales, grandes pensadores de los siglos pasados, dejaron constancia de sus pensamientos y creencia de que, allá arriba, en los cielos, otras estrellas contenían mundos con diversidad de vida, como en el planeta Tierra.  Tales ideas, han acompañado al hombre que, no en pocas oportunidades, fueron tachados de locos.

Hoy, con los conocimientos que poseemos, lo que sería una locura es precisamente pensar lo contrario.  ¡que estamos solos!

La Vía Lactea (una sola Galaxia de los cientos de miles de millones que pueblan el Universo), tiene más de 100.000 millones de estrellas.  Miles de millones de Sistemas Solares.  Cientos de miles de millones de planetas.  Muchos miles y miles de estrellas como el Sol de tamaño mediano, amarillas de tipo G.

¿Cómo podemos pensar que solo el planeta Tierra alberga vida?

                               Protogalaxia.

Galaxia en proceso de formación.  A pesar de la enorme técnica y sofisticación de los aparatos con que contamos para la observación del cosmos, no se ha podido encontrar ninguna protogalaxia cercana, lo cual indica que todas o la mayoría de las galaxias se formaron hace mucho tiempo. Por otra parte, los cientificos pensaban que no existía nada mas pequeño que un protón. En 1968 se escubrieron nuevas particulas dentro del protón, las cuales fueron llamadas quarks. Existen tres quarks dentro de cada protón, estos quarks se mantienen unidos entre sí mediante otras partículas llamadas gluones.

 

                                   Protón.

Partícula masiva del Grupo o familia de los Hadrones que se clasifica como Barión.  Esta hecho por dos quarks up y un quark down y es, consecuentemente una partícula masiva con 938,3 MeV, algo menos que la del neutron.  Su carga es positiva y su lugar está en el núcleo de los átomos, por lo que se les llama de manera genérica con los neutrones con la denominación de nucleones.

Este diagrama esquemático de un púlsar ilustra las líneas de campo magnético en blanco, el eje de rotación en verde y los dos chorros polares de radiación en azul. Un Pulsar es…  Una fuente de radio desde la que se recibe un tren de pulsos altamente regular.  Ha sido catalogado más de 600 púlsares desde que se descubriera el primero en 1.976.  Los púlsares son estrellas de neutrones en rápida rotación, con un diámetro de 20-30 km.  Las estrellas se hallan altamente magnetizadas (alrededor de 108 teslas), con el eje magnético inclinado con respecto, al eje de rotación.  La emisión de radio se cree que surge por la aceleración de partículas cargadas por encima de los polos magnéticos. A medida que rota la estrella, un haz de ondas de radio barre la Tierra, siendo entonces observado el pulso, de forma similar a un faro.

Los periodos de los pulsos son típicamente de 1 s., pero varían desde los 1’56 ms (púlsares de milisegundo) hasta los cuatro con tres s. Estos periodos rotacionales van decreciendo a medida que la estrella pierde energía rotacional, aunque unos pocos púlsares jóvenes son propensos a súbitas perturbaciones conocidas como ráfagas.

PSR B1257+12

Las medidas precisas de tiempos en los púlsares han revelado la existencia de púlsares binarios, y un púlsar, PSR 1257+12, se ha demostrado que está acompañado de objetos de masa planetaria.  Han sido detectado objetos ópticos (destellos) procedentes de unos pocos púlsares, notablemente los púlsares del Cangrejo y Vela.

Se crean en explosiones de supernovas de estrellas supergigantes y otros a partir de enanas blancas, se piensa que puedan existir cien mil en la Vía Láctea.

File:Artist's rendering ULAS J1120+0641.jpg

                                                                                                                                 Quasars

Objeto con un alto desplazamiento al rojo y con apariencia de estrella, aunque es probablemente el núcleo activo muy luminoso de una galaxia muy distante. El nombre es una contracción del ingles quasi stellar, debido a su apariencia estelar. Los primeros quasars descubiertos eran intensos fuentes de radio. Debido a las grandes distancias indicadas por el desplazamiento al rojo del núcleo debe ser hasta 100 veces más brillante que la totalidad de una galaxia normal.  Además algunos quasars varían en brillo en una escala de tiempo de semanas, indicando que esta inmensa cantidad de energía se origina en un volumen de unas pocas semanas-luz de longitud.  La fuente puede, por tanto, ser un disco de acreción alrededor de un agujero negro de 107 o 108 masas solares.

File:Quasar 3C 273.jpg

                      Imagen de 3C273 recogida por el telescopi Hubble

El primer quasar en ser identificado como tal en 1.963 fue la radiofuente 3c 273 con un desplazamiento al rojo de 0,158, siendo todavía el quasar más brillante, óptimamente hablando, observado desde la Tierra, con magnitud 13.  Miles de quasar han sido descubiertos desde entonces.  Algunos tienen desplazamiento al rojo tan grandes como 4,9, implicando que lo vemos tal como eran cuando el Universo tenía sólo una décima parte de la edad actual.

En esta brevísima reseña no puede dejarse constancia de todo lo que se sabe sobre quasars, sin embargo, dejamos los rasgos más sobresalientes para que el lector obtenga un conocimiento básico de estos objetos estelares. Para finalizar la reseña diré que, algunas galaxias aparentemente normales pueden contener remanentes de actividad quasar en sus núcleos, y algunas galaxias Seyfert y galaxias Markarian tienen núcleos que son intrínsecamente tan brillantes como algunos quasars. Existen algunas evidencias de que los quasars aparecen en los núcleos de los espirales, y es esa interacción con una galaxia vecina la que proporciona gas o estrellas al núcleo formado por un agujero negro masivo, alimentando así la emisión del quasar.  Salvo mejor parecer.

                                  ¿Qué es la radiación cósmica de fondo?
                                                        Radiación cósmica de fondo.

Antes, hemos comentado por alguna parte que, se trata de emisión radio de microondas proveniente de todas las direcciones (isotrópica) y que corresponde a una curva de cuerpo negro. Estas propiedades coinciden con las predichas por la teoría del Big Bang, como habiendo sido generada por fotones liberados del Big Bang cuando el Universo tenía menos de un millón de años (Universo bebé) de antigüedad.

La teoría del Big Bang también supone la existencia de radiaciones de fondo de neutrinos y gravitatoria, aunque aun no tenemos los medios para detectarlas.  Sin embargo, los indicios nos confirman que la teoría puede llevar todas las papeletas para que le toque el premio.

Últimamente se ha detectado que la radiación cósmica de fondo no está repartida por igual por todo el Universo, sino que, al contrario de lo que se podía esperar, su reparto es anisotrópico, el reparto está relacionado con la clase de materia que produjo tal radiación, su densidad.  ¡Ya veremos!

De todas lasm maneras, ¿No es una maravilla todo el Universo? El que nosotros, estemos aquí para contarlo así lo testifica.

emilio silvera.

La verdadera Historia de la Teoría del Caos

Autor por Emilio Silvera    ~    Archivo Clasificado en Caos y Complejidad    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Descubren en el espacio un diamante del tamaño de la Tierra
B. Saxton (NRAO/AUI/NSF)   Recreación artística de la enana blanca y su púlsar compañero

“Un equipo de astrónomos ha identificado en la constelación de Acurio, a 900 años luz de nuestro planeta, la que posiblemente es la estrella enana blanca más fría y débil jamás detectada. Este antiguo remanente estelar, el estado final de un astro como nuestro Sol, es tan frío que su carbono se ha cristalizado, formando en el espacio un diamante del tamaño de la Tierra y con una masa similar a la de nuestro Sol.

Esta gigantesca joya cósmica «es un objeto muy notable», afirma David Kaplan, profesor de la Universidad de Wisconsin-Milwaukee. «Estas cosas deben estar por ahí, pero son tan débiles que son muy difíciles de encontrar».

“Es la peor noticia posible para aquellos que esperan avances importantes en la cumbre climática que se celebró  en Copenhague. Uno de los científicos más destacados de la teoría del cambio climático, Phil Jones, se veía obligado a presentar su dimisión temporal como director de la Unidad de Investigación Climática de la Universidad de East Anglia, en Norwich, Inglaterra, tras ser acusado de manipular datos sobre los efectos del cambio climático para exagerar su impacto.”

¿Qué iría biuscando con tal comportamiento?

¿Os acordáis de aquella vez que Mark Twain tuvo que decir: “Las noticias sobre mi muerte han sido exageradas”. Bueno, pues hasta ahí llegan para vender

Los Medios de Comunicación, no siempre son fieles “comunicadores” y, para realzar las noticias, las expresan con un grado extra de exaltación, o, licencia poética que, distorsiona la realidad de lo que realmente deberían comunicar, y, no pocas veces, tal hecho se debe a que (sobre todo en noticias relativas a cuestiones científicas) no se elige a la persona debidamente preparada y adecuada a la noticia que se quiere ofrecer al público. Si la noticia se ha dado de manera equívoca, el científico redactor debe enmendar lo que se dijo con miras a llamar la atención o conseguir alguna subvención.

Escribo esto a partir de un artículo leído en la prensa diaria que, tratando de hablar de exóticos objetos que existen en el Universo, llegan a hablarnos de estrellas masivas con 600 veces la masa del Sol, y, tal barbaridad, nos lleva a pensar que, para hacer un reportaje o comentario de estos temas, los diferentes medios, deberían acudir a personas versadas en lo que están tratando, y, de esa manera, además de quedar mucho mejor, evitarían el ridículo de publicar las cosas alejadas de la realidad.

Buscando en mi documentación, un buen ejemplo de lo que digo, por suerte, me encuentro con un artículo escrito por Don Carlos Miguel Madrid Casado del Departamento de Lógica y Filosofía de la Ciencia en la Facultad de Filosofía de la Universidad Complutense de Madrid, dónde nos deja un claro ejemplo de lo que no debiera ser. Aquí os lo dejo.

“Edward Lorenz (1917-2008): ¿Padre de la Teoría del Caos?

El miércoles de 16 de abril de 2008, a los 90 años de edad, moría Edward Norton Lorenz. Los periódicos de medio mundo pronto se hicieron eco de la noticia. Todos los obituarios recogieron que había muerto “el Padre de la Teoría del Caos”. Lorenz, escribían, fue el primero en reconocer el comportamiento caótico de ciertos sistemas dinámicos, como el atmosférico. El estudio de este comportamiento altamente inestable y errático le condujo, continuaban, a formular una de las principales características de lo que hoy se llama “caos determinista”: la dependencia sensible a las condiciones iniciales, popularmente conocida como “efecto mariposa”. Lorenz, concluían, fue el artífice de la tercera revolución científica del siglo XX, después de la Teoría de la Relatividad y la Mecánica Cuántica.

Una de la mayores carácterísticas de un Sistema inestable es que tiene una gran dependencia de las condiciones iniciales. De un sistema del que se conocen sus ecuaciones características, y con unas condiciones iniciales fijas, se puede conocer exactamente su evolución en el tiempo. Pero en el caso de los sistemas caóticos, una mínima diferencia en esas condiciones hace que el sistema evolucione de manera totalmente distinta e impredecible.

 

 

ndencia de las condiciones iniciales. De un siste del que se conocen sus ecuaciones características, y con unas condiciones iniciales fijas, se puede conocer exactamente su evolución en el tiempo. Pero en el caso de los sistemas caóticos, una mínima diferencia en esas condiciones hace que el sistema evolucione de manera totalmente distint

Pero, veamos,  ¿ha sido realmente Edward Lorenz el “creador” de la Teoría del Caos? ¿O acaso su papel de estrella protagonista se debe más bien a una inusitada alianza entre mérito y fortuna? El propósito de esta nota es ofrecer una panorámica de la Historia de la Teoría del Caos que complique su nacimiento y enriquezca su evolución, sacando a la luz la figura de ciertos científicos que el gran talento de Lorenz ha ensombrecido y ocultado.Comenzamos nuestra panorámica retrocediendo hasta los tiempos de la Revolución Científica. El intento por comprender las trayectorias planetarias observadas por Kepler condujo a Newton a modelarlas matemáticamente, siguiendo la estela de Galileo. Newton formuló sus leyes de una forma matemática que relacionaba entre sí las magnitudes físicas y sus ritmos de cambio. Las leyes físicas quedaron expresadas como ecuaciones diferenciales. Estudiar un fenómeno físico y hallar las ecuaciones diferenciales que las gobernaban eran las dos caras de la misma moneda.

Desde el siglo XVII, toda la naturaleza –sólidos, fluidos, sonido, calor, luz, electricidad- fue modelada mediante ecuaciones diferenciales. Ahora bien, una cosa era dar con las ecuaciones del fenómeno en cuestión y otra, bien distinta, resolverlas. La teoría de las ecuaciones diferenciales lineales fue desarrollada por completo en poco tiempo. No así la teoría gemela, la teoría de las ecuaciones diferenciales no lineales.

Uno de los problemas no lineales que trajo de cabeza a físicos y matemáticos fue el problema de los n cuerpos de la Mecánica Celeste: dados n cuerpos de distintas masas bajo atracción gravitacional mutua, se trataba de determinar el movimiento de cada uno de ellos en el espacio. Newton resolvió geométricamente el problema de los dos cuerpos en los Principia. Posteriormente, Bernoulli y Euler lo resolvieron analíticamente con todo detalle. Sin embargo, no ocurrió así con el problema de los tres cuerpos. Newton sabia que, cuando un tercer cuerpo entraba en escena, el problema no era fácilmente resoluble, y que esto traía serias consecuencias para la cuestión de la estabilidad del Sistema Solar (que, a fin de cuentas, en la época, pasaba por ser un sistema de siete cuerpos). Aunque débiles en comparación con la fuerza de atracción del Sol, las fuerzas gravitatorias entre los planetas no eran ni mucho menos despreciables, por cuanto a la larga podían desviar algún planeta de su órbita e incluso, en el límite, expulsarlo fuera del Sistema Solar.

leonhard euler 2

El matemático suizo Leonhard Euler

Las fuerzas interplanetarias podían estropear las bellas elipses keplerianas, sin que fuera posible predecir el comportamiento del Sistema Solar en un futuro lejano. En Motu corporum in gyrum, Newton afirmaba que los planetas no se mueven exactamente en elipses ni recorren dos veces la misma órbita, y reconocía que definir estos movimientos para todo futuro excedía con mucho la fuerza entera del intelecto humano. Si el Sistema Solar se iba desajustando, era necesaria una solución drástica: la Mano de Dios tenía que reconducir cada planeta a su elipse, reestableciendo la armonía. Este Deus ex machina newtoniano provocó, como es bien sabido, la ira de Leibniz, para quien Dios no podía ser un relojero tan torpe.

Tiempo después, Laplace creyó explicar las anomalías orbitales que preocuparon a Newton como meras perturbaciones que sólo dependían de la Ley de Gravitación y tendían a compensarse en el transcurso del tiempo. Así, al presentar su Mecánica Celeste a Napoleón, exclamó que Dios no era una hipótesis necesaria en su sistema del mundo. Sin embargo, en sus ecuaciones del sistema Sol-Júpiter-Saturno (problema de los tres cuerpos), Laplace despreció un término matemático que creía muy pequeño pero que, en contra de lo por él supuesto, podía crecer rápidamente y sin límite, hasta desestabilizar el Sistema Solar.

Muchos físicos y matemáticos decimonónicos dedicaron sus esfuerzos a dar una respuesta completa al problema de los tres cuerpos y a la cuestión de la estabilidad del Sistema Solar. Entre ellos, uno de los personajes clave en la configuración de la Teoría del Caos: Henri Poincaré.

poincare Henri Poincaré. El trabajo científico.

                                     Henri Poincaré

En 1855, los matemáticos europeos tuvieron noticia de que un importante concurso internacional iba a ser convocado bajo el auspicio de Oscar II, rey de Suecia y Noruega, para celebrar su sesenta aniversario en el trono. Se ofrecía un sustancioso premio al matemático capaz de resolver el problema de los tres cuerpos y, de este modo, avanzar en el estudio de la estabilidad del Sistema Solar. Alentado por la competencia, Poincaré procedió a sintetizar muchas de sus ideas acerca del estudio cualitativo o topológico de las ecuaciones diferenciales no lineales. El Jurado declaró ganador a Poincaré por una compleja resolución del problema restringido de los tres cuerpos, en que un planeta ligero se mueve bajo la atracción gravitatoria de dos estrellas iguales que giran una alrededor de la otra describiendo dos elipses confinadas en un mismo plano. Sin embargo, el artículo de Poincaré contenía un error y una tirada completa de la prestigiosa revista Acta Mathemática hubo de ser destruida.

A toda prisa, Poincaré revisó su trabajo y descubrió que, en verdad, no podía probarse la estabilidad del sistema, porque su dinámica no seguía pauta regular alguna. Su revisión del problema contiene una de las primeras descripciones del comportamiento caótico en un sistema dinámico. Poincaré fue, desde luego, el abuelo de la Teoría del Caos. Además, a partir de entonces, Poincaré contribuyó como pocos, a popularizar la idea de que existen sistemas deterministas cuya predicción a largo plazo resulta imposible. En Ciencia y Método, escribía: “Puede suceder que pequeñas diferencias en las condiciones iniciales produzcan algunas muy grandes en los estados finales. Un pequeño error al inicio engendrará un enorme error al final. La predicción se vuelve imposible”.

¡Caramba! Medio siglo antes que Lorenz, Poincaré se había topado con… ¡el efecto mariposa! Aún más: el genial matemático francés señaló que el tiempo meteorológico hacía gala de esta clase de inestabilidad y apuntó qué dificultades se derivarían para la predicción meteorológica. En su labor divulgadora no estuvo solo: su compatriota Pierre Duhem difundió las investigaciones de Poincaré y, también, de Jacques Hadamard, quien fue pionero en demostrar matemáticamente que, para cierto sistema dinámico hoy conocido como el Billar de Hadamard, un pequeño cambio en las condiciones iniciales provoca un notable cambio en la posterior evolución del sistema.

Durante el primer cuarto del siglo XX, la influencia de Poincaré no desapareció y se dejó notar en los trabajos de George David Birkhoff a propósito de las características cualitativas y topológicas de los sistemas dinámicos. Tampoco puede olvidarse el papel de Stephen Smale, que ganaría la Medalla Fields –el Premio Nobel de los matemáticos- en 1966 por sus contribuciones a la Teoría de los Sistemas Dinámicos. Mediado el siglo XX, este topólogo continuó la senda trazada por Poincaré t Birkhoff, y descubrió la Herradura de Smale, que pasa por ser el mecanismo topológico que da lugar al caos (efecto mezcla).

Imagen

                 George David Birkhoff

Simultáneamente, cruzando el telón de acero, existía otra fértil tradición: la Escuela Rusa. En la U. R. S. S., los físicos y matemáticos habían heredado de Alexander Liapunov sus influyentes nociones acerca de la estabilidad del movimiento de los sistemas dinámicos. Si Poincaré se había ocupado de la teoría de la estabilidad desde una perspectiva cualitativa, Liapunov lo hizo cuantitativamente (exponentes de Liapunov). Recogiendo el testigo de ambos, Kolmogorov y Arnold se concentraron en el estudio de la estabilidad de los sistemas dinámicos de la Dinámica Celeste. Durante la guerra fría, los principales resultados de los matemáticos soviéticos fueron traducidos al inglés y dados a conocer al resto de matemáticos, europeos y norteamericanos, gracias al providencial trabajo de Solomon  Lefschetz.

Y en éstas, apareció Lorenz… En 1963, este matemático y meteorólogo, antiguo alumno de Birkhoff en Harvard, estaba trabajando en el pronóstico del tiempo en el MIT. Estudiando la convección en la atmósfera, Lorenz planteó un modelo matemático formado por tres ecuaciones diferenciales ordinarias para describir el movimiento de un fluido bajo la acción de un gradiente térmico. Mientras buscaba soluciones numéricas con la ayuda de una computadora, se encontró –al volver de tomar una taza de café- con que se producía un dramático comportamiento inestable, caótico. Lorenz se había topado por casualidad con el fenómeno de la sensibilidad a las condiciones iniciales, que hacía de su sistema algo en la práctica impredecible. En efecto, tras establecer las propiedades básicas del flujo, Lorenz reparó en que una pequeña variación en las condiciones iniciales ocasionaba estados finales completamente diferentes. Lorenz había descubierto, tomando prestada la indeleble metáfora que forjaría más tarde, el efecto mariposa: el aleteo de una mariposa en Brasil puede ocasionar un tornado en Texas. Ahora bien, sería el matemático norteamericano Guckenheimer el que, allá por los años 70, acuñara la expresión “dependencia sensible a las condiciones iniciales”.

Lorenz publicó su hallazgo en una revista de meteorología, en un artículo titulado Deterministic Nonperiodic Flow, en que citaba expresamente a Poincaré y Birkhoff (aunque desconocía las ideas del primero sobre predicciones meteorológicas), pero que pasó prácticamente desapercibido. Sólo Stephen Smale y James Jorke –el introductor del término caos en la literatura científica- reconocieron las repercusiones filosóficas de la investigación de Lorenz y la dieron a conocer. Si Edward Lorenz ofreció a la comunidad científica el paradigma de sistema dinámico caótico continuo, el zoólogo Robert May dio a conocer en su artículo Simple Mathematical Models with Complicated Dynamics el paradigma del sistema dinámico caótico discreto: la aplicación logística.

A finales de los 70 y principios de los 80, la exploración de aplicaciones de la Teoría del Caos comenzó a dar sus frutos más allá de las simulaciones en las pantallas de ordenador. Entre los fenómenos físicos estudiados destaca, sin duda, la transición a la turbulencia en los fluidos, cuyo estudio contaba con el precedente que suponía el artículo On the nature of turbulence de David Ruelle y Floris Takens, quiénes introdujeron la noción de atractor extraño. Paralelamente, el físico Mitchell Feigenbaum descubrió heurísticamente ciertas constantes universales que caracterizan la transición del movimiento periódico al movimiento caótico, dando inicio a una de las ramas más prometedoras de la Teoría del Caos a día de hoy: la Teoría de la Bifurcación.

En resumidas cuentas, a comienzos del siglo XXI, la Teoría del Caos se nos aparece como la ciencia fisicomatemática que estudia el comportamiento aperiódico e inestable en sistemas deterministas no lineales. Mientras que la revolución relativista fue, prácticamente, fruto de un único hombre (Albert Einstein), y la revolución cuántica lo fue de apenas un puñado (Planck, Bhor, Heisenberg, Schrödinger, Dirac), la revolución del caos determinista es, en cambio, obra de múltiples. La Teoría del Caos es hija tanto de matemáticos (Poincaré, Hadamard, Birkhoff, Smale, Yorke…) como de físicos, biólogos y otros tantos científicos de campos dispares (Lorenz, May, Feigenbaum…). Atribuir su paternidad únicamente a un hombre, aun cuando sea Lorenz, es una simplificación excesiva. Lorenz fue, por así decirlo uno de los muchos padres.”

Hasta aquí el artículo que el Señor Madrid Casado escribió y fue publicado en el número 3 del volumen 22 de la Revista Española de Física en 2008.

El trabajo está bien y nos introduce en la historia de la Teoría del Caos desde sus raíces, y, lo único en lo que podemos disentir del autor es, en el hecho cierto de que, Einstein, autor de la relatividad, también se apoyó en muchos (Mach, Maxwell, Lorentz, -en la primera parte, y, sobre todo en Riemann, en la segunda), aunque eso no le quita ni una pizca del mérito que tiene como científico que supo aunar muchos conocimientos dispersos, unirlos en una sola entidad y hacer ver al mundo lo que allí había. Y, por otra parte, al hablar de la Mecánica Cuántica, excluye a Einstein que, en verdad (aunque la combatió) fue uno de sus padres en aquellos primeros momentos, su trabajo sobre el Efecto Fotoeléctrico (que le dio el Nobel de Física) así lo demuestra. Por otra parte, no habría estado de más y de pasada, comentar que Poincaré fue el autor de la “Conjetura” que lleva su nombre y que ha estado ahí 100 años sin que nadie la resolviera hasta que llegó, un matemático extraño, llamado Perelman (ruso) que sin tener el premio que ofrecían al ganador, puso en Internet la solución. Este personaje, no acudió a la cita en Madrid, donde se celebraba el Año Internacional de las Matemáticas y el rey le entregaría la Medalla Field. Todos se quedaron esperando y él, que vicía con su madre en un apartamento de 65 m2, estaba con su cestita al brazo cogiendo setas en el campo.

De todo esto podemos obtener la consecuencia de que, todo tiene otra historia detrás, y, si profundizamos, la podemos descubrir para conocer de manera completa y precisa, el transcurso de los hechos y los personajes que en ellos tomaron parte.

emilio silvera