jueves, 01 de mayo del 2025 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¡La Física! ¿Cuantas sorpresas nos tiene reservadas?

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

La velocidad de la luz

Un haz de Láser en el aire viajando cerca del 99.97% de la rapidez de la luz en el vacío

Está claro que la luz se desplaza a enormes velocidades. Si pulsamos el interruptor apagado de la lámpara de nuestro salón, todo queda a oscuras de manera instantánea. La velocidad del sonido es más lenta; por ejemplo, si vemos a un leñador que está cortando leña en un lugar alejado de nosotros, sólo oiremos los golpes momentos después de que caiga el hacha. Así pues, el sonido tarda cierto tiempo en llegar a nuestros oídos. En realidad es fácil medir la velocidad de su desplazamiento: unos 1.206 Km/h en el aire y a nivel del mar.

determinación de la velocidad de la luz por Galileo

               No parece el mejor método para medir la velocidad de la luz, el empleado por Galileo. Claro que, en aquellos tiempos…¿Qué se podía hacer?

Galileo fue el primero en intentar medir la velocidad de la luz. Se colocó en lo alto de una colina, mientras que su ayudante se situaba en otro lugar alto de la colina vecina; luego sacó una linterna encendida. Tan pronto como su ayudante vio la luz, hizo una señal con otra linterna. Galileo repitió el experimento a distancias cada vez mayores, suponiendo que el tiempo requerido por su ayudante para responder mantendría una uniformidad constante, por lo cual, el intervalo entre la señal de su propia linterna y la de su ayudante representaría el tiempo empleado por la luz para recorrer cada distancia. Aunque la idea era lógica, la luz viajaba demasiado aprisa como que Galileo pudiera percibir las sutiles diferencias con un método tan rudimentario.

Un tránsito doble sombra en Júpiter. Los dos satélites visibles, Io y Europa, justo a la derecha del planeta son responsables de las sombras. (La imagen fue generada por computadora.) Todos los planetas y lunas del Sistema solar han sido estudiado muy a fondo por los Astrónomos que, cada día descubren nuevos dsecretos de estos grandes y pequeños “mundos”.

En 1.676, el astrónomo danés Olaus Roemer logró cronometrar la velocidad de la luz a escala de distancias astronómicas. Estudiando los eclipses de Júpiter en sus cuatro grandes satélites, Roemer observó que el intervalo entre eclipses consecutivos era más largo cuando la Tierra se alejaba de Júpiter, y más corto cuando se movía en su órbita hacia dicho astro. Al parecer, la diferencia entre las duraciones del eclipse reflejaba la diferencia de distancias entre la Tierra y Júpiter. Y trataba, pues, de medir la distancia partiendo del tiempo empleado por la luz para trasladarse desde Júpiter hasta la Tierra. Calculando aproximadamente el tamaño de la órbita terrestre y observando la máxima discrepancia en las duraciones del eclipse que, según Roemer, representaba el tiempo que necesitaba la luz para atravesar el eje de la órbita terrestre, dicho astrónomo computó la velocidad de la luz. Su resultado, de 225.000 Km/s, parece excelente si se considera que fue el primer intento, y resultó bastante asombroso como para provocar la incredulidad de sus coetáneos.

 

James Bradley descubrió la aberración estelar

Sin embargo, medio siglo después se confirmaron los cálculos de Roemer en un campo completamente distinto. Allá por 1.728, el astrónomo británico James Bradley descubrió que las estrellas parecían cambiar de posición con los movimientos terrestres; y no por el paralaje, sino porque la traslación terrestre alrededor del Sol era una fracción mensurable (aunque pequeña) de la velocidad de la luz. La analogía empleada usualmente es la de un hombre que camina con el paraguas abierto bajo un temporal. Aun cuando las gotas caigan verticalmente, el hombre debe inclinar hacia delante el paraguas, porque ha de abrirse paso entre las gotas. Cuanto más acelere su paso, tanto más deberá inclinar el paraguas. De manera semejante, la Tierra avanza entre los ligeros rayos que caen desde las estrellas, y el astrónomo debe inclinar un poco su telescopio y hacerlo en varias direcciones, de acuerdo con los cambios de la trayectoria terrestre (no olvidemos que nuestro planeta Tierra es como una enorme nave espacial que nos lleva en un viaje eterno, alrededor del Sol, a la velocidad de 30 Km/s). Mediante ese devío aparente de los astros (“aberración de la luz”), Bradley pudo evaluar la velocidad de la luz y calcularla con gran precisión. Sus cálculos fueron de 285.000 Km/s, bastante más exactos que los de Roemer, pero aún un 5’5% más bajos.

Poco a poco, con medios tecnológicos más sofisticados y más conocimientos matemáticos, los científicos fueron obteniendo medidas más exactas aún, conforme se fue perfeccionando la idea original de Galileo y sus sucesores.

Fizeau,
Fizeau, Armand-Hippolyte-Louis

En 1.849, el físico francés Armand-Hippolyte-Louis Fizeau ideó un artificio mediante el cual se proyectaba la luz sobre un espejo situado a 8 Km de distancia, que devolvía el reflejo al observador. El tiempo empleado por la luz en su viaje de ida y vuelta no rebasó apenas la 1/20.000 de segundo, pero Fizean logró medirlo colocando una rueda dentada giratoria en la trayectoria del rayo luminoso. Cuando dicha rueda giraba a cierta velocidad, la luz pasaba entre los dientes y se proyectaba contra el siguiente, al ser devuelta por el espejo; así, Fizeau, colocando tras la rueda, no pudo verla. Entonces se dio más velocidad a la rueda y el reflejo pasó por la siguiente muesca entre los dientes, sin interacción alguna. De esa forma, regulando y midiendo la velocidad de la rueda giratoria, Fizean pudo calcular el tiempo trascurrido y, por consiguiente, la velocidad a la que se movía el rayo de luz.

Animación del Péndulo de Foucault oscilando en el hemisferio sur

Un año más tarde, Jean Foucault (quien realizaría poco después su experimento con los péndulos) precisó más estas medidas empleando un espejo giratorio en vez de una rueda dentada. Entonces se midió el tiempo transcurrido desviando ligeramente el ángulo de reflexión mediante el veloz espejo giratorio. Foucault obtuvo un valor de la velocidad de la luz de 300.883 Km/s. También el físico francés utilizó su método para determinar la velocidad de la luz a través de varios líquidos. Averiguó que era notablemente inferior a la alcanzada en el aire. Esto concordaba con la teoría ondulatoria de Huyghens.

AetherWind.svg

Michelson fue más preciso aún en sus medidas. Este autor, durante cuarenta años largos a partir de 1.879, fue aplicando el sistema Fizean-Foucault cada vez con mayor refinamiento, para medir la velocidad de la luz. Cuando se creyó lo suficientemente informado, proyectó la luz a través del vacío, en vez de hacerlo a través del aire, pues éste frena ligeramente su velocidad, y empleó para ello tuberías de acero cuya longitud era superior a 1’5 Km. Según sus medidas, la velocidad de la luz en el vacío era de 299.730 Km/s (sólo un 0’006% más bajo). Demostraría también que todas las longitudes de ondas luminosas viajan a la misma velocidad en el vacío.

En 1.972 un equipo de investigadores bajo la dirección de Kenneth M. Evenson efectuó unas mediciones aún más exactas y vio que la velocidad de la luz era de 299.727’74 Km/s. Una vez se conoció la velocidad de la luz con semejante precisión, se hizo posible usar la luz, o por lo menos formas de ella, para medir distancias.

Aunque para algunos resulte algo tedioso el tema anterior, no he podido resistirme a la tentación de exponerlo; así podrá saber algo más sobre la luz, y habrán conocido a personajes que hicieron posible el que ahora nosotros la conozcamos mejor.

Podría continuar hasta el final de este trabajo hablando de la luz y sus distintas formas o aplicaciones: ondas de luz a través del espacio, de cómo se transmite la luz en el “vacío”, nos llega a través del espacio desde galaxias situadas a miles de millones de años luz; las líneas de fuerzas electromagnéticas de Faraday y Maxwell de campos eléctricos y magnéticos cambiantes (todo ello explicado en un simple conjunto de cuatro ecuaciones, que describían casi todos los fenómenos referentes a esta materia electromagnética), o de los enigmas aún por descubrir (aunque predichos).

En 1.931, Dirac, acometiendo el asunto de una forma matemática, llegó a la conclusión de que si los monopolos magnéticos existían (si existía siquiera uno en cualquier parte del universo), sería necesario que todas las cargas eléctricas fuesen múltiplos exactos de una carga más pequeña, como en efecto así es. Y dado que todas las cargas eléctricas son múltiplos exactos de alguna carga más pequeña, ¿no debería, en realidad, existir los monopolos magnéticos?

En 1.974, un físico neerlandés (yo lo he mencionado antes en este mismo trabajo), Gerard’t Hooft, y un físico soviético, Alexander Poliakov, mostraron independientemente que podía razonarse, a partir de las grandes teorías unificadas, que los monopolos magnéticos debían así mismo existir, y que debían poseer una masa enorme. Aunque un monopolo magnético sería incluso más pequeño que un protón, debería tener una masa que sería de 10 trillones a 10 cuatrillones mayor que la del protón. Eso equivaldría a la masa de una bacteria comprimida en una diminuta partícula subatómica.

Semejantes partículas sólo podían haberse formado en el momento de la gran explosión (otra vez volvemos al origen). Desde entonces no ha existido la suficientemente alta concentración de energía necesaria para formarla. Esas grandes partículas deberían avanzar a unos 225 Km/s, aproximadamente, y la combinación de una enorme masa y un pequeño tamaño le permitiría deslizarse a través de la materia sin dejar el menor rastro de presencia. Esta propiedad, de hecho, está relacionada directamente con el fracaso obtenido en su búsqueda. Los físicos están tratando de idear un mecanismo capaz de poder detectar con claridad el paso de monopolos magnéticos.

Dibujo20090716_Particle_density_at_different_stages_of_monopole_formation_and_Unwinding_of_monopole_defect

Todos los imanes tienen dos polos. Si cortas una imán por la mitad sigue teniendo dos polos. ¿Existen imanes con un sólo polo magnético? Los llamados monopolos magnéticos han sido buscados por mucho tiempo desde que en 1931 Dirac afirmó que la mecánica cuántica no prohibía su existencia. Los monopolos de Dirac eran “bestias” de enorme masa (miles de billones de veces la masa del protón). Ville Pietilä y Mikko Möttönen han demostrado teóricamente cómo se pueden observar monopolos de Dirac en la estructura de espín de estados condensados de Bose-Einstein.

Podríamos decir que un monopolo magnético es una entidad magnética consistente en un polo norte o sur elemental aislado. Ha sido postulado como una enorme fuente de campo magnético en analogía a la forma en que las partículas eléctricamente cargadas producen un campo eléctrico.

Se han diseñado numerosos experimentos ingeniosos para detectar monopolos, pero hasta ahora ninguno ha producido un resultado definitivo. Los monopolos magnéticos son predichos en ciertas teorías gauge con bosones de Higgs. En particular, algunas teorías de gran unificación predicen monopolos muy pesados (con masas del orden de 1016 GeV). Los monopolos magnéticos también son predichos en las teorías de Kaluza-Klein (5 dimensiones) y en teoría de supercuerdas (10 y 26 dimensiones).

         Preludio a la relatividad. Las ecuaciones de Lorentz-Fitzgerald

En 1.893 el físico irlandés George Fancis Fitzgerald emitió una hipótesis para explicar los resultados negativos del experimento conocido de Michelson-Morley. Adujo que toda la materia se contrae en la dirección del movimiento, y que esa contracción es directamente proporcional al ritmo (velocidad) del movimiento.

La contracción de Lorentz es un efecto relativista que consiste en la contracción de la longitud de un cuerpo en la dirección del movimiento a medida que su velocidad se acerca a la velocidad de la luz. Originalmente fue un concepto introducido por Lorentz como una forma de explicar la ausencia de resultados positivos en el experimento de Michelson-Morley.  Posteriormente fue aplicado por Albert Einstein en el contexto de la relatividad especial.

 

La contracción de Lorentz viene descrita por la siguiente expresión

 


L_1 = \frac{L_0}{\gamma} = L_0 \sqrt{1-\left(\frac{v}{c}\right)^2},

 

donde {\gamma} es el llamado factor de Lorentz,  L0 es la longitud medida por un observador estacionario (longitud propia) y L1 es la longitud medida por un observador que se desplaza a una velocidad v (longitud impropia) siendo c la velocidad de la luz.

Dado que siempre cumple que

 


\sqrt{1-\left(\frac{v}{c}\right)^2} < 1  \qquad \to \qquad  L_0 \sqrt{1-\left(\frac{v}{c}\right)^2} < L_0

es decir

L_1<L_0

la longitud impropia L1 siempre se ve contraída respecto a la longitud propia L0.

La contracción de Lorentz también puede entenderse como el efecto de dilatación del tiempo y como el aumento de la masa inercial de un cuerpo o partícula. Según tal interpretación, el interferómetro se quedaba corto en la dirección del “verdadero” movimiento terrestre, y lo hacía precisamente en una cantidad que compensaba con toda exactitud la diferencia de distancias que debería recorrer el rayo luminoso. Por añadidura, todos los aparatos medidores imaginables, incluyendo los órganos sensoriales humanos, experimentarían ese mismo fenómeno.

Parecía como si la explicación de Fitzgerald insinuara que la naturaleza conspiraba con objeto de impedir que el hombre midiera el movimiento absoluto, para lo cual introducía un efecto que anulaba cualquier diferencia aprovechable para detectar dicho movimiento.

Este asombroso fenómeno recibió el nombre de contracción de Fitzgerald, y su autor formuló una ecuación para el mismo, que referido a la contracción de un cuerpo móvil, fue predicha igualmente y de manera independiente por H. A. Lorente (1.853 – 1.928) de manera que, finalmente, se quedaron unidos como contracción de Lorentz-Fitzgerald.

A la contracción, Einstein le dio un marco teórico en la teoría especial de la relatividad. En esta teoría, un objeto de longitud l0 en reposo en un sistema de referencia parecerá, para un observador en otro sistema de referencia que se mueve con velocidad relativa v con respecto al primero, tener longitud , donde c es la velocidad de la luz. La hipótesis original atribuía esta contracción a una contracción real que acompaña al movimiento absoluto del cuerpo. La contracción es en cualquier caso despreciable a no ser que v sea del mismo orden o cercana a c.

Un objeto que se moviera a 11.2 Km/s (la velocidad de escape de nuestro planeta) experimentaría sólo una contracción equivalente a 2 partes por cada 1.000 millones en el sentido del vuelo. Pero a velocidades realmente elevadas, tal contracción sería sustancial. A unos 150.000 Km/s (la mitad de la velocidad de la luz) sería del 15%; a 262.000 Km/s (7/8 de la velocidad de la luz), del 50%. Es decir, que una regla de 30 cm que pasara ante nuestra vista a 262.000 Km/s nos parecería que mide sólo 15’24 cm, siempre y cuando conociéramos alguna manera para medir su longitud en pleno vuelo. Y a la velocidad de la luz, es decir, 300.000 Km/s en números redondos, su longitud en la dirección del movimiento sería cero. Puesto que, presuntamente, no puede existir ninguna longitud inferior a cero, se deduce que la velocidad de la luz en el vacío es la mayor que puede imaginarse el universo.

 

Nada puede viajar a la velocidad de la luz

El físico holandés Henrik Antón Lorentz, como hemos dicho, promovió esta idea pensando en los rayos catódicos (que ocupaban su actividad por aquellas fechas). Se hizo el siguiente razonamiento: si se comprimiera la carga de una partícula para reducir su volumen, aumentaría su masa. Por consiguiente, una partícula voladora, escorzada en la dirección de su desplazamiento por la contracción de Fitzgerald, debería crecer en términos de masa. Lorentz presentó una ecuación sobre el acrecentamiento de la masa, que resultó muy similar a la ecuación de Fitzgerald sobre el acortamiento. A 149.637 Km/s la masa de un electrón aumentaría en un 15%; a 262.000 Km/s, en un 100% (es decir, la masa se duplicaría); y a la velocidad de la luz, su masa sería infinita. Una vez más pareció que no podría haber ninguna velocidad superior a la de la luz, pues, ¿cómo podría ser una masa mayor que infinita?

El efecto Fitzgerald sobre longitudes y el efecto Lorentz sobre masas mantuvieron una conexión tan estrecha que aparecieron a menudo agrupadas como las ecuaciones Lorentz-Fitzgerald.

                     A velocidades relativistas aumenta la masa del objeto viajero

Mientras que la contracción Fitzgerald no podía ser objeto de mediciones, el efecto Lorentz sobre masas sí podía serlo, aunque indirectamente. De hecho, el muón tomó 10 veces su masa original cuando fue lanzado, a velocidades relativistas, en el acelerador de partículas, lo que confirmó la ecuación de Lorentz. Los experimentos posteriores han confirmado las ecuaciones de ambos: a velocidades relativistas, las longitudes se contraen y las masas se incrementan.

Como es conocido por todos, Einstein adoptó estos descubrimientos y los incorporó a su teoría de la relatividad especial, que aunque mucho más amplia, recoge la contracción de Fitzgerald y el aumento de la masa de Lorentz cuando se alcanzan grandes velocidades.

Einstein supo aunar las ideas de muchos a una teoría que, como se ha visto, nos enseñó un “mundo” nuevo

Algunas veces pienso que los artistas en general, y los poetas en particular, tendrían que adaptar e incluir en sus esquemas artísticos y poéticos los adelantos científicos, para asimilarlos en las diversas expresiones y sentimientos que serán después puestos al servicio del consumo humano. Estos adelantos científicos serían así coloreados con las pasiones humanas, y transformados, de alguna forma, en la sangre, y por qué no, los sentimientos de la naturaleza humana. Posiblemente, de haberlo hecho, el grado general de conocimiento sería mayor.

Sólo uno de cada tres puede definir una molécula o nombrar a un solo científico vivo. De veinticinco licenciados escogidos al azar en la ceremonia de graduación de Harvard, sólo dos pudieron explicar por qué hace más calor en verano que en invierno. La respuesta, dicho sea de paso, no es “porque el Sol está más cerca”; no está más cerca. El eje de rotación de la Tierra está inclinado, así que cuando el hemisferio norte se inclina hacia el Sol, los rayos son más perpendiculares a la superficie, y la mitad del globo disfruta del verano. Al otro hemisferio llegan rayos oblicuos: es invierno. Es triste ver cómo aquellos graduados de Harvard podían ser tan ignorantes. ¡Aquí los tenemos con faltas de ortografía!

Por supuesto, hay momentos brillantes en los que la gente se sorprende. Hace años, en una línea de metro de Manhattan, un hombre mayor se las veía y deseaba con un problema de cálculo elemental de su libro de texto de la escuela nocturna; no hacía más que resoplar. Se volvió desesperado hacia el extraño que tenía a su lado, sentado junto a él, y le preguntó si sabía cálculo. El extraño afirmó con la cabeza y se puso a resolverle al hombre el problema. Claro que no todos los días un anciano estudia cálculo en el metro al lado del físico teórico ganador del Nobel T. D. Lee.

emilio silvera

Agujeros Negros Gigantes

Autor por Emilio Silvera    ~    Archivo Clasificado en Agujeros negros    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

La idea de que Agujeros negros gigantes podían activar los cuásares y las radiogalaxias fue concebida por Edwin Salpeter y Yakov Borisovich Zel´dovich en 1964. Esta idea era una aplicación obvia del descubrimiento de dichos personajes de que las corrientes de gas, cayendo hacia un agujero negro, colisionarían y radiarían.

agujeros

Una descripción más completa y realista de la caída de corriente de gas hacia un agujero negro fue imaginada en 1969 por Donald Lynden-Bell, un astrofísico británico en Cambridge. Él argumentó convincentemente, que tras la colisión de las corrientes de gas, estas se fundirían, y entonces las fuerzas centrífugas las harían moverse en espiral dando muchas vueltas en torno al agujero antes de caer dentro; y a medida que se movieran en espiral, formarían un objeto en forma de disco, muy parecidos a los anillos que rodean el planeta Saturno: Un disco de Acreción lo llamó Lynden-Bell puesto que el agujero está acreciendo (todos hemos visto la recreación de figuras de agujeros negros con su disco de acreción).

http://www.nasa.gov/images/content/699767main_pia16214-43_full.jpg

En Cygnus X-1, en el centro galáctico, tenemos un Agujero Negro modesto que, sin embargo, nos envía sus ondas electromagnéticas de rayos X. En el disco de acreción, las corrientes de gas adyacentes rozarán entre sí, y la intensa fricción de dicho roce calentará el disco a altas temperaturas.

En los años ochenta, los astrofísicos advirtieron que el objeto emisor de luz brillante en el centro de 3C273, el objeto de un tamaño de 1 mes-luz o menor, era probablemente el disco de acreción calentado por la fricción de Lynden-Bell.

Normalmente pensamos que la fricción es una pobre fuente de calor. Sin embargo, puesto que la energía gravitatoria es enorme, mucho mayor que la energía nuclear, la fricción puede realizar fácilmente la tarea de calentar el disco y hacer que brille con un brillo 100 veces mayor que la galaxia más luminosa.

¿Cómo puede un agujero negro actuar como un giróscopo? James Bardeen y Jacobus Petterson de la Universidad de Yale comprendieron la respuesta en 1975: si el agujero negro gira rápidamente, entonces se comporta precisamente como un giróscopo. La dirección del eje del giro permanece siempre firme fijo e inalterado, y el remolino creado por el giro en el espacio próximo al agujero permanece siempre firmemente orientado en la misma dirección.

Bardeen y Petterson demostraron mediante un cálculo matemático que este remolino en el espacio próximo al agujero debe agarrar la parte interna del disco de acreción y mantenerlo firmemente en el plano ecuatorial del agujero; y debe hacerlo así independientemente de cómo esté orientado el disco lejos del agujero.

A medida que se captura nuevo gas del espacio interestelar en la parte del disco distante del agujero, el gas puede cambiar la dirección del disco en dicha región, pero nunca puede cambiar la orientación del disco cerca del agujero. La acción giroscópica del agujero lo impide. Cerca del agujero el disco sigue y permanece siempre en el plano ecuatorial del mismo.

Sin la solución de Kerr a la ecuación de campo de Einstein, esta acción giroscópica hubiera sido desconocida y habría sido imposible explicar los cuásares. Con la solución de Kerr a mano, los astrofísicos de mitad de los años setenta estaban llegando a una explicación clara y elegante. Por primera vez, el concepto de un agujero negro como un cuerpo dinámico, más que un simple “agujero en el espacio”, estaba jugando un papel central en la explicación de las observaciones de los astrónomos.

¿Qué intensidad tendrá el remolino del espacio cerca de un agujero gigante? En otras palabras, ¿cuál es la velocidad de rotación de los agujeros gigantes? James Bardeen dedujo la respuesta: demostró matemáticamente que la acreción de gas por el agujero debería hacer que el agujero girase cada vez más rápido. Cuando el agujero hubiera engullido suficiente gas en espiral para duplicar su masa, el agujero debería estar girando casi a su velocidad máxima posible, la velocidad más allá de la cual las fuerzas centrífugas impiden cualquier aceleración adicional. De este modo, los agujeros negros gigantes deberían tener típicamente momentos angulares próximos a su valor máximo.

¿Cómo puede un agujero negro y su Disco dar lugar a dos chorros que apuntan en direcciones opuestas? De una forma sorprendentemente fácil, reconocieron Blandford, Rees y Lynden-Bell en la Universidad de Cambridge a mediados de los setenta. Hay cuatro formas posibles de producir chorros; cualquiera de ellas funcionaria, y, aquí, donde se explica para el no versado en estos objetos cosmológicos, sólo explicaré el cuarto método por ser el más interesante:

El Agujero es atravesado por la línea de campo magnético. Cuando el agujero gira, arrastra líneas de campo que le rodean, haciendo que desvíen el plasma  hacia arriba y hacia abajo. Los chorros apuntan a lo largo del eje de giro del agujero y su dirección está así firmemente anclada a la rotación giroscópica del agujero. El método fue concebido por Blandford poco después de que recibiera el doctorado de física en Cambridge, junto con un estudiante graduado de Cambridge, Roman Znajek, y es por ello llamado el proceso Blandford-Znajet.

Este proceso es muy interesante porque la energía que va a los chorros procede de la enorme energía rotacional del agujero (esto debería parecer obvio porque es la rotación del agujero la que provoca el remolino en el espacio, y es el remolino del espacio  el que provoca la rotación de las líneas de campo y, a su vez, es la rotación de las líneas de campo la que desvía el plasma hacia fuera.)

¿Cómo es posible, en este proceso Blandford-Znajet, que el horizonte del agujero sea atravesado por líneas de campo magnético? tales líneas de campo serían una forma de “pelo” que puede convertirse en radiación electromagnética y radiada hacia fuera, y por consiguiente, según el teorema de Price, deben ser radiadas hacia fuera. En realidad, el teorema de Price solo es correcto si el agujero está aislado, lejos de cualquier otro objeto.

Pero el agujero que estamos discutiendo no está aislado, está rodeado de un disco de acreción. Así que las líneas de campo que surgen del agujero, del hemisferio norte y las que salen del hemisferio sur se doblarán para empalmarse y ser una continuación una de otra, y la única forma de que estas líneas puedan entonces escapar es abriendo su camino a través del gas caliente del disco de acreción. Pero el gas caliente no permitirá que las líneas de campo lo atraviesen; las confina firmemente en la región del espacio en la cara interna del disco, y puesto que la mayor parte de dicha región está ocupada por el agujero, la mayoría de las líneas de campo confinadas atravesarán el agujero.

¿De donde proceden esas líneas de campo magnético? Del propio disco.

Cualquier gas en el Universo está magnetizado, al menos un poco, y el gas del disco no es una excepción. Conforme el agujero acrece, poco a poco, gas del disco, el gas lleva con él líneas de campo magnético. Cada pequeña cantidad de gas que se aproxima al agujero arrastra sus líneas de campo magnético y, al cruzar el horizonte, deja las líneas de campo detrás, sobresaliendo del horizonte y enroscándose. Estas líneas de campo enroscadas, firmemente confinadas por el disco circundante, extraerían entonces la energía rotacional del agujero mediante el proceso de Blandford-Znajet.

image

Los métodos de producir chorros (orificios en una nube de gas, viento de un embudo, líneas de campo arremolinadas ancladas en el disco, y el proceso Blandford-Znajet) actúan probablemente, en grados diversos, en los cuásares, en las radiogalaxias y en los núcleos característicos de algunos otros tipos de galaxias (núcleos que se denominan núcleos galácticos activos).

Si los cuásares y las radiogalaxias están activados por el mismo tipo de máquina de agujero negro, ¿qué hace que parezcan tan diferentes? ¿Por qué la luz de un cuásar aparece como si procediera de un objeto similar a una estrella, intensamente luminoso y de un tamaño de 1 mes-luz o menos, mientras que la luz de radiogalaxias procede de un agregado de estrellas similar a la Vía Láctea, de un tamaño de 100.000 años-luz?

Las radiogalaxias y las galaxias Seyfert son galaxias que emiten una gran cantidad de radiación en forma de ondas de radio. Están mucho más cerca de la Tierra que los cuásares. Parece casi seguro que los cuásares no son diferentes de las radiogalaxias; sus máquinas centrales también están rodeadas de una galaxia se estrellas de un tamaño de 100.000 a.l. Sin embargo, en un cuásar el agujero negro central está alimentado a un ritmo especialmente elevado por el gas de acreción y, consiguientemente, el calentamiento friccional del disco es también elevado. Este calentamiento del disco hace que brille tan fuertemente que su brillo óptico es cientos o miles de veces  que el de todas las estrellas de la galaxia circundante juntas.

Los astrónomos, cegados por el brillo del disco, no pueden ver las estrellas de la galaxia, y por ello el objeto parece “cuasi estelar” (es decir, similar a una estrella; como un minúsculo punto luminoso intenso) en lugar de parecer una galaxia.

    Imagen de 3C273 captada por el Telescopio Espacial Hubble

La región más interna del disco es tan caliente que emite rayos X; un poco más lejos el disco está más frío y emite radiación ultravioleta; aún más lejos está más frío todavía y emite radiación óptica (luz); en su región mas externa está incluso más frío y emite radiación infrarroja. La región emisora de luz tiene típicamente un tamaño de aproximadamente un año-luz, aunque en algunos casos, tales como 3C273, puede ser de un mes luz o más pequeña.

Estas explicaciones para los cuásares y las radiogalaxias basadas en agujeros negros son tan satisfactorias que es tentador asegurar que deben ser correctas. Los teóricos han efectuado un gran trabajo, desde Einstein y su ecuación de campo de la relatividad general, sobre los Agujeros negros y cómo se comportan, por qué se pueden formar, dónde están situados, algunas características de sus comportamientos y… ¡seguimos persiguiendo algunos de sus secretos que no hemos podido desvelar!

emilio silvera

¿Que pinta el Azar en todo esto?

Autor por Emilio Silvera    ~    Archivo Clasificado en Catástrofes Naturales    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

El Poder de la Naturaleza...El Poder de la Naturaleza...

Sí, la Naturaleza nos muestra constantemente su poder. Fenómenos que no podemos evitar y que nos hablan de unos mecanismos que no siempre comprendemos. Nuestro planeta por ejemplo, se comporta como si de un ser vivo se tratara, la llaman Gaia y realiza procesos de reciclaje y renovación por medio de terremotos y erupciones volcánicas, Tsunamis y tornados debastadores que cambian el paisaje y nosotros, lo único podemos hacer es acatar el destino que ignoramos de lo que está por venir.

El mundo nos parece un lugar complicado. Sin embargo, existen algunas verdades sencillas que nos parecen eternas, no varían con el paso del tiempo (los objetos caen hacia el suelo y no hacia el cielo, el Sol se levanta por el Este, nunca por el Oeste, nuestras vidas, a pesar de las modernas tecnologías, están todavía con demasiada frecuencia a merced de complicados procesos que producen cambios drásticos y repentinos. La predicción del tiempo atmosférico es más un arte que una ciencia, los terremotos y las erupciones volcánicas se producen de manera impredecible y aparentemente aleatoria, los cambios en las Sociedades fluctuan a merced de sucesos que sus componentes no pueden soportar y exigen el cambio.

 La inmensa complejidad que está presente en el cerebro humano y de cómo se genera lo que llalamos “la mente”, a partir de una maraña de conexiones entre más de cien mil millones de neuronas, más que estrellas existen en nuestra Galaxia, la Vía Láctea. Es algo grande que, en realidad, no hemos alcanzado a comprender.

La mente humana es de tal complejidad que no hemos podido llegar a comprender su funcionamiento. ¿Por qué unas personas tienen una gran facilidad para tocar el piano, otros para comprender las matemáticas complejas y algunos para ver lo que nadie ha sido capaz de detectar en el ámbito de la Naturaleza, pongamos por ejemplo un paisaje, o, llegar a comprender fenómenos físicos que configuran el mundo, el Universo y la vida?

Es precisamente a escala humana, donde se dan las características (posiblemente) más complejas del Universo, las que se resisten más a rendirse ante métodos y reglamentos fijos que las pretenda mantener estáticas e inamovibles por el interés de unos pocos. Las Sociedades son dinámicas en el tiempo y en el espacio y, su natural destino es el de evolucionar siempre, el de buscar las respuestas a cuestiones patra ellas desconocidas y que al estar inmersas en el corazón de la Naturaleza, se sirven de la Ciencia para poder llegar al lugar más secreto y arrancar esas respuestas que tánto, parecen necesitar para continuar hacia el futuro.

Claro que, ese futuro, no depende de esas Sociedades Humanas que de alguna manera, están a merced de sucesos como aquel de Yucatán, cuando al parecer, hace ahora 65 millones de años, perecieron los Dinosaurios que reinaron en el Planeta durante 150 millones de años hasta que llegó aquél fatídico (para ellos) pedrusco que, en realidad, posibilitó nuestra llegada.

 

Aquellos terribles animales que poblaban la Tierra hubiera hecho imposible nuestra presencia en el planeta. Formas de vida incompatibles con nuestra especie que desaparecieron -según parece- por causas naturales venidas del espacio exterior para que más tarde, pudiéramos nosotros hacer acto de presencia en el planeta que nos acoge.

Aquello se considera una extinción masiva ocurrida en la Tierra, algo tan claramente reflejado en el registro fósil que se utiliza para marcar el final de un período de tiempo geológico, el Cretáseo, y el comienzo de otro, el Terciario. Puesto que la “C” ya se ha utilizado como inicial  en un contexto similar en relación con el período Cámbrico, este marcador se suele denominar frontera K-T, con una “K” de Kreide, que es el nombre del Cretáceo en alemán. No fueron solos los dinosaurios los que resultaron afectados, aunque son los que aparecen con mayor protagonismo en los relatos populares cuando se habla de este desastre.

Esqueletos de dinosaurios expuestos en el Museo Real de Ontario, Canadá.  

Alrededor del 70 por ciento de todas las especies que vivían en la Tierra al finales del cretáceo habian desaparecidos a principios del Terciario, lo cual indica que se trató realmente de una “extinción en masa” y explica por qué los geólogos y los paleontólogos utilizan la frontera K-T como un marcador importante en el registro fósil. Dadas las dificultades que plantean unas pruebas de tiempos tan remotos, y la lentitud con la que se acumulan los estratos geológicos, todo lo que podemos decir realmente sobre la velocidad a la que se produjo aquella extinción es que sucedió en menos de unas pocas decenas de miles de años, pero en ningún caso durante muchos millones de años; sin embargo, esto se considera un cambio brusco en relación con la escala de tiempo utilizada en geología.

Las preguntas obvias que esto plantea son las mismas que surgen tras un gran terremoto -por qué sucedió, y si podría suceder de nuevo y, en su caso, cuándo- En el caso del suceso K-T hay un candidato muy adecuado para ser el desencadenante que hizo que la extinción se produjera, por ejemplo, hace 60 0 55 millones de años. Los restos del enorme cráter que data justo de entonces ha sido descubierto bajo lo que es ahora la península de Yucatán, en Méjico,  y por todo el mundo se han hallado estratos de hace 65 millones de años que contienen restos de iridio, un metal pesado que es raro en la corteza terrestre, pero del que sabemos que es un componente de algunos tipos de meteoritos. La capa de iridio es tan delgada que tuvo que depositarse en menos de 10.000 años (quizá mucho menos), lo cual es coherente con la teoría de que el suceso K-T fue desencadenado en su totalidad, de manera más o menos instantánea, por un gran golpe que llegó del espacio interestelar.

 

                                                                              La catástrofe está servida

No sería difícil explicar por que pudo suceder todo esto. La energía cinética contenida en un impacto de este calibre sería equivalente a la explosión de unos mil millones de megatoneladas de TNT y arrojaría al espacio unos detritos en forma de grandes bloques que se desplazarían siguiendo trayectorias balísticas (como las de los misiles balísticos intercontinentales) y volverían a entrar en la atmósfera por todo el globo terráqueo, difundiendo calor y aumentando la temperatura en todas las regiones. Se produciría un efecto de calentamiento de 10 kilowatios por cada metro cuadrado de la superficie terrestre durante varias horas, un fenómeno que ha sido descrito gráficamente por Jay Melosh. A continuación, unas diminutas partículas de polvo lanzadas al interior de la parte superior de la atmósfera se extendería alrededor del todo el planeta y, combinada con el humo de todos los incendios desencadenados por el “asado a la parrilla”, bloquearían el paso de la luz del Sol, causando la muerte de todas las plantas que dependían de la fotosíntesis y congelando temporalmente el planeta.

                               Si el planeta se congela, ¿dónde nos meteremos? ¿cuántas criaturas tendrán la oportunidad de sobrevivir?

Hay pruebas de que, en épocas pasadas, la Tierra sufrió visitas inesperadas desde el espacio que trajo muerte y desolación.  Hace unos 35 millones de años, la Tierra soportó unos impactos parecidos sin que se produjera una extinción del calibre del suceso K-T. Aunque los factores desencadenantes tengan la misma magnitud. Por otra parte, existen pruebas de que los Dinosaurios y otras especies estaban ya en decadencia en los dos últimos millones de años del Cretáceo. Parece que los grandes lagartos habían experimentado altibajos durante los 150 millones de años que se pasaron vagando por la Tierra. Hay opiniones para todos y algunos dicen que su desparición se debió, en realidad, al aumento del Oxígeno en nuestra atmósfera.

El suceso K-T es en realidad sólo una entre cinco catástrofes similares (en la medida en que afectó en aquella época a la vida en la Tierra) a las que los geólogos denominan en conjunto las “cinco grandes” -y no es en absoluto la mayor-. Cada una de ellas se utiliza como marcador entre períodos geológicos y todas han sucedido durante los últimos 600 millones de años.

La razón por la que nos centramos en este pasado geológico relativamente reciente es que fue en esa época cuando los seres vivos desarrollaron por primera vez algunas características, tales como las conchas, que podían fosilizarse fácilmente, dejando rastros que pueden reconocerse en los estratos que se estudian en la actualidad.

Nuevas especies de fósiles de invertebrados marinos, que vivieron hace 465 millones de años, se han hallado en diversos yacimientos de la provincia de Ciudad Real en España, y, por todas partes del mundo, si se profundiza en la Tierra, se encuentran fósiles y conchas de tiempos pasados. En la imagen recreada arriba se recoge el descubrimiento especies nuevas,  de animales marinos con concha que han posibilitado su hallazgo después de tantos millones de años.

Pero centrémonos en las “cinco grandes extinciones” que, tomándolas cronológicamente se produjeron hace unos 440 millones de años (que marcaron la frontera entre los períodos Ordovícico y Silúrico), hace 360 millones de años (entre el Devónico y el Carbonífero), 250 millones de años (entre el Pérmico y el Triásico), 215 millones de años (en la frontera entre el Triásico y el Jurásico) y 65 millones de años (en la frontera K-T).

Extinction intensity.svg

                                   Millones de años

Intensidad de la extinción marina a través del tiempo. El gráfico azul muestra el porcentaje aparente (no el número absoluto) de los géneros de animales marinos extintos durante un determinado intervalo de tiempo. Se muestran las ultimas cinco grandes extinciones masivas.

Hay otras muchas extinciones en el registro fósil pero, las más importantes son las mencionadas. La más espectacular de todas ellas es el suceso que tuvo lugar hace unos 250 millones de años, al final del Pérmico. Se extinguieron al menos el 80 por ciento, y posiblemente hasta el 95 por ciento, de todas las especies que vivían en nuestro planeta en aquellos tiempos, tanto en la tierra como en los océanos, y lo hizo durante un intervalo de menos de 100.000 años. Sin embargo, dado que también se calcula que el 99 por ciento de todas las especies que han vivido en la Tierra se han extinguido, esto significa que son el doble las que han desaparecido en sucesos de -aparente- menor importancia.

La cuestión que nos intriga es si las extinciones en masa son realmente acontecimientos especiales, de carácter diferente al de las extinciones de menor importancia, o si son el mismo tipo de suceso, pero a gran escala -¿son las extinciones de vida en la Tierra unos hechos cuya naturaleza es independiente de su magnitud, como los terremotos y todos los demás fenómenos que la Naturaleza nos envía periódicamente que dan lugar a catástrofes y pérdidas de muchas vidas? La respuesta sincera es “no lo sabemos”, pero hay bastantes evidencias como para intuir que ésta es una posibilidad muy real.

 http://upload.wikimedia.org/wikipedia/commons/f/f7/Voluntary_Human_Extinction_Movement_logo.png

El logotipo del Movimiento por la Extinción Humana Voluntaria es un globo terráqueo sobre el que aparece la letra V y sobre ella otra pequeña tierra y el acrónimo VHEMT de Voluntary Human Extinction Movement.

Gracias a un meticuloso trabajo de investigación de Jack Sepkoski, de la Universidad de Chicago que, pudo trazar un gráfico en el que mostraba como ha fluctuado durante los últimos 600 millones de años el nivel de extinciones que se produjo en cada intervalo de cuatro millones de años.

grafica de las extinciones los últimos 250 My

                         Extinciones segun Sepkoski

El gráfico nos muestra que la muerte de los dinosaurios fue también la muerte de los invertebrados marinos. La pregunta que se puede plantear es que clase de aleatoriedad es ésta, si realmente son sucesos aleatorios. Resulta que es una ley potencial -nuestro viejo amigo, el ruido 1/f-. El origen de esta señal aleatoria, de enorme interés por su ubicuidad y propiedades matemáticas, sigue siendo un misterio, a pesar de la atención que se le ha dedicado.

Ahora bien, no parece probable que todas las extinciones de vida que han sucedido en la Tierra hayan tenido como causa impactos procedentes del espacio. Lo que parece estar diciéndonos el registro fósil es que las extinciones se producen en todas las escalas, todos los tiempos, y que (como en el caso de los terremotos) puede producirse una extinción de cualquier magnitud en cualquier época. Algunas extinciones podrían ser desencadenadas por impactos de meteoritos; otras, por períodos glaciares. Una cosa sí que nos queda clara: es necesario un gran desencadenante para que ocurra un gran suceso, y, no podemos olvidar que estamos inmersos en un Sistema Complejo -la vida en la Tierra- que es autoorganizador, se alimenta a partir de un flujo de energía, y existe al borde del Caos. Si comprendemos eso, estaremos preparados para entender lo que todo esto significa para la vida en sí misma, siempre expuesta a las fuerzas del Universo.

Por otra parte, a lo largo de nuestra Historia hemos conocido situaciones de muertes masivas como por ejemplo: La Peste de la Guerra del Peloponeso (430 a.C.), La Plaga Antonina (165 y 180), La Plaga de Justiniano (541 y 542), La Peste Negra (1348 y 1350), o, La Gripe Española (1918) y, todas ellas son en realidad de origen desconocido.  Esto me lleva a pensar que la Tierra, nuestro planeta, viaja por el espacio como una gran nave espacial y recorre regiones interestelares en las que no sabemos qué puede haber, y, ¿quién puede negar que al atravesar esas regiones, no estén presenten en esllas esporas fuertemente acorazadasa contra la radiación que, atravesando la atmósfera terrestre se instalen tan ricamente en nuestro mundo para florecer y sembrar la muerte entre nosotros? Lo cierto es que son muchas las cosas que no sabemos.

De todas las maneras, no podemos negar que grandes cambios nos acechan y, como la medida del “tiempo” es distinta para la escala humana que para la del Universo, en cualquier momento podrá tener lugar un acontecimiento de índole diversa (la caída de un meteorito, una pandemia debastadora, cataclismos tectónicos de gran magnitud, explosiones supernovas  de inmensa intensidad que barra nuestra atmósfera y siembre de radiación el planeta…) que vendrá a transformar todo lo que nosotros consideramos importante y que, para la Naturaleza, no es nada.

De todas las maneras, en una cosa sí tenemos que estar de acuerdo: ¡La vida! Esa cosa tan frágil pero tan fuerte, se ha resistido a desaparecer a lo largo de los millones de años que lleva en el planeta y, eso nos lleva a sospechar que, lo mismo habrá sucedido en otros lugares y la Vida, debe estar por todas partes… ¡A pesar de todo!

emilio silvera

La fuente de la mayor parte del contenido de este trabajo,  hay que buscarla en los pensamientos del maestro J. Gribbin, un Astrofísico de nuestro tiempo.

¡Nuestras Mentes! ¿Estarán predestinadas?

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo y la Vida    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 
                   No siempre podemos ver con claridad

 

Vivimos en un mundo hecho para la Vida

 

Algunas veces, mirando la historia evolutiva de la vida, uno tiende a pensar que, de todas las estructuras complejas producidas por la biología terrestre (es lo único que conocemos), ninguna es más importante que el cerebro, el más complejo de todos los órganos. Lo que nos lleva a plantearnos una prgunta: ¿Son los cerebros sólo accidentes aleatorios de la evolución, o son los unevitables productos derivados de un proceso de complejificación que sigue unas leyes? Una hipótesis muy generalizada es que si surge la vida en otros planetas, ésta tendrá un desarrollo muy similar al de la vida en nuestro planeta, la Tierra. Los defensosres de SETI, la bísqueda de inteligencia estraterrestre, argumentan que en el curso de miles de años la vida estraterrrestre se hará más compleja para formar plantas y animales, y finalmente descubrirá su cognición y la inteligencia, como sucedió aquí. Eso en los planetas que estén en evolución y, en otros, evolucionados como la Tierra, la vida ya estará presente.

Hablamos del cerebro humano por ser el “desconocido” mejor conocido, muchas son las inteligencias que están presentes en nuestrto planeta y que, no hemos podido llegar a conocer. De algunos animales, podemos haber vislumbrado alguna clase de inteligencia y, si me apuran, hasta de sentimientos pero, lo que se dice conocer lo que se puede fraguar en sus cerebros…, es una gran incognita para nosotros que, somos los seres predominantes en el planeta y, además de ser conscientes hemos llegado a presentir que tenemos “Alma”, algo tan complejo que, siendo portadora de los sentimientos y los pensamientos, es, sin embargo, inmaterial y eterea. Eso que llamamos Alma es en realidad la sabiduría, la que nos lleve a comprender sobre las cosas, sobre el mundo, sobre el Universo y, también sobre la misma condición humana.

Visible Body | 3D Human Anatomy | Esa maravilla: Humanos | Scoop.it

El cerebro es de una complejidad tal que, no hemos podido llegar a comprender toda su grandeza, y, sabemos que rige todo lo que acontece en nuestros cuerpos, desde él se emiten las ordenes necesarias para hacer los precisos movimientos, para hablar o correr, o, en otros casos, para pensar y generar pensamientos y…

«Te amo con todo mi... cerebro» | Esa maravilla: Humanos | Scoop.it

también sentimientos que, en realidad y a través del Amor y la Familia, es el verdadero motor que mueve el mundo en el que vivímos, es el mayor incentivo que tenemos para luchar y seguir adelante en la dura batalla que, la Naturaleza y la Vida, nos plantea cada día.

Decíamos que en otros planetas (al menos en una fracción de todos los planetas presentes en las galaxias), también habrá surgido y evolucionado la vida inteligente que, como la nuestra, habrá avanzado y desarrollado su propia tecnología, e incluso algunas de esas comunidades tecnológicos pueden estar en este preciso momento tratando (como hacemos nosotros) de entrar en contacto con nosotros y con otras inteligencias dispersas a lo largo y a lo ancho del vasto Universo. Así pues, los investigadores de SETI suscriben generalmente la idea de la escala de progreso, al aceptar que no sólo la vida, sino también la mente, están en cierto sentido predestinadas a aparecer en el universo.

 

Así, el recipiente puede ser diferente pero, el cerebro portador de la mente, será parecido o similar al nuestro y se regirá por los mismos parámetros y funciones. Un inmenso entramado de neuronas y cogniciones que reciben, controlan y envían información que procesa para conocer el mundo exterior y comprender, su lugar en el Cosmos.

Claro que, este punto de vista, aunque dominante, esconde de nuevo una hipótesis enorme acerca de la naturaleza del Universo. Significa aceptar, de hecho, que las leyes de la naturaleza están “amañadas” no sólo a favor de la complejidad, o sólo a favor de la vida, sino también a favor de la Mente. Dicho de otra manera, creo que la Naturaleza misma es MENTE, de otra manera a mí me resulta muy difícil copmprender que la mente no esté inscrita de una fiorma fundamental en esas leyes naturales que todo lo rigen y hacen que las cosas ocurran como vemos que pasan. Es,así, altamente significativo, por supuesto, que los productos de la tendencia de complejificación de la naturaleza -seres inteligentes como el Homo Sapiens- sean capaces de entender lass propias leyes que han dado lugar al “entendimiento” si, esos sujetos, fueran totalmente ajenos a ella.

En cierta manera, tales pensamientos son visiones inspiradoras. Pero, ¿es verosímil? ¿Podemos que creer que el universo no sólo es bioamigable, sino también menteamigable. ¿Son tántos los mundos que, como la Tierra, tendrán las condiciones precisas para la vida? y, ¿Será la vida, toda la vida del Universo, basada, como la de la Tierra en el Carbono?

Claro que, en este apartado del saber humano, son muchas las versiones que, a lo largo de nuestra historia han sido vertidas. En 1964, el biólogo George Simpson escribió un artíoculo escéptico titulado “Sobre la no predominancia de los humanoides”, en el que reslataba la futulidad de la búsqueda de vida estraterrestre acanzada. Lo calificaba como “una apuesta contra las probabilidades más adversas de la historia”. Señalando que los seres humanos son el producto de innumerables incidentes históricos especiales, concluía:

“La hipótesis hecha tan abiertamente por astrónomos, físicos y algunos bioquímicos, según la cual una vez que la vida se pone en marcha en alguna parte, los humanoides aparecerán final e inevitablemente, es lisa y llanamente falsa”. En un famoso debate con el defensor de SETI Carl Sagan, el Biólogo Ernst Mayr se hacía eco del escepticismo de Simpson: “En la Tierra entre millones de linajes u organismos y quizá 50.000 millones de sucesos de especiación, sólo uno condujo a una alta inteligencia; eso me hace creer en su completa improbabilidad”.

¿De qué manera podría ser la vida en otros mundos? De haberla, podría ser ¡de tántas maneras! que no debemos descartar aquella que teniendo la condición de vida, incluso esté fuera de nuestro alcance de visión y, estándo a nuestro lado, sea totalmente ajena a nuestros sentidos. Las formas que la vida pueda tomar (aquí mismo en la Tierra somos testigos), son de múltiples fasetas, de diversas maneras y, hasta desconocidas. ¿quién conoce a todos los seres vivos que conviven con nostros en el aTierra?

Por otra parte, el especialista Jay Gould denuncia análogamente la idea de que la vida está destinada a producir mente. Imaginemos, dice él, que una catastrofe barriera toda la vida avanzada sobre la Tierra, dejando sólo microbios. Si se repitiera el drama evolutivo, ¿qué sucedería? ¿Cabría esperar una pauta de desarrollo básicamente similar, en la que volverían a emerger peses, vertebrados, mamíferos, reptiles y bípedos inteligentes? Nada de eso, concluye él. La historia de la vida sobre la Tierra es una loteria gigantesca, con muchos más perdedores que ganadores.

Muchas formas de vida pasada, ya no están aquí con nosotros. De hecho, sólo el 1% de las epecies que han poblado la Tierra viven actualmente y, tenemos que tener claro que, la única manera de evolucionar es mutar, sin mutaciones no hay evolución, dado que la dinámica del planeta es cambiante y nos exige una adaptación, aunque a lo largo de miles de años, nosotros y otros seres vivos mutan para sobrevivir.

La vida contiene tantos accidentes del destino, tántas carambolas arbitrarias que la pauta de cambnio es esencialmente aleatoria. Los millones de pasos fortuitos que construyen nuestra propia historia evolutiva nunca sucederían por segunda vez, ni siquiera en lineas generales. La historia recorrería “otro camino” , de modo que, “la enorme mayoría de las repeticiones nunca produciría…una criatura con autoconsciencia… La probabilidad de que este escenario alternativo (por ejemplo, repetición) contenga algo remotamente parecido a un ser humano debe ser practicamente nula”.

http://farm3.static.flickr.com/2662/4089800366_5fcd5a008d.jpg

          Claro que, las posibilidades de vida en otros planetas es grande

Si eso fuera así (que lo podría ser, ningún dato tenemos a favor de lo contrario), ¿qué seres surgirían a la vida? o, quizás, no surgiera ninguno. Es difícil refutar la lógica del argumento de Simpson y Gould. Si la evolución mno es otra cosa que una lotería, una caminata de borracho, entonces hay pocas razones por las que la vida debiera ir más allá del nivel de los microbios, ninguna expectativa que avanzara obligatoriamente hacia la inteligencia, el cerebro, la conciencia y al “Alma” y, mucho menos, que pudiera desarrollar características humanoides. Nos veríamos entonces obligados a coincidir con la melancólica conclusión de Monod: “El hombre sabe que finalmente está solo en la inmensidad del universo, del que ha emergido sólo por azar”.Sólo si hay más que azar en ello, , sólo si la Naturaleza tiene un sesgo ingeniosamente incorporado hacia la vida y la muerte, esperaríamos ver repetido en otros mundos, lo que con la vida ocurrió en el nuestro.

La búsqueda de la vida en otros lugares del Universo es, por consiguiente, el terreno de prueba para dos visiones del mundo diametralmente opuestas. Por una parte, está la ciencia ortodoxa, con su filosofía nihilista del universo sin sentido, leyes impersonales carentes de finalidad, un cosmos en el que la vida y la mente, la ciencia y el arte, la esperanza y el miedo son sólo embellecimientos accidentales y casuales en un tapiz de corrupción cósmica irreversible.

Creo que todo lo que podamos imaginar… será menos que la realidad que ahí fuera nos podemos encontrar cuando, de verdad, salgamos al espacio.

Por otra parte, hay una versión alternativa innegablemente romántica, pero posiblemente cierta de todas formas, la visión de un universo autoorganizador y autocomplejificador, gobernado por leyes ingeniosas que animan a la materia para que ésta alcance una evolución predeterminada que la lleva hacia la consciencia y la mente. Un Universo en el que la emergencia de seres pensantes sería una parte fundamental e integral del esquema global de las cosas. Es decir, un Universo en el que no estamos solos y en el que, esa misma complejidad de la que hablamos, nos lleva a través de la mutación hacia la evolución necesaria para la adaptación al ritmo que el Universo nos marca.

Particularmente me quedo con la segunda opción. De no ser así, si el Universo nos trajo por razones fortuítas y sólo se debe al azar nuestra presencia aquí, entonces, ¿para qué tantos mundos?, ¿para qué tanto sufrimiento y dolor?, ¿para qué, en definitiva, tanto Amor y sacrificio? ¡Sería todo un sinsentido tan grande!

emilio silvera

PD. Doy las gracias a Paul Davies por escribir “El Quinto Milagro”, de cuyas páginas pude sacar algunas de estas ideas.

¡Aquellos primeros momentos!

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 «

Todo en el Universo tiene un principio y un final y, el mismo universo tuvo que nacer y evolucionar para que hoy podamos contemplar, mediante nuestros sofisticados telescopios, un universo en expansión lleno de galaxias que contienen estrellas nuevas y viejas estrellas, muchas de ellas rodeadas de mundos que, aún no hemos podido determinar de qué criaturas estarán poblados muchos de ellos.

http://astronomia.cuatrineros.es/images/evoluciongalaxias1.jpg
Antes de que la imagen de arriba fuese una realidad tuvieron que pasar millones de años. Hasta donde sabemos y el origen más aceptado para nuestro Universo es el de una inmensa explosión proveniente de una singularidad en la que la densidad y la energía eran “infinitas” y a partir de ahí, comenzó la gran aventura.

¡El Universo!

Antes de alrededor de un minuto y cuarenta segundos desde el comienzo del tiempo,  no hay núcleos atómicos estables.  El nivel de energía en el ambiente es mayor que la energía de unión nuclear. Por consiguiente, todos los núcleos que se forman, se destruyen de rápidamente.

Alrededor de un segundo desde el comienzo del tiempo, llegamos a la época de desacoplamiento de los neutrinos.  Aunque en esa época el Universo es más denso que las otras (y tan caliente como la explosión de una bomba de hidrógeno), ya ha empezado a parecer vacío a los neutrinos.  Puesto que los neutrinos sólo reaccionan a la fuerza débil, que tiene un alcance extremadamente corto, pueden escapar de sus garras y volar indefinidamente sin experimentar ninguna otra interacción.

Aunque parezca mentira, al día de hoy no sabemos, a ciencia cierta, como se formaron las galaxias

Así, emancipados, en lo sucesivo son libres de vagar por el Universo a su manera indiferente, volando a través de la mayor   de la materia como sino existiese. (Diez trillones de neutrinos atravesarán sin causar daños el cerebro y el cuerpo del lector en el tiempo que le lleve leer esta frase.  Y en el tiempo en que usted haya leído esta frase estarán más lejos que la Luna).

En menos de un siglo, el neutrino pasó de una partícula fantasma – propuesta en 1930 por el físico austríaco Wolfgang Pauli (1900-1958) a explicar el balance de energía en una forma de radioactividad,  el llamado decaimiento beta, en una sonda capaz de escrutar el interior de estrellas y de la propia Tierra.

De esa manera, oleadas de neutrinos liberados en un segundo después del big bang persiste aún después, formando una radiación cósmica de fondo de neutrinos semejante a la radiación de fondo de microondas producida por el desacoplamiento de los fotones.

Si estos neutrinos “cósmicos” (como se los llama para diferenciarlos de los neutrinos liberados más tarde por las supernovas) pudiesen ser observador por un telescopio de neutrinos de alguna clase, proporcionarían una visión directa del Universo cuando sólo tenía un segundo.

A medida que retrocedemos en el tiempo, el Universo se vuelve más denso y más caliente, y el nivel de  estructura que puede existir se hace cada vez más rudimentario.

Por supuesto, en ese tiempo, no hay moléculas, ni átomos, ni núcleos atómicos, y, a 10-6 (0.000001) de segundo después del comienzo del tiempo, tampoco hay neutrones ni protones.  El Universo es un océano de quarks libres y otras partículas elementales.

Si nos tomamos el de contarlos, hallaremos que por cada mil millones de antiquarks existen mil millones y un quark. La asimetría es importante.  Los pocos quarks en exceso destinados a sobrevivir a la aniquilación general quark-antiquark formaran todos los átomos de materia del Universo del último día.  Se desconoce el origen de la desigualdad; presumiblemente obedezca a la ruptura de una simetría materia antimateria en alguna etapa anterior.

Nos aproximamos a un tiempo en que las estructuras básicas de las leyes naturales, y no sólo las de las partículas y campos cuya conducta dictaban, cambiaron a medida que evolucionó el Universo.

La primera transición semejante se produjo en los 10-11 de segundo después del comienzo del tiempo, cuando las funciones de las fuerzas débiles y electromagnéticas se regían por una sola fuerza, la electrodébil.  hay bastante energía ambiente para permitir la creación y el mantenimiento de gran de bosones w y z.

Estas partículas –las mismas cuya aparición en el acelerador del CERN verificó la teoría electrodébil– son las mediadoras intercambiables en las interacciones de fuerzas electromagnéticas y débiles, lo que las hace indistinguibles.  En ese tiempo, el Universo está gobernando sólo por tres fuerzas: la gravedad, la interacción nuclear fuerte y la electrodébil.

Más atrás de ese tiempo nos quedamos en el misterio y envueltos en una gran nebulosa de ignorancia.  Cada uno se despacha a su gusto para lanzar conjeturas y teorizar sobre lo que pudo haber sido.   Seguramente, en el futuro, será la teoría M (de supercuerdas) la que contestará esas preguntas sin respuestas ahora.

En los 10-35 de segundo desde el comienzo del tiempo, entramos en un ámbito en el que las cósmicas son aún menos conocidas.  Si las grandes teorías unificadas son correctas, se produjo una ruptura de la simetría por la que la fuerza electronuclear unificada se escindió en las fuerzas electrodébil y las fuertes.  Si es correcta la teoría de la supersimetría, la transición puede haberse producido antes, había involucrado a la gravitación.

En el universo temprano la primera materia (hidrógeno y Helio) era llevada por la fuerza de gravedad a conformarse en grandes conglomerados de gas y polvo que interacioban, producían calor y formaron las primeras estrellas.

Elaborar una teoría totalmente unificada es tratar de comprender lo que ocurrió en ese tiempo remoto que, según los últimos estudios está situado entre 15.000 y 18.000 millones de años, cunado la perfecta simetría que, se pensaba, caracterizó el Universo, se hizo añicos para dar lugar a los simetrías rotas que hallamos a nuestro alrededor y que, nos trajo las fuerzas y constantes Universales que, paradójicamente, hicieron posible nuestra aparición para que , sea posible que, alguien como yo esté contando lo que pasó.

Pero hasta que no tengamos tal teoría no podemos esperar comprender lo que realmente ocurrió en ese Universo bebé.  Los límites de nuestras conjeturas actuales cuando la edad del Universo sólo es de 10-43 de segundo, nos da la única respuesta de encontrarnos ante una puerta cerrada.

Del otro lado de esa puerta está la época de Plank, un tiempo en que la atracción gravitatoria ejercida por cada partícula era comparable en intensidad a la fuerza nuclear fuerte.

La fuerza nuclear fuerte hizo posible la existencia de los núcleos que atraían electrones para formar átomos

Así que, llegados a este punto podemos decir que la clave teórica que podría abrir esa puerta sería una teoría unificada que incluyese la gravitación, es decir, una teoría cuántica-gravitatoria que uniese, de una vez por todas, a Planck y Einsteins que, aunque eran muy amigos, no parecen que sus teorías (la Mecánica Cuántica) y (la Relatividad General) se lleven de maravilla.

emilio silvera