martes, 27 de julio del 2021 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Siempre queriendo conocer el Universo

Autor por Emilio Silvera    ~    Archivo Clasificado en El Sistema Solar    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

¡El Universo! Gracias a la Astronomía, la Astrofísica y otras disciplinas y estudios relacionados, estamos conociendo cada día lo que en realidad es nuestro Universo que, nos tiene deparadas muchas, muchas sorpresas y maravillas que ni podemos imaginar. ¡Son tántas las cosas que aún tenemos que aprender de éste Universo Inmenso!

 

                    Las primeras estrellas aparecieron después de cientos de millones de años

Al principio, cuando el universo era simétrico, sólo existía una sola fuerza que unificaba a todas las que ahora conocemos, la gravedad, las fuerzas electromagnéticas y las nucleares débil y fuerte, todas emergían de aquel plasma opaco de alta energía que lo inundaba todo. Más tarde, cuando el universo comenzó a enfriarse, se hizo transparente y apareció la luz, las fuerzas se separaron en las cuatro conocidas, emergieron los primeros quarks para unirse y formar protones y neutrones, los primeros núcleos aparecieron para atraer a los electrones que formaron aquellos primeros átomos.Doscientos millones de años más tarde, se formaron las primeras estrellas y galaxias. Con el paso del tiempo, las estrellas sintetizaron los elementos pesados de nuestros cuerpos, fabricados en supernovas que estallaron, incluso antes de que se formase el Sol.

Podemos decir, sin temor a equivocarnos, que una supernova anónima explotó hace miles de millones de años y sembró la nube de gas que dio lugar a nuestro sistema solar, poniendo allí los materiales complejos y necesarios para que algunos miles de millones de años más tarde, tras la evolución, apareciéramos nosotros.

Pero, veámos en dos entradas siguientes algo más, de lo que creemos que es el universo y de lo que pudo pasar en aquellos primeros momentos.

emilio silvera

¡El Universo! ¿Cuando lo podremos conocer?

Autor por Emilio Silvera    ~    Archivo Clasificado en Astronomía y Astrofísica    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

La teoría del Big Bang es capaz de explicar la expansión del universo, la existencia de una radiación de fondo cósmica y la abundancia de núcleos ligeros el helio, el helio-3, el deuterio y el litio-7, cuya formación se predice que ocurrió alrededor de un segundo después del Big Bang, cuando la temperatura reinante era de 1010 K.

Si la teoría del Bing Bang es correcta (como parece que lo es -al menos de momento-), debe de existir alguna fuerza desconocida, i, quizá la misma gravedad que no hemos llegado a entender totalmente y tenga alguna que se nos escapa, o,  una gran proporción de “materia oscura” en no bariónica, quizás axiones, fotinos o neutrinos masivos, supervivientes de las etapas tempranas del Big Bang y, ¿por qué no?, también podríamos suponer que la materia oscura que tanto nos preocupa pudiera estar encerrada dentro de las singularidades de tantos y tantos agujeros negros que se han debido formar a lo largo de los 13.700 millones de años que es la edad del universo.

 http://1.bp.blogspot.com/-TWYy8GMEeBI/TiKZMOfnoQI/AAAAAAAAOgo/HeVDOup_eC0/s1600/deformacion-espacio-tiempo.jpg

Los agujeros negros, cuya existencia se dedujo por Schwarzschild en 1.916 a partir de las ecuaciones de campo de Einstein de la relatividad general, son objetos supermasivos, invisibles a nuestra vista (de ahí su ) del que no escapa ni la luz; tal es la fuerza gravitatoria que generan que incluso engullen la materia de sus vecinas, objetos estelares como estrellas que osan traspasar el cinturón de seguridad que llamamos horizonte de sucesos.

Pues , si en el universo existen innumerables agujeros negros, por qué no creer que sean uno de los candidatos más firmes que sea la buscada “materia oscura”. Bueno, también podrían ser las “cuerdas cósmicas”, o, ¿por qué no? la sustancia que los griegos clásicos llamaban Ylem, o… ¡vaya usted a saber que es, lo que produce el efecto de expansión de nuestro universo!

 

                                            Viaje la Quinta Dimensión

Para mí particularmente, sin descartar absolutamente nada de lo anterior (cualquier teoría podría ser la cierta), la denominada materia oscura (si finalmente existe), está situada en la quinta dimensión, y nos llegan sus efectos a través de fluctuaciones del “vacío” donde residen inmensas energías que rasgan el espacio-tiempo y que, de alguna manera, deja pasar a los gravitones que transportan la fuerza gravitacional que emite dicha materia y sus efectos se dejan sentir en nuestro universo, haciendo que las galaxias se alejen las unas de las otras a mayor velocidad de la que tendrían si el universo estuviera poblado sólo de la materia bariónica que nos rodea.

Claro que mi pensamiento es eso, una conjetura más de las muchas que circulan. A veces me sorprendo al escuchar como algunos astrofísicos de reconocido , sin pudor alguno, dogmatizan hablando de estas cuestiones sobre las que no tienen la menor certeza. Podemos hablar de la energía y materia oscura pero, siempre, dejando claro que son teorías de lo que podría ser y que, más o menos probables, aún no han sido confirmadas.

De todas las maneras, incluso la denominación dada: “materia oscura”, delata nuestra ignorancia. ¿Cómo poemos poner a algo que ni sabemos si existe en realidad. Se buscó esta solución para poder cuadrar las cuentas. Las observaciones astronómicas dejaron claro que, las galaxias, se alejaban las unas de las otras a velocidades cada vez mayores y que, de seguir así, llegaría un día en el futuro en el que, las únicas galaxias cercanas serían las del Grupo Local. Que cada vez el espacio “vacío” entre galaxias será mayor. ¿Qué fuerza desconocida empujaba a las galaxias a expandirse hacia el exterior? La materia bariónica no era la causante. Así que, se inventí la materia oscura y, de esa manera, el problema quedó zanjado. Claro que, no solucionado.

Mecánica cuántica, relatividad, átomos, el genóma, agujeros negros, la constante cosmológica, la constante de Planck racionalizada… Sabemos representar muchas otras cosas pero, la materia oscura, al sernos desconocida, no sabemos como ser y no podemos tener una imagen de lo que la materia oscura es (si es que es), así que hablamos y hablamos de ella sin cesar pero también sin, saber.

Mientras tanto, dejamos que el “tiempo” transcurra y como en todo lo demás, finalmente, alguien nos dará la respuesta, o, nos sacará del error, al demostrar que la dichosa materia oscura, nunca existió y que es, otra fuerza, la que produce los efectos observados en la expansión acelerada del Universo.

Claro que nos falta mucho…

que tengamos todas las respuestas que necesitamos para viajar a las estrellas, tener energía infinita obtenida de agujeros negros, lograr el traslado instantáneo de materia viva a lugares distantes, dominar toda una galaxia, etc, tendrán que transcurrir algunos eones de tiempo que, algunos de estos sueños se haga realidad y, si ocurren algunas de esas cosas en el futuro…¿La haremos nosotros? ¿O, quizá para entonces sean otros los que habrán cogido la antorcha de nuestros sueños?

                            No creo que tarden mucho en trabajar codo con codo con nosotros

vez se avanza más en menos tiempo. Y, llegará el momento, cuando dentro de algunos milenios, estemos preparados para viajar a las estrellas que, estarán aquí presentes con nosotros los inevitables Robots. Según una serie de cálculos y profundos pensamientos, no podremos seguir adelante llegados a un punto de no retorno, y, nos veremos obligados a fabricar robots muy sofisticados que harán trabajos espaciales y de colonización de Planetas para preparar la posterior llegada de los Humanos. Es inevitable pero, ¿será una buena idea?

Acordaos de que hace menos de un siglo no existían televisores, teléfonos móviles, faxes, ni aceleradores de partículas. En los últimos cien años hemos avanzado de una manera que sería el asombro de nuestros antepasados. De la misma manera pero mucho más acelerada, serán las décadas venideras y, dentro de los próximos cien años (a finales del presente siglo), si lo pudiéramos ver, quedaríamos tan asombrados como lo estarían nuestros bisabuelos si pudieran abrir los ojos y ver el mundo actual.

¿Qué maravillas tendremos dentro de 200 años? ¿Qué adelantos científicos se habrán alcanzado? ¿Sabremos más sobre el origen de la vida? ¿Qué estadio de saber habrá alcanzado la Fisica, y, si entonces hemos verificado la Teoría de cuerdas, qué nuevas teorías estarán en boga? ¿Habremos convertido Marte en una segunda Tierra (terraformarla) al proporcionarle una atmósfera y un escudo magnético?

 

        La verdad es que, científicamente hablando, no habría problema alguno

Dejando a un lado, a los primeros descubridores, Ptolomeo, Copérnico, Galileo, Kepler y otros muchos de tiempos pasados, tenemos que atender a lo siguiente:

La primera revolución de la física se produjo en 1.905, cuando Albert Einstein con su relatividad especial nos ayudo en nuestra comprensión de las leyes que gobiernan el universo. Esa primera revolución nos fue dada en dos pasos: 1905 la teoría de la relatividad especial y en 1.915, diez años después, la teoría de la relatividad general. Al final de su relativista, Einstein concluyó que el espacio y el tiempo están distorsionados por la materia y la energía, y que distorsión es la responsable de la gravedad que nos mantiene en la superficie de la Tierra, la misma que mantiene unidos los planetas del Sistema Solar girando alrededor del Sol y también la que hace posible la existencia de las galaxias. La Relatividad General de Einstein, nos dice cómo la materia determina la geometría del Universo.

 

Un universo que se curva sobre sí mismo en presencia de la materia

Einstein nos dio un conjunto de ecuaciones a partir de los cuales se deducir la distorsión del tiempo y del espacio alrededor de objetos cósmicos que pueblan el universo y que crean esta distorsión en función de su masa.  Se han cumplido 100 años entonces y miles de físicos han tratado de extraer las predicciones encerradas en las ecuaciones de Einstein (sin olvidar a Riemann) sobre la distorsión del espaciotiempo. Es decir, Einstein nos dijo que la materia, es la que determina la geometría del Universo.

Un agujero negro es lo definitivo en distorsión espaciotemporal, según las ecuaciones de Einstein: está hecho única y exclusivamente a partir de dicha distorsión. Su enorme distorsión está causada por una inmensa cantidad de energía compactada: energía que reside no en la materia, sino en la propia distorsión. La distorsión genera más distorsión sin la ayuda de la materia. es la esencia del agujero negro.

Si tuviéramos un agujero negro del tamaño de la calabaza más grande del mundo, de unos 10 metros de circunferencia, entonces conociendo las leyes de la geometría de Euclides se podría esperar que su diámetro fuera de 10 m / π = 3’14159…, o aproximadamente 3 metros. Pero el diámetro del agujero es mucho mayor que 3 metros, quizá algo más próximo a 300 metros. ¿Cómo puede ser esto? Muy simple: las leyes de Euclides fallan en espacios muy distorsionados.

Como podemos imaginar un objeto pesado o masivo colocado en el centro de una superficie elástica, se ha hundido a consecuencia del peso y ha provocado una distorsión que cambia completamente la medida original del diámetro de esa circunferencia que, al ser hundida por el peso, se agranda en función de éste.

Al espacio le ocurre igual.

De la misma manera se considerar que el espacio tridimensional dentro y alrededor de un agujero negro está distorsionado dentro de un espacio plano de dimensión más alta (a menudo llamado hiperespacio), igual que la lámina bidimensional está distorsionada como describo en la imagen anterior.

Lo más intrigante de los agujeros negros es que, si caemos en uno, no tendremos manera alguna de salir o enviar señales a los que están fuera esperándonos. Pensemos que la masa de la Tierra que es de 5’974X1024 Kg  (densidad de 5’52 gramos por cm3), requiere una velocidad de escape de 11’18 Km/s, ¿cuál no será la masa y densidad de un agujero negro si pensamos que ni la luz que viaja a 299.792’458 Km/s escapar de su fuerza de gravedad?

                       La Gravedad, presente en el Universo…,  ¡de tantas maneras!

Es tanta la densidad que no sólo distorsiona el espacio, sino que también distorsiona el tiempo según las ecuaciones de Einstein: el flujo del tiempo se frena cerca del agujero, y en un punto de no retorno (llamado el “horizonte” del agujero, o límite), el tiempo está tan fuertemente distorsionado que empieza a fluir en una dirección que normalmente sería espacial; el flujo de tiempo futuro está dirigido hacia el centro del agujero. Nada  moverse hacia atrás en el tiempo1, insisten las ecuaciones de Einstein; de modo que  una vez dentro del agujero, nos veremos arrastrados irremisiblemente hacia abajo con el flujo del tiempo, hacia una “singularidad” escondida en el corazón del agujero; en ese lugar de energía y densidad infinitas, el tiempo y el espacio dejan de existir.

Como he apuntado antes en alguna parte de este mismo , la descripción relativista del agujero negro procede de la obra de Kart Schwarzschil. En 1.916, apenas unos meses después de que Einstein formulara sus famosas ecuaciones, Schwarzschild fue capaz de resolver exactamente las ecuaciones de Einstein y calcular el campo gravitatorio de una estrella masiva estacionaria.

Así, Históricamente la primera solución importante fue obtenida por Schwarzschild en 1916, solución conocida posteriormente como métrica de Schwarzschild, representa el campo creado por un astro estático y con simetría esférica. Dicha solución constituye una muy buena aproximación al campo gravitatorio dentro del sistema solar, lo cual permitió someter a confirmación experimental la teoría general de la relatividad explicándose hechos previamente no explicados como el avance del perihelio de Mercurio y prediciendo nuevos hechos más tarde observados como la deflexión de los rayos de luz de un campo gravitatorio. Además las peculiaridades de esta solución condujeron al descubrimiento teórico de la posibilidad de los agujeros negros, y se abrió todo una nueva área de la cosmología relacionada con ellos. Lamentablemente el estudio del colapso gravitatorio y los agujeros negros condujo a la predicción de las singularidades espacio-temporales,  deficiencia que revela que la teoría de la relatividad general es incompleta. Quizá la teoría de cuerdas, en la que subyace ésta, nos complete el cuadro.

File:Schwarzchild-metric.jpg

Geometría aparente del plano de la eclíptica en un sistema cuyo astro central es un agujero negro de Schwarzschild. La solución de Schwarzschild tiene varias características interesantes:

La solución de Schwarzschild permitió aplicar los postulados de la relatividad general a disciplinas como la mecánica celeste y la astrofísica, lo cual supuso una verdadera revolución en el estudio de la cosmología: Apenas seis años después de la publicación de los trabajos de Einstein, el físico ruso Aleksander Fridman introdujo el concepto de singularidad espacio-temporal, definido como un punto del espacio-tiempo en el que confluyen todas las geodésicas de las partículas que habían atravesado el horizonte de sucesos de un agujero negro. En normales, la curvatura producida por la masa de los cuerpos y las partículas es compensada por la temperatura o la presión del fluido y por fuerzas de tipo electromagnético, cuyo estudio es objeto de la física de fluidos y del estado sólido. Sin embargo, cuando la materia alcanza cierta densidad, la presión de las moléculas no es capaz de compensar la intensa atracción gravitatoria. La curvatura del espacio-tiempo y la contracción del fluido aumentan cada vez a mayor velocidad: el final lógico de este proceso es el surgimiento de una singularidad, un punto del espacio-tiempo donde la curvatura y la densidad de tetramomentum son infinitas.

  • En primer lugar, una línea de no retorno rodea al agujero negro: cualquier objeto que se acerque a una distancia menor que radio será absorbido inevitablemente en el agujero.
  • En segundo lugar, cualquiera que cayera dentro del radio de Schwarzschild será consciente de un “universo especular”  al “otro lado” del espacio-tiempo.

 

Incluso surgieron agujeros de gusano que nos podían trasladar a puntos distantes tanto en el tiempo como en el espacio.

Einstein no se preocupaba por la existencia de extraño universo especular porque la comunicación con él era imposible. Cualquier aparato o sonda enviada al centro de un agujero negro encontraría una curvatura infinita; es decir, el campo gravitatorio sería infinito y, como ya dije antes, ni la luz podría escapar a dicha fuerza, e igualmente, las ondas de radio electromagnéticas también estarían prisioneras en el interior de un agujero negro, con lo cual, el mensaje nunca llegará al exterior. Allí dentro, cualquier objeto material sería literalmente pulverizado, los electrones serían separados de los átomos, e incluso los protones y los neutrones dentro de los propios núcleos serían desgajados. Además, penetrar en el universo alternativo, la sonda debería ir más rápida que la velocidad de la luz, lo que no es posible; c es la velocidad límite del universo.

Así pues, aunque este universo especular es matemáticamente necesario para dar sentido a la solución de Schwarzschild, nunca podría ser observado físicamente (al menos por el ). En consecuencia, el famoso puente de Einstein-Rosen que conecta estos dos universos fue considerado un artificio matemático.

Posteriormente, los puentes de Einstein-Rosen se encontraron pronto en otras soluciones de las ecuaciones gravitatorias, tales como la solución de Reisner-Nordstrom que describe un agujero eléctricamente cargado. Sin embargo, el puente de Einstein-Rosen siguió siendo una nota a pie de página curiosa pero olvidada en el saber de la relatividad.

Las cosas comenzaron a cambiar con la solución que el matemático presentado por el neozelandés Roy Kerr, presentado en 1.963, encontró otra solución exacta de las ecuaciones de Einstein. Kerr supuso que cualquier estrella colapsante estaría en rotación. Así pues, la solución estacionaria de Schwarzschild para un agujero negro no era la solución físicamente más relevante de las ecuaciones de Einstein.

File:Ergosphere.svg

La solución de Kerr de un agfujero negro en rotación causó sensación en el campo de la relatividad cuando fue propuesta. El astrofísico Subrahmanyan Chandrasekhar llegó a decir:

La  experiencia que ha dejado más huella en mi vida científica, de más de cuarenta años, fue cuando comprendí que una solución exacta de las ecuaciones de Einstein de la relatividad general, descubierta por el matemático Roy Kerr, proporciona la representación absolutamente exacta de innumerables agujeros negros masivos que pueblan el universo. Este estremecimiento ante lo bello, este hecho increíble de que un descubrimiento motivado por una búsqueda de la belleza en matemáticas encontrará su réplica exacta en la naturaleza, es lo que me lleva a decir que la belleza es aquello a lo que lleva la mente humana en su nivel más profundo“.

 

Un agujero negro de Kerr o agujero negro en rotación es una región de agujero negro presente en el espacio-tiempo de Kerr, cuando el objeto másico tiene un radio inferior a cierta magnitud, por encima de este radio el universo de Kerr no presenta región de agujero negro. Un agujero negro de Kerr es una región no isótropa que queda delimitada por un horizonte de sucesos y una ergoesfera presentando notables diferencias con respecto al agujero negro de Schwarzschild. Esta nueva frontera describe una región donde la luz aun escapar pero cuyo giro induce altas energías en los fotones que la cruzan. Debido a la conservación del momento angular, este espacio un elipsoide, en cuyo interior se encuentra un solo horizonte de sucesos con su respectiva singularidad, que debido a la rotación tiene de anillo.

La solución de Kerr de un agujero negro giratorio permite que una nave espacial pase a través del centro del agujero por el eje de rotación y sobrevivir al viaje a pesar de los enormes pero finitos campos gravitorios en el centro, y seguir derecha hacia el otro universo especular sin ser destruida por la curvatura infinita.

Para nosotros, teniendo el concepto que tenemos de lo que un agujero negro es, es tan difícil imaginar que una nave pueda entrar en él y poder salir más tarde, como imaginar que, en mundos extraños como el de arriba, puedan existir criaturas inteligentes como en la Tierra.

El universo, como todos sabemos, abarca a todo lo que existe, incluyendo el espacio y el tiempo y, por supuesto, toda la materia está en la que esté constituida. El estudio del universo se conoce como cosmología. Si cuando escribimos Universo nos referimos al conjunto de todo, al cosmos en su conjunto, lo escribimos con mayúscula, el universo referido a un modelo matemático de alguna teoría física, ese se escribe con minúscula.

El universo real está constituido en su mayoría por espacios aparentemente vacíos, existiendo materia concentrada en galaxias formadas por estrellas y gas (también planetas, quásares, púlsares, cometas, estrellas enanas blancas y marrones, estrella de neutrones, agujeros negros y otros muchos objetos espaciales). El universo se esta expandiendo, las galaxias se alejan continuamente los unas de las otras. Existe una evidencia creciente de que existe una materia oscura invisible, no bariónica, que constituir muchas veces la masa total de las galaxias visibles. El concepto más creíble del origen del universo es la teoría del Big Bang de acuerdo con la cual el universo se creó a partir de una singularidad infinita de energía y densidad a inmensas temperaturas de millones de grados K, hace unos 15.000 millones de años.

emilio silvera

La Cosmología y la Humanidad

Autor por Emilio Silvera    ~    Archivo Clasificado en Cosmología    ~    Comentarios Comments (18)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 «

Mira, la estrella cometa

                            Queremos configurar el universo y hacemos mapas de las galaxias…

La cosmología, a pesar del paso del tiempo, continúa siendo una disciplina interesante, basada en la astronomía y la física. Tenemos la necesidad de saber cómo es nuestro mundo (el universo), incluso si esa visión es inexacta o incompleta. Los antiguos indúes, babilonios y mayas combinaron la ciencia con la religión y las estructuras sociales para completar la imagen. Pensar que nosotros, hacemos algo diferente es, engañarnos a nosotros mismos. Si la cosmología moderna parece ajena a la religión, esto es porque las hemos convertido en una auténtica religión secular. Ahora, el sitio de los dioses, es ocupado por el Universo mismo, la Naturaleza sabia que tratamos de comprender.

A diferencia de los físicos o los químicos que aceptan gustosos los desafíos de sus paradigmas, los comólogos modernos son lagashianos, es decir, defienden el modelo que ellos han elegido frente a cualquier prueba que vaya contra él. Como dijo el físico ruso Lev Landau: “Los cosmólogos caen a menudo en errores, pero nunca dudan”.

El mundo de la cosmología ortodoxa del big bang no soporta a los disidentes y, luego, hay muchos y la historia nos habla de ellos. Por poner un ejemplo, me referiré al conocido protegido de Hubble, Halton Arp, educado en Harvard y Caltech que nunca renunció al rigor intelectual de su mentor y, en consecuencia, sostenía que los corrimientos el rojo no demostraban necesariamente la existencia de un universo en expansión. Todos conocemos la calidad que como astrónomo tenía Arp y de sus renombrados descubrimientos que, en su día, llenaron las primeras portadas de toda la prensa.

Arp 147 es una pareja de galaxias en fuerte interacción localizada a unos 430 millones de años luz de la Tierra sobre la constelación de Cetus. La colisión entre ambos objetos, que una vez fueron una típica galaxia elíptica y una típica galaxia espiral, ha generado una onda expansiva de formación estelar intensa en lo que era la galaxia espiral, deformando este objeto de tal forma que tiene una estructura claramente anular.

A veces, los objetos en el cielo que aparecen extraños o diferentes de lo normal, tienen una historia que contar que puede ser científicamente valioso. Esta fue la idea del catálogo de Halton Arp de Galaxias Peculiares que apareció en los años 1960. Uno de los raros objetos listados es Arp 261, que ha sido fotografiado con mayor detalle que nunca usando el instrumento FORS2 en el Telescopio Muy Grande de ESO. La imagen contiene varias sorpresas.

arp 261

Arp 261 yace a 70 millones de luz de distancia en la constelación de Libra. Su caótica y muy inusual estructura es creada por la interacción de dos galaxias. Aunque las estrellas individuales es muy raro que colisionen en este evento, ya que están muy alejadas unas de otras, las enormes nubes de gas y polvo ciertamente chocan a gran velocidad, lo que provoca nuevos cúmulos de calientes estrellas. Las órbitas de las estrellas existentes son dramáticamente alteradas, creando los remolinos que se extienden en la superior izquierda e inferior derecha de la imagen. Ambas galaxias eran probablemente enanas, no muy distintas que las Nubes de Magallanes que orbitan nuestra galaxia.

Viendo esas imágenes de increíble misterio, toda vez que esconden historias que tenemos que deducir de sus configuraciones, nos hacen caer en la de que, en realidad, todas nuestras cosmologías, desde las cosmologías sumerias y maya hasta la de los “expertos” actuales, están limitadas por una falta de visión que conlleva una enorme carencia de conocimientos. El que sabe, tiene una panorámica visual de la mente mucho más amplia que el que no tiene los conocimientos y, digamosló fuerte y claro: ¡Aún no sabemos! Innegable es que vamos avanzando y mucho pero, de ahí a decir que conocemos lo que el Universo es… hay un enorme abismo que necesita del puente del conocimiento para poder pasar al otro lado.

En los lejanos confines del Universo, a casi 13 mil millones años luz de la Tierra, unas extrañas galaxias yacen escondidas. Envueltas en polvo y atenuadas por la enorme distancia, ni siquiera el Telescopio Espacial Hubble es capaz de reconocerlas. Tendremos que esperar a su sustituto el James Webb.

File:JWST.jpg

James Webb Space Telescope (JWST) artist’s conception (NASA). Sabiendo todo lo que nos ha traído el Hubble, esas imágenes que nos ejaron literalmente con la boca abierta por el asombro, ¿qué no podrá traernos este nuevo ingenio que supera en mucho al anterior? Su es en honor al segundo administrador de la NASA y, sus objetivos:

  • Buscar la luz de las primeras estrellas y galaxias formadas tras el supuesto big bang
  • Estudiar la formación y evolución de las galaxias
  • Comprender mejor la formación de estrellas y planetas
  • Estudiar los sistemas planetarios y los orígenes de la vida

En su obra Cosmos, Carl Sagan describe varios mitos antiguos de la creación, que son, según escribe este autor, “un tributo a la audacia humana”. Al tiempo que llama al big bang “nuestro mito científico moderno”, señala una diferencia crucial en el sentido de que “la ciencia se plantera así misma preguntas y podemos realizar experimentos y observaciones tratar de comprobar nuestras teorías”.

Sin embargo, lo que está claro es que Sagan, se sentía muy atraído por lacosmología cíclica hindú, en la cual Brahma, el gran dios creador, consigue que un universo llegue a existir el lo sueña

http://djxhemary.files.wordpress.com/2010/11/500x_shutterstock_10780879.jpg

     ¿Qué univeros soñaría Brahma? ¿Sería como nuestro? ¿Tendrían vida?

Según el experto en religiones Mircea Eliade, durante cada día brahmánico, 4.320 millones de años para ser exactos, el universo sigue su curso. Pero, al comienzo del anochecer brahmánico, el dios se cansa de todo esto, bosteza y cae en un profundo sueño. El universo se desvanece, disolviendo los tres dominios materiales que son la Tierra, el Sol y los cielos, que contiene la Luna,  los planetas y la estrella Polar. (Hay cuatro dominios superiores a éstos que no se destruyen en este ciclo). La noche va pasando; entonces Brahma empieza a soñar de y otro universo empieza a existir.

Este ciclo de creación y destrucción continúa eternamente, lo cual se pone de manifiesto en el dios hinfú Siva, señor de la danza que , que sostiene en su mano derecha el tambor que anuncia la creación del universo y en la mano izquierda la llama que. mil millones de años después, destruirá este universo. Hay que decir tambien que Brahma no es sino uno de los muchos dioses que también sueñan sus propios universos, es decir, ya por aquel entonces, se hablaba y creía en los multiversos.

Alrededor de todas aquellas configuraciones del Cosmos, como era de esperar, tenían muchos rituales y celebraciones. Cinco días después de terminar Sat Chandi Mahayajna, culto a la Energía Cósmica, empezará Yoga Poornima que es el culto a su contraparte, la Consciencia Cósmica, Shiva. Así, ambos eventos, cada uno único en su , rinden tributo a la figura materna y paterna del universo y crean un círculo completo de experiencia total. Al término de ambos eventos uno se siente saciado, completo y pleno.

Los 8.640  millones de años que constituyen el ciclo completo de un día y una noche en la vida de Brahma vienen a ser aproximadamente la mitad de la edad del Universo según los cálculos actuales. Los antiguos hindúes creían que cada día brahmánico duraba un kalpa, 4.320 millones de años, siendo 72.000 kalpas un siglo brahmánico, en total 311.040.000 millones de años. El hecho de que los hindúes fueran capaces de concebir el universo en miles  de millones de años (en ves de hablar de los miles de millones que se solían barajar en las culturas y doctrinas religiosas primitivas occidentales) fue, según Sagan, “sin duda una casualidad”. luego es posible que fuera sólo cuestión de suerte. No obstante, la similitud entre la cosmolo´gia hindú y  la cosmología actual no me parece a mí una casualidad, ahñi subyace un elevado conocimiento.

Es posible que, aquellas teorías que si las trasladamos a este tiempo, en alguinos casos no podríamos discernir si se trata de las ideas de entonces o, por el contrario son nuestras modernas ideas, con esos ciclos alternos de destrcucción y creación, pudieran estar conectados y fuertemente ligados a nuestra psique humana que, al fin y al cano, de alguna manera que no hemos podido llegar a entender, está, ciertamente, conectada con el universo del que forma parte. Claro que, debemos entender y saber extrapolar los mensajes de entonces y transplantarlos al aquí y , y, aquellos redobles del tambor de Siva que sugieren el inmenso impulso energético repentino, podría ser muy bien lo que provocó nuestrobig bang.

Recientemente, un prestigioso físico afirma haber hallado evidencias de un Universo anterior al nuestro, mediante la observación del fondo cósmico de microondas. Esto significaría que nuestro Universo no es único, sino que han existido otros universos con anterioridad, quizás un infinito. Es un ciclo que hasta ahora solo se creía teórico, sin ningún tipo de prueba que lo respalde. Ahora parece haberse encontrado la primera.

y

El descubrimiento son unos extraños patrones circulares que pueden encontrarse en la radiación de fondo de microondas del WMAP (Imagen arriba), según un artículo recientemente publicado en ArXiv.org, donde Penrose explica el fenómeno, tras analizar los extraídos de estas anomalías. Concluye que es una clara prueba de que el espacio y el tiempo existen mucho antes de nuestro Big Bang hace 13.700 millones de años, que provienen de anteriores universos que podríamos llamar “eones”, de un ciclo que se lleva repitiendo el infinito.

Nos podemos imaginar, en un largo viaje en el tiempo hacia tiempos pasados, todo lo que allí, en aquellas civilizaciones de pensaba acerca del Cosmos, las leyendas que se contaban para explicar los sucesos y con detalles, narrar lo que era el “mundo-universo” que ellos, en su ya inmensa imaginación, sibujaban de una forma muy similar a la nuestra (salvando las distancias), toda vez que, en lo esencial, muchas son las coincidencias de ayar y hoy. ¿Quiere eso decir que hemos adelantado muy poco? Todo lo contrario, hemos adelantado muchísimo para poder comprobar que, muchos de aquellos postulados de hace miles de años, eran ciertas y apuntaban en la correcta dirección.

emilio silvera

La Física de Partículas al Servicio de la Salud

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Transferencias tecnológicas del CERN a la Biomedicina

 

 

                                                                                                           

                                                                            Partículas y mucho más

Seguramente la mayoría de los lectores de la Revista Española de Física han oído más de una vez hablar del CERN. Fundado en 1954, constituye el mayor laboratorio de física de partículas del mundo, con veinte países miembros y un personal de unas 3.000 personas entre físicos, ingenieros y personal técnico y administrativo de todo tipo. Seguramente están también al tanto de los grandes experimentos que se están preparando en este centro como el Large Hadron Collider (LHC), situado en un túnel circular de 27 km de longitud, destinado a elucidar el origen de la llamada ruptura de la simetría electrodébil y en última instancia el origen de las masas de las partículas elementales (no de la masa del protón o del neutrón como erróneamente se dice a veces en los medios de comunicación), o del proyecto CERN Neutrino Gran Sasso (CNGS), que consiste en enviar un haz de neutrinos de alta energía desde el CERN al laboratorio subterráneo italiano del Gran Sasso que se encuentra a 730 km, para estudiar las oscilaciones de estas huidizas partículas.

También es muy probable que muchos lectores asocien de manera natural la palabra acelerador de partículas  a los instrumentos que utilizan los físicos modernos para estudiar y comprender mejor la estructura y el comportamiento de la materia a pequeñas escalas. Sin embargo, de los 17.000 aceleradores de partículas que se estima existen en la actualidad en todo el mundo, aproximadamente la mitad de ellos se usan en medicina y sólo una parte muy pequeña se usan para investigación fundamental. Por este y otros motivos que se discutirán más adelante, en este número especial de la Revista Española de Física dedicado a la física y las ciencias de la vida, ha parecido conveniente incluir un artículo en el que, al menos brevemente, se describieran algunas de las transferencias tecnológicas (spinoffs) importantes que la actividad del CERN aporta a dichas ciencias.

 

Mucho de lo que aquí se descubre, se aplica a nuestra Salud

 

Es bastante razonable que, como ocurre con las ciencias del espacio, mucha gente se pregunte cuál es la utilidad social de la física de partículas más allá  de la adquisición de conocimientos fundamentales de la naturaleza. Sin embargo, es preciso señalar que los aceleradores y detectores de partículas del CERN y otros laboratorios similares requieren el uso, y muchas veces el desarrollo, de tecnologías de punta que obligan a una estrecha colaboración con la industria  que redunda en beneficio de ambas partes. Las transferencias tecnológicas que se producen en este proceso se incorporan inmediatamente a nuestra vida diaria en áreas tales como la electrónica, procesamiento industrial y médico de imágenes, manejo y usos de la radiación , metrología, nuevos materiales, tecnologías de la computación y la información, tratamiento del cáncer, etc. En este artículo se pondrá el énfasis en aquellas actividades del CERN que han redundado de una forma más clara en beneficio de las ciencias biomédicas.

PET/TC o más allá de los rayos X

 

 

En el ámbito de la medicina los aceleradores de partículas se utilizan con dos finalidades; una para la formación de imágenes con propósitos diagnósticos y otra, para terapia, principalmente oncológica. Desde el descubrimiento de los rayos X por Röntgen en 1895, este tipo de radiación electromagnética ha proporcionado una información de valor incalculable y aún sigue proporcionándola. Sin embargo, mucho más recientemente, se han desarrollado otras técnicas complementarias de diagnóstico basadas en los llamados radiofármacos. Estas sustancias radiactivas presentan idealmente la propiedad de poder ser inyectadas en el organismo humano de forma segura y de fijarse exclusivamente a determinados tejidos. Posteriormente, a medida que van desintegrándose, emiten ciertas partículas que pueden ser detectadas y analizadas produciendo de esta forma imágenes estáticas o incluso dinámicas de los órganos en los que se depositaron los radiofármacos y, en definitiva, proporcionando información no solamente sobre la morfología de aquellos, sino también, en muchos casos, sobre su función y metabolismo.Los radiofármacos se producen utilizando haces de protones de alta intensidad y, como tienen una vida media muy baja, deben utilizarse cerca de donde se han creado. Se calcula que unos 20 millones de personas son diagnosticadas cada año mediante el uso de este tipo de sustancias.

 

Son técnicas no invasivas que dejan al descubierto lo que interesa ver y eliminar.

 

Una de las técnicas de este tipo más utilizada en la actualidad es la Positron Emission Tomography (PET). En su aplicación se utiliza normalmente un ciclotrón para irradiar alguna sustancia que se convierte en radiactiva por desintegración beta positiva (emisora de positrones). Esta sustancia se une por ejemplo a la glucosa y se inyecta al paciente. Los positrones producidos se aniquilan con los electrones circundantes dando lugar a dos fotones de energía muy bien definida, emitidos en direcciones opuestas. Estos fotones interaccionan con un material escintilador dando lugar a la emisión de otros fotones que pueden ser detectados por fotomultiplicadores o fotodiodos para formar la imagen de los tejidos que se pretenden estudiar en función de la distribución de la glucosa radiactiva. Por ejemplo, en el caso del diagnóstico del cáncer las células cancerosas suelen consumir más glucosa que las células sanas debido a su mayor vascularización y a su mayor actividad metabólica y reproductiva, produciendo por tanto una mayor emisión de fotones. Por el contrario, las zonas donde el tejido presente mayor número de células muertas brillarán menos debido a la menor concentración de glucosa radioactiva, lo cual puede ser muy útil para el diagnóstico de infartos y otras lesiones.

Tecnológias que llegan más allá

 

De acuerdo con David Townsend, uno de los pioneros en el desarrollo de la tecnología PET, aunque ésta no fue inventada en el CERN, una cantidad esencial e inicial de trabajo desarrollado en el CERN  a partir de 1977 contribuyó de forma significativa al desarrollo del PET 3D. La tecnología PET alcanza su grado más alto de utilidad diagnóstica cuando se combina con la Computed Tomography (CT). La CT es un método de formación de imágenes tridimensionales a partir del procesamiento digital de un gran número de imágenes bidimensionales de rayos X. Inicialmente, las diferentes imágenes se obtenían alrededor de un solo eje de rotación y de ahí su nombre original de Computed Axial Tomography (CAT).

La técnica combinada PET/CT es uno de los desarrollos más excitantes de la medicina nuclear y la radiología modernas. Las reconstrucciones de imágenes CT permiten el diagnóstico precoz de tumores basándose en sus características morfológicas, mientras que la tecnología PET es capaz de diferenciar con grane eficiencia los tejidos malignos de los benignos. La fusión PET/CT permite ahora integrar las imágenes morfológica y fisiológica en una única imagen. El prototipo del scanner ART, el Partial Ring Tomograph (PRT), fue desarrollado en el CERN en 1980 y 1990 por David Townsend, Martín Wensveen y Henri Tochon-Danguy, y evaluado clínicamente en el departamento de medicina nuclear del Hospital Cantonal de Ginebra. ART puede considerarse como el precursor de la parte PET del moderno scanner PET/CT, que ha producido un impacto extraordinario en la tecnología de imágenes con fines médicos. Además, el CERN continua hoy en día contribuyendo a este campo fundamental de la medicina moderna mediante proyectos como Clear PET, Clear PEM, HPD PET etc.

 

Sin embargo, la importancia del CERN en el desarrollo de las tecnologías PET o CT, y en general de todo tipo de scanner, va mucho más allá. En efecto, todo este tipo de dispositivos se basa, de una forma u otra, en los detectores desarrollados a finales de los  sesenta en el CERN por George Charpak. Su trabajo fue reconocido en 1992 con la concesión del Premio Nobel de Física por su invención y desarrollo de detectores de partículas, en particular de la cámara proporcional multihilos, que produjo una revolución en la técnica de exploración de las partes más íntimas de la materia. Los detectores desarrollados por Charpak se usan aún para todo tipo de investigaciones médicas y biológicas y podrían eventualmente sustituir completamente a las placas fotográficas en la radio-biología aplicada. La velocidad creciente con la que permiten registrar las imágenes en radio medicina conducen a una menor tiempo de exposición y a menores dosis de radiación indeseada recibida por los pacientes.

Hadronterapia, o las partículas contra el cáncer

 

Como es bien sabido, una de las herramientas terapéuticas esenciales en el campo de la oncología es la radioterapia. Dicho tratamiento se aplica hoy en día aproximadamente a la mitad de los pacientes de cáncer. En cierto modo se puede considerar como una forma sutil de cirugía donde el bisturí es reemplazado por un haz colimado de partículas capaz de esterilizar las células malignas mediante la inactivación de su ADN, impidiendo así su reproducción. Tradicionalmente, la radioterapia se ha basado en el uso de rayos X (fotones), electrones y, más recientemente, hadrones, es decir, partículas capaces de interaccionar fuerte o nuclearmente, si bien no es ésta la propiedad más interesante de estas partículas para las aplicaciones radioterapeúticas. Los haces de rayos X y los electrones se obtienen normalmente a partir de aceleradores lineales como los del CERN, aunque mucho más pequeños, y se apuntan hacia los tumores con la energía, dirección y colimación apropiadas para optimizar su efecto destructivo sobre los mismos. Por su parte, los neutrones pierden energía en el interior del organismo de una forma diferente, lo cual les hace más indicados para el tratamiento de ciertos tipos especiales de tumores. Se obtienen a partir de las colisiones de protones, previamente acelerados en un ciclotrón, con núcleos de berilio. Este hecho hace que esta terapia sea bastante más cara que las anteriores, pero a cambio el ciclotrón puede ser usado también para la producción de radiofármacos.

Cintíficos del CERN aplivcan antimateria contra el Cáncer

El estudio de las posibilidades de utilización de haces de hadrones en la terapia del cáncer tuvo su origen en el trabajo seminal de R.R Wilson titulado Radiological Use of Fast Protons (Radiology 47, 1946). En dicho artículo se ponía de manifiesto que los protones, así como otras partículas cargadas pesadas, presentan la propiedad única de que al penetrar en el cuerpo humano depositan la mayor parte de su energía a una preofundidad que depende de su energía inicial. Este hecho permite seleccionar cuidadosamente el área que se quiere irradiar, preservando de dicha radiación al tejido sano que pudiera encontrarse a menor profundidad. Además, como las partículas se detienen a una distancia de la superficie bien definida por la energía del haz, tampoco resultarían dañadas las células situadas detrás del blanco seleccionado.

En contraste, la energía depositada por los rayos X alcanza su máximo cerca de la superficie de entrada y decae exponencialmente hasta que abandona el cuerpo humano en el lado opuesto, haciendo por tanto muy difícil seleccionar la zona que quiere irradiarse sin dañar otras áreas de células sanas. El trabajo de Wilson de 1946 condujo a toda una nueva línea de investigación experimental, principalmente en el Lawrence Berkeley Laboratory, que ha dado lugar al desarrollo de una nueva clase de terapias antitumorales basadas en la irradiación con protones y más recientemente con iones de carbono. Estas técnicas han sido aplicadas en más de 40 centros de todo el mundo, y de ellas se han beneficiado hasta la fecha más de 50.000 pacientes. No obstante, continúan investigándose nuevas formas de intentar mejorar el ratio entre la energía depositada en las células tumorales y en el tejido sano.

 

 

En la actualidad, el CERN se encuentra involucrado en diversos proyectos relacionados con la hadronterapia. Por ejemplo, en el diseño de un acelerador de protones e iones de carbono dedicado exclusivamente a usos médicos conocido como Proton Ion Medical Machine Study (PIMMS). Otro proyecto interesante es la realización de las pruebas del Linear Booster ( LIBO), capaz de acelerar una haz de protones hasta 200 Mev (los hospitales habiualmente utilizan energías en torno a los 65 MeV) y que estaría especializado en el tartamiento de tumores profundos.

Finalmente, y situándonos en un plano de investigación a un nivel más básico, es interesante señalar que en octubre de 2006 se presentaron los primeros resultados de un experimento llevado a cabo en el CERN con potencial para futuras aplicaciones en la terapia del cáncer. Se trataba del Antiproton Cell Experiment (ACE), que constituye la primera investigación realizada hasta la fecha sobre efectos biológicos de los antiprotones. Los antiprotones se comportan como los protones cuando entran en el organismo, pero generan mucha más energía en el blanco seleccionado debido a du aniquilación con los protones existentes en los núcleos de los átomos de las células, y además depositan esta energía de una forma biológicamente más efectiva.

 

 Se busca antimateria contra el Cáncer. Los resultados muestran que los antiprotones son cuatro veces más efectivos que los protones para destruir células vivas. (Foto: Especial CERN )

Evaluando la fracción de células supervivientes después de la irradiación con el haz de antiprotones, el experimento ACE ha encontrado que a eficiencia de éstos es unas cuatro veces mayor que la de los protones, mientras que el daño producido a las células situadas antes del blanco era básicamente el mismo. De acuerdo con Michael Holzscheiter, portavoz del experimento ACE, este hecho podría ser extremadamente importante para el tratamiento de casos de cáncer recurrente, donde este tipo de propiedad es vital. La tecnología desarrollada previamente en el CERN para la obtención de haces de antiprotones de buena calidad a la energía apropiada es esencial para este prometedor experimento, que difícilmente podría haberse realizado en ningún otro laboratorio. Éste es por tanto un magnífico ejemplo de cómo la investigación en física de partículas desarrollada en el CERN puede generar soluciones innovadores con excelentes beneficios médicos potenciales.

Los investigadores de ACE, en colaboración con otras instituciones de todo el mundo, están realizando en la actualidad nuevos tests para comprobar la eficacia de este método en el caso de tumores situados a mayor profundidad, y comparando sus resultados con los de otros métodos más convencionales como la irradiación mediante iones de carbono. Si todo sale como se espera, los beneficios clínicos de esta nueva técnica podrían empezar a producirse dentro de la próxima década.

Otro ejemplo importante de tecnología creada en el CERN con aplicaciones a la terapia del cáncer es el Neutron Driven Element Trasmuter. Se trata de un sistema de producción de radioisótopos específicos específicos a partir de un acelerador de protones cuyo desarrollo fue liderado por Carlo Rubbia, Premio Nobel de Física en 1984 por el descubrimiento de los bosones W y Z y ex director general del CERN. La idea es utilizar el haz de protones para producir neutrones los cuales provocan reacciones en un ambiente apropiado donde ciertos elementos son convertidos en los isótopos deseados.

 

 

La diferencia principal entre este método, seguro y barato, y el método más tradicional de utilizar los neutrones provenientes de un reactor nuclear, es que no requiere el uso de material fisionable ni funciona críticamente, es decir las reacciones se detienen en el momento en el que el acelerador es apagado. Más aún, el método tiene la ventaja de que sólo se producen los isótopos requeridos, lo que redunda en una importante reducción de impacto ambiental. Normalmente, el blanco utilizado es plomo, elemento idóneo por presentar el menor ritmo de captura de neutrones. Los neutrones se producen por espalación a partir del haz de protones y permanecen en el interior del blanco de plomo, que está rodeado  de un deflector de grafito, hasta que su espectro se suaviza suficientemente para cubrir un gran rango de energías que permiten su utilización para la transmutación de los elementos necesarios para la obtención de los isótopos deseados.

El Neutron Driven Element Trasmuter ha permitido, entre otras cosas, la producción de radioisótopos beta emisores como el 166Ho, 186 Re o el 188Re que son de gran importancia en braquiterapia. Dicha técnica, muy utilizada en el tratamiento de cánceres ginecológicos y en el de cáncer de próstata, es un tipo de radioterapia de proximidad donde la fuente radiactiva se sitúa dentro o muy cerca de los tejidos que requieren irradiación. Típicamente, la fuente radiactiva, de alta actividad y corta vida media, se encapsula en una semilla, filamento o tubo y se implanta en quirófano en la zona deseada. Las diferentes dosis requeridas en cada caso hacen que sea fundamental disponer del mayor muestrario posible de radioisótopos con la actividad y vida media apropiadas, lo cual convierte al Neutron Driven Element Trasmuter en una herramienta valiosísima para el futuro de este tipo de técnica terapéutica.

 

                        Información y computación sin fronteras

 

CERN, … where the web was born; éste es uno de los reclamos publicitarios que suelen utilizarse  para hacer ver al público la importancia de los retornos tecnológicos que en este laboratorio tienen lugar. Y en efecto, fue a finales de los ochenta cuando Tim Berners-Lee desarrolló estándar de Hyper Text Transfer Protocol (HTTP)  e implementó los primeros servidores web en el CERN. Su esfuerzo permitió la comunicación fácil y segura y el intercambio de todo tipo de información entre todos los ordenadores del mundo conectados a internet, dando lugar de esta forma a una de las revoluciones tecnológicas más importantes de las últimas décadas. Las repercusiones científicas, tecnológicas, culturales, comerciales y de ocio de la web son ya tan conocidas que apenas merecen comentario alguno.

El término Grid fue acuñado por Ian Foster and Carl Kesselman en su libro The Grid, Blueprint for new Computing Infraestructure (Morgan Kaufman, 1998), aunque las ideas básicas habían sido consideradas con anterioridad. No existe un acuerdo general sobre cual debería ser la definición precisa de las tecnologías Grid, pero hay un amplio concenso en que esta debería contener elementos tales como recursos compartidos, virtualización, abstracción del acceso a los recursos y estandarización. La filosofía Grid consistería, no sólo en compartir información entre diferentes usuarios, sino también recursos, como por ejemplo, procesadores, tiempo de CPU, unidades de almacenamiento, así como otros aparatos e instrumentos, de tal forma que eventualmente cada usuario tendría acceso virtual, por ejemplo, a la capacidad de cálculo de todos los demás usuarios de esa Grid. En los primeros tiempos de esta tecnología de la información se llegó a hablar de la Grid, refiriéndose a la posibilidad  de existencia de una única World  Wide Grid.

 

 

Todo surgió del CERN

 

Hasta el momento,, sin embargo, este concepto no es una realidad y más bien lo que se encuentra es que diferentes grupos de proyectos crean su propia Grid usando sus propias implementaciones, estándares y protocolos y dando acceso restringido solamente a una cierta comunidad de usuarios autorizados. Así, aunque se siguen realizando importantes esfuerzos en cuanto a la estandarización de los protocolos, no está claro cual será el camino que este tipo de tecnología seguirá en el futuro en lo que se refiere a la futura existencia de un única Grid.

En cualquier caso es importante resaltar que una vez más el CERN ha sido pionero en este tipo de tecnología. Los detectores que se están instalando (a estas alturas, todos instalados y en marcha) en el LHC (ATLAS, CMS, ALICE, LHCb, SUSY, etc.), son tan complejos, que han requerido cada uno de ellos el concurso de muchas instituciones de todo el mundo para su construcción, y lo seguirán requiriendo para su mantenimiento cuando el acelerador empiece a funcionar (ya está en marcha), y, como no, para el análisis de los datos que se obtengan. Para hacerse una idea de la dimensión y complejidad de estos análisis baste mencionar que el compact Muon Selenoid (CMS), una vez pasado su primer filtro, deberá almacenar información sobre el resultado de las colisiones producidas en su interior a un ritmo del orden de 100 a 200 MB por segundo durante un tiempo esperado de unos cien días por año. Resulta obvio que sólo una tecnología tipo Grid puede afrontar con posibilidades de éxito un reto semejante y de hecho el CERN ha inspirado varios proyectos Grid multinacionales por este motivo. Posiblemente, el más grande de ellos hasta la fecha sea el EGEE (Enablinbg Grids for E-Science), que conecta más de 150 paises y ofrece 20 000 CPUs y más de 10 Petabytes de memoria.

 

De manera análoga a como ocurrió con las tecnologías de la detección y aceleración, las tecnologías Grid tendrán, y de hecho ya empiezan a tener, un fuerte impacto en las ciencias de la vida y de la salud. En este sentido, uno de los campos obvios de aplicación es la bioinformática. Gracias a los espectaculares avances llevados a cabo en los últimos años en el campo de la biología molecular, se dispone hoy en día de cantidades crecientes de información genética de diferentes especies e individuos. Dicha información codificada en el ADN en forma de secuencia de tripletes o codones de ácidos nucleicos, que constituyen los genes que contienen la estructura primaria de las diferentes proteínas, ha sido y está siendo obtenida por centenares de grupos diferentes distribuidos por todo el mundo y debe almacenarse en gigantescas bases de datos de forma eficiente para su compartición, contrastación y análisis.

Ejemplos típicos serían la búsqueda de determinadas secuencias, comparaciones, búsqueda de determinadas mutaciones o alelos, etc. Resulta evidente que esta ingente labor puede verse enormemente beneficiada por el uso de tecnologías Grid. De hecho, la Bioinformática, y en particular sus aplicaciones biomédicas, han sido una parte importante del proyecto EGEE desde el comienzo del mismo.

Finalmente, y como última muestra de cómo puede revertir en la sociedad las tecnologías de la información y la computación provenientes de la física de partículas, es interesante mencionar el Proyecto Mammogrid y su continuación Mammogrid Plus. Liderado por el CERN, dicho proyecto de la UE utiliza la tecnología Grid para crear una base de datos de mamografías que pueda ser usada para investigar un gran conjunto de datos e imágenes que, aparte de otras aplicaciones sanitarias, sea útil para estudiar el potencial de esta tecnología para servir de soporte a la colaboración entre los profesionales de la salud de la  UE.

 

 

      Ciencia, Tecnología y Sociedad

A estas alturas debería haber quedado claro que los centros científicos de élite internacionales como el CERN, no sólo nos proporcionan un conocimiento más profundo de la naturaleza, sino que las tecnologías de punta que en ellos se desarrollan acaban permeando a la Sociedad y se incorporan a nuestras vidas cotidianas. El autor del artículo, Antonio Dobado, del Departamento de Física Teórica I de la Universidad Complutense de Madrid, ha pretendido ilustrar el hecho innegable de la conexión existente entre temas tan aparentemente dispares como el de la Física de Partículas y la Biomedicina, pero ejemplos semejantes podrían haberse encontrado en prácticamente cualquier área de la actividad humana.

La Sociedad no puede permanecer por más tiempo ajena a la Ciencia y a todo lo que trae consigo. Precisamente por eso la RSEF dedica un gran esfuerzo a la difícil tarea de convencer al público de la importancia de la Física como valor científico, cultural y social, como una forma rigurosa y profunda del acercamiento al conocimiento de la naturaleza, y a la vez como generadora de nuevas tecnologías. En este sentido, es una espléndida noticia la inminente creación de un nuevo Grupo especializado en el seno de la RSEF denominado Física Médica. Y, desde aquí, aprovechamos la oportunidad para darles la bienvenida y desearles el mayor éxito en sus futuras andaduras en la búsqueda de la verdad científica.

Fuente: Revista Española de FÍSICA.

Publicada por la RSEF con el Nº 3 Volumen 21 de 2007

La presente transcripción es de:  Emilio Silvera

Miembro numerario de la RSEF y adscrito a los Grupos Especializados de Física Teórica y Astrofísica.

Rumores del saber del mundo II

Autor por Emilio Silvera    ~    Archivo Clasificado en Rumores del Saber    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

En Alejandría, las matemáticas o, al menos, los números tuvieron aspectos muy importantes, y también muy diferentes. Se trata de los denominados “misterios órficos” y su énfasis místico.

Según Marsilio Ficino, autor del siglo XV d.C., hay seis grandes teólogos de la antigüedad que forman una linea sucesoria. Zoroastro fue “el principal referente de los Magos”; el segundo era Hermes Trismegisto, el líder de los sacerdotes egipcios; Orfeo fue el sucesor de Trismegisto y a él le siguió Aglaofemo, que fue el encargado de iniciar a Pitágoras en los secretos, quien a su vez los confió a Platón. En Alejandría, Platón fue desarrollado por clemente y Filón, para crear lo que se conocería como neoplatonismo.

Orfeo, en El Maestro, de Luis de Milán  (1536), tocando una vihuela en vez de la clásica lira. La iconografía que lo acompaña, oculta en el paisaje y en el lema tiene mucho de críptica y mistérica, como era usual en la época. (por ejemplo, en la Hypnerotomachia Polophili). El movimiento órfico supone un enfrentamiento a las tradiciones religiosas de la ciudad griega y, en definitiva, una nueva concepción del ser humano y su destino. Bajo el nombre del mítico Orfeo,  cantor y trágico viajero del Más Allá, surgen una serie de textos que predican y atestiguan esa nueva religiosidad,  una doctrina de salvación, sobre el hombre,  su Alma, y su destino, tras la muerte.

Tres ideas conforman los cimientos de los misterios órficos. Una es el poder místico de los números. La existencia de los números, su cualidad abstracta y su comportamiento, tan vinculado como el del Universo, ejercieron una permanente fascinación sobre los antiguos, que veían en ellos la explicación de lo que percibían como armonía celestial.

La naturaleza abstracta de los números contribuyó a reforzar la idea de un alma abstracta, en la que estaba implícita la idea (trascendental en este contexto) de la salvación: la creencia de que habrá un futuro estado de éxtasis, al que es posible llegar a través de la trasmigración o reencarnación.

Por último, estaba el principio de emanación, esto es, que existe un bien eterno, una unidad o “monada”, de la que brotaba toda la creación. Como el número, esta era considerada una entidad básicamente abstracta. El alma ocupada una posición intermedia entre la monada y el mundo material, entre la mente, abstracta en su totalidad, y los sentidos.

“…El culto a Orfeo surge después del desastre de la civilización aquea -que provocó una general dispersión del mundo griego y una vasta reacomodación de pueblos y culturas-. La necesidad de rehacer los antiguos vínculos  sociales y sagrados, dio origen a cultos secretos, en los que participaban solamente “aquellos seres desarraigados, trasplantados, reaglutinados artificialmente y que soñaban con reconstruir una organización de que la que no pudieran separarse. Su sólo nombre colectivo era el de huérfanos” Orphanos no solamente es “huérfanos”, sino vacío. En efecto, soledad y orfandad son, en último término, experiencias del vacío…”

Según los órficos, la monada enviaba (“emanaba”) proyecciones de sí misma al mundo material y la tarea del alma era aprender usando los sentidos. De esta forma, a través de sucesivas reencarnaciones, el alma evolucionaba hasta el punto en el que ya no eran necesarias más reencarnaciones y se alcanzaba el momento de profunda iluminación que daba lugar a una forma conocida como gnosis, allí la mente esta fundida con lo que percibe. Es posible reconocer que esta idea, original de Zoroastro, subyace en muchas de las regiones principales del mundo, con distintas variantes o matices que, en esencia, viene a ser los mismos.

Pitágoras, en particular, creía que el estudio de los números y la armonía conducían a la gnosis. Para los pitagóricos, el número uno no era un número en realidad, sino la “esencia” del número, de la cual surge todo el sistema numérico. Su división en dos creaba un triángulo, una trinidad, la forma armónica más básica, idea de la que encontramos ecos en santísimas religiones.

Platón, en su versión más mítica, estaba convencido de que existía un “alma mundial”, también fundada en la armonía y el número, y de la cual brotaba toda la creación. Pero añadió un importante refinamiento al considerar que la dialéctica, el examen crítico de las opiniones era el método para acceder a la gnosis.

La tradición sostiene que el cristianismo llegó a Alejandría a mediados del siglo I d.C., cuando Marcos el evangelista llegó a la ciudad para predicar la nueva religión.

        Busto de Platón.

 

Las similitudes espirituales entre el platonismo y el cristianismo fueron advertidas de forma muy clara por Clemente de Alejandría (150-215 d.C.), pero fue Filón el indio quien primero desarrolló esta nueva fusión. En Alejandría habían existido escuelas pitagóricas y platónicas desde hacía un largo tiempo, y los judíos cultos conocían los paralelos entre las ideas judías y las tradiciones Geténicas, hasta el punto de que para muchos de ellos el orfismo no era otra cosa que “una emanación de la Torá de la que no había quedado constancia”.

Filón era el típico alejandrino que “nunca confiaba en el sentido literal de las cosas y siempre estaba a la búsqueda de interpretaciones músticas y alegóricas”. Pensaba que podía “conectar” con Dios a través de ideas divinas, que las ideas eran “los pensamientos de Dios” porque ponían orden a la “materia informe”. Al igual que Platón, tenía una noción dualista de la Humanidad:

“De las almas puras que habitan el espacio etéreo, aquellas más cercanas a la tierra resultan atraídas por los seres sensibles y descienden a sus cuerpos”.

Las almas son el lado divino del hombre.

Es interesante reparar los hechos pasados y la evolución del pensamiento humano que, en distintos lugares del mundo y bajo distintas formas, todos iban en realidad a desembocar en el mismo mar del pensamiento.

La naturaleza humana y el orden universal, el primero unido a un alto concepto cuasi divino, el Alma, el segundo regido por la energía cósmica de las fuerzas naturales creadoras de la materia y, todo esto, desarrollado de una u otra manera por los grandes pensadores de todos los tiempos que hicieron posible la evolución del saber para tomar posesión de profundos conocimiento que, en un futuro, nos podrán permitir alcanzar metas, que aún hoy, serían negadas por muchos.

Para mí, el mirar los hechos pasados y estudiar los logros alcanzados en todos los campos del saber, es una auténtica aventura que profundiza y lleva al conocimiento del ser humano que, según la historia, es capaz de lo mejor y de lo pero, sin embargo, nadie podrá negarle grandeza ni imaginación.

”El último día del Carnaval de Florencia de 1.497 (y lo mismo ocurrió al año siguiente) apareció una construcción muy curiosa en medio de la Piazza Della Signoria, dominada por el Palazzo Vecchio. Donde se qumó la Hoguera de las Vanidades. Os lo cuento tal como pasó.

Estamos en tiempos de Carnaval y, no quiero dejar pasar la oportunidad de contaros una historia: Por ejemplo, el último día del carnaval de Florencia de 1.497 (y lo mismo ocurrió al año siguiente) apareció una construcción muy curiosa en medio de la Piazza Della Signoria, dominada por el Palazzo Vecchio.

El centro de la estructura estaba compuesto por varios tramos de escalera que formaban juntos una pirámide. En el escalón más bajo se había colocado distintos disfraces, más caras y barbas postizas utilizadas en el carnaval. Sobre ellos se encontraban algunos libros (tanto textos impresos como manuscritos) de poetas latinos e italianos, entre ellos Boccacccio y Tetrarca. Luego había varios utensilios de adorno femenino (espejos, velos, cosméticos, perfumes) y encima de ellos laúdes, arpas, barajas y piezas de ajedrez.

Las mentalidades de los pueblos cambian con el tiempo y, las costumbres, aunque se van pasando de generación en generación, también se transforman hasta que, finalmente, llegan a ser otra cosa distinta de la que quiso ser. Sin embargo, algunas cosas, machaconamente persisten y se repiten una y otra vez, son las costumbres ancestrlaes que perduran.

En la cima de esta extraña edificación había dos niveles en los que había dispuestos algunos cuadros; se trataba de cuadros de un tipo especial, ya que mostraban beldades y en particular beldades con nombres clásicos: Lucrecia, Cleopatra, Faustina, Bencina.

Las hogueras de Savonarola (1452 – 1498)

Girolamo Savonarola

CURIOSA HISTORIA la de las hogueras de Girolamo Savonarola, vehemente sacerdote de la orden dominica que enfervorizaba a las masas en sus discursos en la Florencia del siglo XV, en pleno Renacimiento. Tras cultivarse en su juventud y dejar inacabados estudios de medicina decidió estudiar teología. Con el tiempo, ingresó en la orden de los dominicos donde pasó por diversos conventos hasta ser nombrado Prior de San Marcos, en Florencia.

Cuando se prendió fuego a esta “hoguera de las vanidades”, los miembros de la Signoria, la asamblea política, contemplaron el acontecimiento desde los balcones de sus palacios. Se tocó la música, se cantó y repicaron las campanas de la Iglesia.

A continuación, toda la gente se trasladó a la Piazza di San Marco donde, para bailar, formaron tres círculos concéntricos. Los monjes ocupaban el central, alternados con niños vestidos como ángeles; después venían otros eclesiásticos y por último los ciudadanos en general.

Todo esto se realizó para satisfacción del profeta dominico fray Girolamo Savonarola, de Ferrara. “Agudo y carismático”, convencido de que Dios le había enviado para propiciar la reforma espiritual de los italianos y de la del predicador, altísima posición “solo inferior a la de los ángeles”. Buscaba regenerar la Iglesia a través de una serie de escenarios como el descrito, y en cada uno de ellos, destruía un mal.

Los pensadores del Renacimiento creían que todo el Universo era un modelo de la idea divina y que el hombre era “un creador que venía después del creador divino”. Esta concepción era el concepto de belleza, una forma de armonía que reflejaba las intenciones de la divinidad.

Lo que era placentero para los ojos, el oído y la mente era bueno, moralmente valioso en sí mismo. Más aún: revelaba parte del plan divino para la Humanidad, pues evidenciaba la relación de las partes con el todo.

Este ideal renacentista de belleza respaldaba la noción de que esta tenía dos funciones, noción aplicable a todas las disciplinas. En un nivel, la arquitectura, las artes visuales, la música y los aspectos formales de las artes literarias y dramáticas informaban a la mente; en segundo nivel, la complacían mediante el decoro, el estilo y la simetría. De esta forma se estableció una asociación entre belleza e ilustración. También esto era lo que entonces significaba la sabiduría.

El fin perseguido era el deseo de universalidad personal, la consecución de conocimientos universales, la conjunción de disciplinas diferentes como ramas del todo, del saber profundo que abarcaba desde el núcleo las distintas esferas del conocimiento universales, la conjunción de disciplinas diferentes como ramas del todo, del saber profundo que abarcaba desde el núcleo las distintas esferas del conocimiento como partes de ese todo.

El reconocimiento de la belleza se funda en los dones divinos del intelecto humano. Durante el Renacimiento se escribieron unos cuarenta y tres tratados sobre la belleza. La idea de hombre universal es una idea común a casi todos ellos.

Peter Burke ha destacado a quince hombres universales del Renacimiento (“universales” en tanto evidenciaron su talento, más allá del mero diletantismo, en tres o más campos):

  • Filippo Brunelleschi (1377-1446), arquitecto, ingeniero, escultor, pintor.
  • Antonio Filarete (1400-1465), arquitecto, escultor escritor.
  • León Battista Alberti (1404-1472), arquitecto, escritor, pintor.
  • Lorenzo Vecchietta (1405-1489), arquitecto, pintor, escultor, ingeniero.
  • Bernard Zenale (1436-1526), arquitecto, pintor, escritor.
  • Francesco di Giorgio Martín (1439-1506), arquitecto, ingeniero, escultor, pintor.
  • Donato Bramante (1444-1514), arquitecto, ingeniero, pintor, poeta.
  • Leonardo da Vinci (1452-1519), arquitecto, escultor, pintor, científico.
  • Giovanni Giocondo (1457-1525), arquitecto, ingeniero, humanista.
  • Silvestre Aquilano (antes de 1471-1504), arquitecto, escultor, pintor.
  • Sebastiano Serlio (1475-1554), arquitecto, pintor, escritor.
  • Michelangelo Buonarroti (1475-1464), arquitecto, escultor, pintor, escritor.
  • Guido Masón (antes de 1.477-1518), escritor, pintor, productor teatral.
  • Piero Liborio (1500-1583), arquitecto, ingeniero, escultor, pintor.
  • Giorgio Vasari (1511-1574), arquitecto, escritor, escultor y pintor.

El que esto está leyendo advertirá que en esta lista, de un total de quince hombres universales, catorce eran arquitectos, trece pintores, diez escultores, seis ingenieros y seis escritores. Solo un científico.

¿Qué tenía en particular la arquitectura para ocupar un lugar tan destacado frente a todas las demás actividades? En el Renacimiento, la aspiración de muchos artistas era el progreso arquitectónico. En el siglo XV la arquitectura era una de las actividades que más se aproximaban a las artes liberales, mientras que la pintura y la escultura era sólo mecánica. Esto cambiaría después, pero ayuda a explicar las prioridades en la Italia del quattrocento. Otro día os contaré esta historia de los 15 elegidos.

emilio silvera