Ene
14
Las interacciones fundamentales
por Emilio Silvera ~
Clasificado en Interacciones fundamentales ~
Comments (2)
Como pueden haber deducido, me estoy refiriendo a cualquiera de los cuatro tipos diferentes de interacciones que pueden ocurrir entre los cuerpos. Estas interacciones pueden tener lugar incluso cuando los cuerpos no están en contacto físico y juntas pueden explicar todas las fuerzas que se observan en el universo.
No parece que la Gravedad esté por la labor de unirse a las otras fuerzas
Viene de lejos el deseo de muchos físicos que han tratado de unificar en una teoría o modelo a las cuatro fuerzas, que pudieran expresarse mediante un conjunto de ecuaciones. Einstein se pasó los últimos años de su vida intentándolo, pero igual que otros antes y después de él, aún no se ha conseguido dicha teoría unificadora de los cuatro interacciones fundamentales del universo. Se han hecho progresos en la unificación de interacciones electromagnéticas y débiles.
Figuras
Estos diagramas son una concepción artística de los procesos físicos. No son exactos y no están hechos a escala. Las áreas sombreadas con verde representan la nube de gluones o bien el campo del gluón, las líneas rojas son las trayectorias de los quarks.
En el texto del recuadro dice: Un neutrón decae en un protón, un electrón y un antineutrino, a través de un bosón virtual (mediador). Este es el decaimiento beta del neutrón.
En el texto del recuadro dice: Una colisión electrón – positrón (antielectrón) a alta energía puede aniquilarlos para producir mesones B0 y Bbarra0 a través de un bosón Z virtual o de un fotón virtual.
El texto del recuadro dice: Dos protones que colisionan a alta energía pueden producir varios hadrones más partículas de masa muy grande tales como los bosones Z. Este tipo de suceso es raro pero puede darnos claves cruciales sobre cómo es la estructura de la materia.
Aunque no pueda dar esa sensación, todo está relacionado con las interacciones fundamentales de la materia en el entorno del espacio-tiempo en el que se mueven y conforman objetos de las más variadas estructuras que en el Universo podemos contemplar, desde una hormiga a una estrella, un mundo o una galaxia. Las fuerzas fundamentales de la Naturaleza siempre están presentes y de alguna manera, afecta a todo y a todos.
Cuando hablamos de la relatividad general, todos pensamos en la fuerza gravitatoria que es unas 1040veces más débil que la fuerza electromagnética. Es la más débil de todas las fuerzas y sólo actúa entre los cuerpos que tienen masa. Es siempre atractiva y pierde intensidad a medida que las distancias entre los cuerpos se agrandan.
El Gravitón es la única partícula mediadora de una fuerza ( de la Gravedad), que no se deja ver
Como ya se ha dicho, su cuanto de gravitación, el gravitón, es también un concepto útil en algunos contextos. En la escala atómica, esta fuerza es despreciablemente débil, pero a escala cosmológica, donde las masas son enormes, es inmensamente importante para mantener a los componentes del universo juntos. De hecho, sin esta fuerza no existiría el Sistema Solar ni las galaxias, y seguramente, nosotros tampoco estaríamos aquí. Es la fuerza que tira de nuestros pies y los mantiene firmemente asentados a la superficie del planeta. Aunque la teoría clásica de la gravedad fue la que nos dejó Isaac Newton, la teoría macroscópica bien definida y sin fisuras de la gravitación universal es la relatividad general de Einstein, mucho más completa y profunda.
Seguimos buscando respuestas a muchos enigmas presentes en el Universo que no sabemos explicar
Nadie ha podido lograr, hasta el momento, formular una teoría coherente de la Gravedad Cuántica que unifique las dos teorías. Claro que, la cosa no será nada fácil, ya que, mientras que aquella nos habla del macrocosmos, ésta otra nos lleva al microcosmos, son dos fuerzas antagónicas que nos empeñamos en casar.
Seguimos empeñados en buscar esa teoría que una lo muy grande con lo muy pequeño y la Gravedad, hasta el momento no da el sí
Por el momento, no hay una teoría cuántica de la interacción gravitatoria satisfactoria. Es posible que la teoría de supercuerdas pueda dar una teoría cuántica de la gravitación consistente, además de unificar la gravedad con los demás interacciones fundamentales sin que surjan los dichosos e indeseados infinitos.
Las partículas colisionan ente sí y se producen cambios y transiciones de fase
Algunos han puesto en duda la realidad del Modelo Estándar que, como se ha dicho aquí en otros trabajos, está construido con el contenido de una veintena de parámetros aleatorios (entre ellos el Bosón que los del LHC anunciaron haber encontrado a bombo y platillo, pero del que no han dado todas las explicaciones necesarias)) que son necesarias para dar una conformidad a todo su entramado que, aunque hasta el momento ha sido una eficaz herramienta de la física, también es posible que sea la única herramienta que hemos sabido construir pero que no es… ¡la herramienta! ideal.
No podemos negar que, a pesar de sus carencias, ha sido una magnifica herramienta de trabajo
Es posible que solo sea cuestión de tiempo y de más investigación y experimento. En el sentido de la insatisfacción reinante entre algunos sectores, se encuentran los físicos del experimento de alta energía BaBar, en el SLAC, un acelerador lineal situado en Stanford (California). Según ellos, la desintegración de un tipo de partículas llamado «B to D-star-tau-nu» es mucho más frecuente de lo predicho por el modelo estándar. Puede que no sea importante y puede que, hasta la existencia del Bosón de Higgs esté en peligro a pesar de que en el LHC digan que se ha encontrado.
Esquema del decaimiento Beta y una sencilla explicación de la interacción débil
La fuerza débil recibe su nombre porque a la escala de sus interacciones es la más débil dentro del modelo estándar. Pero ojo, esto no incluye la gravedad, puesto que la gravedad no pertenece al modelo estándar por el momento. La interacción débil ocurre a una escala de metros, es decir, la centésima parte del diámetro de un protón y en una escala de tiempos muy variada, desde segundos hasta unos 5 minutos. Para hacernos una idea, esta diferencia de órdenes de magnitud es la misma que hay entre 1 segundo y 30 millones de años.
La interacción débil, que es unas 1010 veces menor que la interacción electromagnética, ocurre entre leptones y en la desintegración de los hadrones. Es responsable de la desintegración beta de las partículas y núcleos. En el modelo actual, la interacción débil se entiende como una fuerza mediada por el intercambio de partículas virtuales, llamadas bosones vectoriales intermediarios, que para esta fuerza son las partículas W+, W– y Z0. Las interacciones débiles son descritas por la teoría electrodébil, que las unifica con las interacciones electromagnéticas.
Propiedades de los Bosones mediadores intermediarios de la fuerza débil
La teoría electrodébil es una teoría gauge de éxito que fue propuesta en 1.967 por Steven Weinberg y Abdus Salam, conocida como modelo WS. También Sheldon Glashow, propuso otra similar.
La interacción electromagnética es la responsable de las fuerzas que controlan la estructura atómica, reacciones químicas y todos los fenómenos electromagnéticos. Puede explicar las fuerzas entre las partículas cargadas, pero al contrario que las interacciones gravitacionales, pueden ser tanto atractivas como repulsivas. Algunas partículas neutras se desintegran por interacciones electromagnéticas. La interacción se puede interpretar tanto como un modelo clásico de fuerzas (ley de Coulomb) como por el intercambio de unos fotones virtuales. Igual que en las interacciones gravitatorias, el hecho de que las interacciones electromagnéticas sean de largo alcance significa que tiene una teoría clásica bien definida dadas por las ecuaciones de Maxwell. La teoría cuántica de las interacciones electromagnéticas se describe con la electrodinámica cuántica, que es una forma sencilla de teoría gauge.
El electromagnetismo está presente por todo el Universo
La interacción fuerte es unas 102 veces mayor que la interacción electromagnética y, como ya se dijo antes, aparece sólo entre los hadrones y es la responsable de las fuerzas entre nucleones que confiere a los núcleos de los átomos su gran estabilidad. Actúa a muy corta distancia dentro del núcleo (10-15 metros) y se puede interpretar como una interacción mediada por el intercambio de mesones virtuales llamados Gluones. Está descrita por una teoría gauge llamada Cromodinámica cuántica.
La interacción fuerte, también conocida como interacción nuclear fuerte, es la interacción que permite unirse a los quarks para formar hadrones. A pesar de su fuerte intensidad, su efecto sólo se aprecia a distancias muy cortas del orden del radio atómico. Según el Modelo estándar, la partícula mediadora de esta fuerza es el Gluón. La teoría que describe a esta interacción es la cromodinámica cuántica (QCD) y fue propuesta por David Politzer, Frank Wilczek y David Gross en la década de 1980 y por lo que recibieron el Nobel 30 años más tarde cuando el experimento conformó su teoría.
La interacción fuerte, como se ha explicado muchas veces, es la más fuerte de todas las fuerzas fundamentales de la Naturaleza, es la responsable de mantener unidos los protones y neutrones en el núcleo del átomo. Como los protones y neutrones están compuestos de Quarks, éstos dentro de dichos bariones, están sometidos o confinados en aquel recinto, y, no se pueden separar por impedirlo los gluones que ejercen la fuerza fuerte, es decir, esta fuerza, al contrario que las demás, cuando más se alejan los quarks los unos de los otros más fuerte es. Aumenta con la distancia.
En la incipiente teoría del campo electromagnético sugerida por Faraday, desaparecía la distinción esencial entre fuerza y materia, introduciendo la hipótesis de que las fuerzas constituyen un campo y la única sustancia física… (?)
Las características de las fuerzas eran:
-
Cada punto de fuerza actúa directamente sólo sobre los puntos vecinos.
-
La propagación de cualquier cambio de la intensidad de la fuerza requiere un tiempo finito.
-
Todas las fuerzas son básicamente de la misma clase; no hay en el fondo fuerzas eléctricas, magnéticas ni gravitatorias, sino sólo variaciones (probablemente geométricas) de un sólo tipo de fuerza subyacente.
Lo importante al considerar la influencia de la metafísica de Faraday en sus investigaciones, es su suposición de que la teoría de campos ofrece una explicación última a todos los fenómenos. Los cuerpos sólidos, los campos eléctricos y la masa de los objetos son, de alguna forma, sólo apariencias. La realidad subyacente es el campo, y el problema de Faraday era encontrar un lazo de unión entre las apariencias y la supuesta realidad subyacente.
Estaría bueno que al final del camino se descubriera que todas son una sola fuerza con distintas manifestaciones según el escenario del momento.
El concepto de campo de Faraday ha dado mucho juego en Física, es un concepto ideal para explicar ciertos fenómenos que se han podido observar en las investigaciones de las fuerzas fundamentales y otros. El campo no se ve, sin embargo, está ahí, rodea los cuerpos como, por ejemplo, un electrón o el planeta Tierra que emite su campo electromagnético a su alrededor y que tan útil nos resulta para evitar problemas.
Me he referido a una teoría gauge que son teorías cuánticas de campo creadas para explicar las interacciones fundamentales. Una teoría gauge requiere un grupo de simetría para los campos y las potenciales (el grupo gauge). En el caso de la electrodinámica, el grupo es abeliano, mientras que las teorías gauge para las interacciones fuertes y débiles utilizan grupos no abelianos. Las teorías gauge no abelianas son conocidas como teorías de Yang–Mills. Esta diferencia explica por qué la electrodinámica cuántica es una teoría mucho más simple que la cromodinámica cuántica, que describe las interacciones fuertes, y la teoría electrodébil que unifica la fuerza débil con la electromagnética. En el caso de la gravedad cuántica, el grupo gauge es mucho más complicado que los anteriores necesarios para la fuerza fuerte y electrodébil.
En las teorías gauge, las interacciones entre partículas se pueden explicar por el intercambio de partículas (bosones vectoriales intermediarios o bosones gante), como los gluones, fotones y los W y Z.
El físico Enrico Fermi, refiriéndose al gran número de partículas existentes, dijo: “Si tuviera que saber el nombre de todas las partículas, me habría hecho botánico.” Por todo lo antes expuesto, es preciso conocer los grupos o familias más importantes de partículas, y lógicamente saber el cometido que cada una de ellas desempeña en la trama del “mundo”. Todo está descrito en el “universo” cuántico, allí donde “viven” todos esos objetos infinitesimales que son la base de todo lo grande que vemos en el Universo.
– Protón, que es una partícula elemental estable que tiene una carga positiva igual en magnitud a la del electrón y posee una masa de 1’672614×10-27 Kg, que es 1836,12 veces la del electrón. El protón aparece en los núcleos atómicos, por eso es un nucleón que estáformado por partículas más simples, los Quarks. Es decir, un protón está formado por dos quarks up y un quark down.
– Neutrón, que es un hadrón como el protón pero con carga neutra y también permanece en el núcleo, pero que se desintegra en un protón, un electrón y un antineutrino con una vida media de 12 minutos fuera del núcleo. Su masa es ligeramente mayor que la del protón (símbolo mn), siendo de 1’6749286(10)×10-27 kg. Los neutrones aparecen en todos los núcleos atómicos excepto en el del hidrógeno que está formado por un solo protón. Su existencia fue descubierta y anunciada por primera vez en 1.932 por James Chadwick (1891-1974. El protón está formado por tres quarks, dos quarks down y un quark up. Fijáos en la diferencia entre las dos partículas: la aparentemente minúscula diferencia hace que las dos partículas “hermanas” se comporten de formas muy distintas: la carga del protón es +2/3 +2/3 -1/3 = +1. Pero como el neutrón tiene up/down/down su carga es +2/3 -1/3 -1/3 = 0. ¡No tiene carga! No porque no haya nada con carga en él, sino porque las cargas que hay en su interior se anulan.
Andamos a la caza de los neutrinos
Los neutrinos, se cree que no tienen masa o, muy poca, y, su localización es difícil. Se han imaginado grandes recipientes llenos de agua pesada que, enterrados a mucha profundidad en las entrañas de la Tierra, en Minas abandonadas, captan los neutrinos provenientes del Sol y otros objetos celestes, explosiones supernovas, etc.
– Neutrino, que es un leptón que existe en tres formas exactas pero (se cree que) con distintas masas. Tenemos el ve (neutrino electrónico) que acompaña al electrón, vμ (neutrino muónico) que acompaña al muón, y vt (neutrino tau) que acompaña a la partícula tau, la más pesada de las tres. Cada forma de neutrino tiene su propia antipartícula.
El neutrino fue postulado en 1.931 para explicar la “energía perdida” en la desintegración beta. Fue identificado de forma tentativa en 1.953 y definitivamente en 1.956. Los neutrinos no tienen carga y se piensa que tienen masa en reposo nula y viajan a la velocidad de la luz, como el fotón. Hay teorías de gran unificación que predicen neutrinos con masa no nula, pero no hay evidencia concluyente.
Se ha conseguido fotografíar a un electrón. Poder filmar y fotografiar un electrón no es fácil por dos razones: primero, gira alrededor del núcleo atómico cada 0,000000000000000140 segundos , y, segundo, porque para fotografiar un electrón es necesario bombardearlo con partículas de luz (y cualquier que haya intentado sacarle una foto a un electrón sabe que hay que hacerlo sin flash).
– Electrón, que es una partícula elemental clasificada como leptón, con una carga de 9’109 3897 (54)×10-31Kg y una carga negativa de 1´602 177 33 (49) x 10-19 culombios. Los electrones están presentes en todos los átomos en agrupamientos llamados capas alrededor están presentes en todos los átomos en agrupamientos llamados capas alrededor del núcleo; cuando son arrancados del átomo se llaman electrones libres. Su antipartícula es el positrón, predicha por Paul Dirac.
El núcleo del átomo constituye el 99% de la masa
En los átomos existen el mismo número de protones que el de electrones, y, las cargas positivas de los protones son iguales que las negativas de los electrones, y, de esa manera, se consigue la estabilidad del átomo al equilibrarse las dos fuerzas contrapuestas. El electrón fue descubierto en 1.897 por el físico británico Joseph John Thomson (1.856 – 1940). El problema de la estructura (si la hay) del electrón no está resuelto. Si el electrón se considera como una carga puntual, su autoenergía es infinita y surgen dificultades en la ecuación conocida como de Lorentz–Dirac.
Es posible dar al electrón un tamaño no nulo con un radio ro, llamado radio clásico del electrón, dado por e2/(mc2) = 2’82×10-13cm, donde e y m son la carga y la masa, respectivamente, del electrón y c es la velocidad de la luz. Este modelo también tiene problemas, como la necesidad de postular las tensiones de Poincaré.
Muchas son las partículas de las que aquí podríamos hablar, sin embargo, me he limitado a las que componen la materia, es decir Quarks y Leptones que conforman Protones y Neutrones, los nucleaones del átomo que son rodeados por los electrones. El Modelo Estándar es la herramienta con la ue los físicos trabajan (de momento) hasta que surjan nuevas y más avanzadas teorías que permitan un modelo más eficaz y realista. De Wikipedia he cogido el cuadro comparativo de las fuerzas.
Tabla comparativa
Interacción7 | Teoría descriptiva | Mediadores | Fuerza relativa | Comportamiento con la distancia (r) | Alcance (m) |
---|---|---|---|---|---|
Fuerte | Cromodinámica cuántica (QCD) | gluones | 1038 | ![]() |
10-15 |
Electromagnética | Electrodinámica cuántica (QED) | fotones | 1036 | ![]() |
![]() |
Débil | Teoría electrodébil | bosones W y Z | 1025 | ![]() |
10-18 |
Gravitatoria | Gravedad cuántica | gravitones(hipotéticos) | 1 | ![]() |
![]() |
La teoría cuántica de campos es el marco general dentro del cual se inscriben la cromodinámica cuántica, la teoría electrodébil y la electrodinámica cuántica. Por otra parte la “gravedad cuántica” actualmente no consiste en un marco general único sino un conjunto de propuestas que tratan de unificar la teoría cuántica de campos y la relatividad general.
Van surgiendo por ahí nuevas conjeturas como, por ejemplo, las de Maldacena.
“Las consecuencias de esta conjetura son muy importantes, pues existe la posibilidad de que el resto de interacciones (electromagnéticas y nucleares) sean tan sólo una ilusión, el reflejo sobre el cristal de un escaparate del contenido de la tienda. Así, podría ser que el electromagnetismo tan sólo sea la imagen proyectada de la interacción de algunas cuerdas en un supuesto interior del espacio-tiempo. De la misma manera, la necesidad de compactificar las dimensiones adicionales desaparece en cierto modo si consideramos que, quizás, nuestro mundo sea solamente la frontera; siendo el interior del espacio-tiempo inaccesible.”
Que gran sorpresa sería si al final del camino se descubriera que en realidad solo existe una sola fuerza: La Gravedad, de la que se derivan las otras tres que hemos podido conocer en sus ámbitos particulares y que, ¿por qué no? podrían surgir a partir de aquella primera y única fuerza existente en los principios o comienzos del Universo: ¡La Gravedad! Que no acabamos de comprender.
emilio silvera
Ene
14
El Universo y la Vida… ¡Nuestra imaginación!
por Emilio Silvera ~
Clasificado en El Universo y... ¿nosotros? ~
Comments (0)
“Una inteligencia que conociese, en un momento determinado, todas las fuerzas que operan en la Naturaleza, así como las posiciones momentáneas de todas las cosas que constituyen el universo, sería capaz de condensar en una sola fórmula los movimientos de los cuerpos más grandes del mundo y los de los átomos más ligeros, siempre que su intelecto sea bastante poderoso para someter a análisis todos los datos; para él nada sería incierto, el pasado y el futuro estarían presentes ante sus ojos.”
Inmensas galaxias cuajadas de estrellas, nebulosas y mundos. Espacios interestelares en los que se producen transmutaciones de materia que realizan el asombroso “milagro” de convertir unas cosas en otras distintas. Un Caos que lleva hacia la normalidad. Estrellas que explosionan y riegan el espacio de gas y polvo constituyentes de materiales en el que se forjarán nuevas estrellas, nuevos mundos y nuevas formas de vida. Así es como ocurren las cosas en este universo nuestro que no hemos llegado a conocer. De hecho, ni sabemos a ciencia cierta si su “nacimiento” fue debido, realmente, al Big Bang.
No, no es un cuadro salido de la mano de un pintor, es un paisaje que ha fabricado la mano de la Naturaleza. El sitio está a menos de 25 Km de mi casa y, con frecuencia, me acerco a contemplarlo y maravillarme de lo mucho que se nos ofrece y que no siempre, sabemos apreciar. De estas pequeñas cosas está hecha la felicidad.
No pocas veces nos tenemos que maravillar ante las obras de la Naturaleza, en ocasiones, con pinceladas de las propias obras que nosotros mismos hemos sido capaces de crear. Así, no es extraño que algunos piensen que la Naturaleza nos creó para conseguir sus fines, que el universo nos trajo aquí para poder contemplarse así mismo.
Un mundo sometido a dos soles y dependiendo de la distancia del planeta… será o no agradable
Siempre hemos tratado de saber lo que el Universo es, lo que la Naturaleza esconde para conocer los mecanismos de que ésta se vale para poder hacer las maravillas que podemos contemplar tanto en la Tierra como en el Espacio Interestelar donde moran las galaxias. En nuestro mundo, los Valles, ríos y montañas, hermosos bosques de lujuriante belleza , océanos inmensos llenos de formas de vida y criaturas conscientes de todo eso que, aunque algunas veces temerosas ante tanto poder, no por ello dejan de querer saber el origen de todo.
Como niños jugando en una inmensidad, imaginando que dominamos el medio que nos acoge
¿Es posible que nos creamos más de lo que en realidad somos? Queremos jugar con fuerzas que no hemos llegado a comprender y, desde las estrellas y las inmensas galaxias, hasta los mundos y las fuerzas que todo lo rigen en el Universo, hemos querido conocer para poder, con esos conocimientos, recrear la misma creación. En el LHC hemos buscado el origen de la materia y, ahora, de nuevo se pondrá en marcha con doble capacidad energética para hurgar en las entrañas del misterio que esconde la materia. Los científicos han dado ya el primer paso para la creación de la vida sintética, han sido capaces de crear un cromosoma completo a partir de una célula de levadura. El logro es considerado un gran hallazgo dentro de la biología sintética, que busca diseñar organismos desde sus principios más básicos.
¿Hasta dónde queremos llegar?
A veces, viendo como se desarrollan las cosas y cómo se desenvuelven los hechos a medida que el Tiempo transcurre, no tenemos más remedio que pensar que parece como sí la Naturaleza supiera que estamos aquí y, desde luego, nos tiene impuesto límites que no podemos traspasar hasta que “ella” no considera que estamos preparado para ello. Un amigo asiduo a éste lugar nos decía que la Naturaleza nos preserva de nosotros mismos. Nosotros, los humanos, no conocemos ninguna regla que nos prohíba intentar todo aquello que podamos imaginar y, de esa manera, a veces, jugamos a ser dioses sin mirar las consecuencias de las fuerzas que manejamos.
Abarcarlo todo nunca podremos
Lo cierto es que, los límites, los impone nuestra ignorancia y, a medida que vamos avanzando en el saber del mundo, de la Naturaleza y del Universo en fin, alcanzamos cotas de realización que años antes eran impensables. Tecnologías inimaginables que ya están con nosotros y nos posibilitan para realizar “milagros” en una gran variedad de campos del saber humano.
Desde la noche de los tiempos, cuando éramos seres sin conocimiento alguno y asustados mirábamos los truenos, o asombrados contemplábamos las estrellas del cielo, cuando no sabíamos explicar todas aquellas maravillas que ahora nos son cotidianas como la noche y el día, las estaciones, las erupciones volcánicas y los terremotos, fenómenos naturales que tienen una sencilla explicación, desde entonces digo, el misterio ha caminado con nosotros y, nuestras débiles espaldas ha tenido que cargar con la pesada ignorancia que ha lastrado nuestro caminar hacia el futuro. Después de miles de años de mirar hacia el firmamento y hacernos múltiples preguntas, con la unión de muchas mentes, hemos podido llegar a un aceptable modelo de lo que puede ser el Universo, de las fuerzas que lo rigen, de cómo son los mundos y del por qué en algunos puede existir la vida y en otros no.
Pero, ¿acaso no somos, nosotros mismos universo? Dicen que genio es aquel que puede plasmar en realidad sus pensamientos y, aunque nos queda mucho camino por recorrer, lo cierto es que, hasta el momento presente, mucho de eso se ha plasmado ya. Es decir, hemos sabido de qué están hechas las estrellas, conocemos la existencias de las grandes estructuras del Universo constituidas por cúmulos y supercúmulos de galaxias, sabemos de mundos en los que, con mucha probabilidad puedan existir criaturas diversas que, conscientes o no, piensen, como nosotros, en todos los secretos que el Universo esconde.
POcas veces pensamos, al mirar a las estrellas, los mecanismos que en ellas se están produciendo para producir elementos esenciales para la vida como el Carbono. Ahí el camino del Efecto Triple Alfa
Las estrellas brillan en el cielo y tal hecho, hizo posible que nosotros estemos aquí descubriendo los enigmas del Universo, de los mecanismos que lo rigen, de la materia y de la energía que está presente y, ¿por qué no? de la vida inteligente que en él ha llegado a evolucionar. En las estrellas se crean los elementos esenciales para la vida. Esos elementos esenciales para la vida están creándose en los hornos nucleares de las estrellas. Allí, mediante transiciones de fases a muy altas temperaturas, se hace posible la fusión que se produce venciendo la barrera de Coulomb, y a partir del simple Hidrógeno, hacer aparecer materia más compleja que más tarde, mediante procesos físico-químicos-biológicos, hacen posible el surgir de lavida bajo ciertas circunstancias y condiciones especiales de planetas y de la estrellas que teniendo las condiciones similares al Sol y la Tierra, lo hace inevitable.
Sinceramente creo que, dentro de nosotros, están todas las respuestas a las preguntas que podamos plantear, toda vez que, como parte del Universo que somos, en nuestros genes, en lo más profundo de nuestras mentes están grabados todos los recuerdos y, siendo así, solo se trata de recordar para saber lo que pasó, para comprender los orígenes y, finalmente saber, el por qué estamos aquí y para qué. Nos hemos olvidado de que somos “polvo de estrellas”, los materiales que nos conforman se forjaron en los “hornos” nucleares de los astros que brillan en el firmamento lejano. A temperaturas de millones de grados se pudieron fusionar los elementos que hoy están en nosotros. Una Supernova, hace miles de millones de años, hizo brillar el cielo con un resplandor cegador, una enorme región quedó sembrada de materiales en forma de Nebulosa que, con el paso de los eones, conformó un sistema planetario con un Sol central que le daba luz y calor a un pequeño planeta que, mucho después, llamaron Tierra. Los seres que allí surgieron y evolucionaron, eran el producto de grandes transiciones de fase y cambios que, desde el Caos hizo todo el recorrido necesario hasta la creación de la Vida consciente.
Nebulosa: La Piel de Zorra, el Unicornio, y, el Árbol de Navidad
“El brillante gas de hidrógeno es el protagonista de esta maravillosa vista en detalle de la estrella variable S Mon en la débil pero preciosa constelación de Monoceros ,el Unicornio.
En esta región de formación de estrellas (NGC 2264 ), la compleja unión de gas y nubes de polvo yace a unos 2700 años luz y se mezcla con la rojiza emisión nebular excitada por la luz energética de estrellas nuevas y la oscura capa de nubes de polvo.”
La Tierra primitiva tuvo que enfriarse antes que de surgiera la vida
Pero está claro, como digo, que todo el proceso estelar evolutivo inorgánico nos condujo desde el simple gas y polvo cósmico a la formación de estrellas y nebulosas y mundos, la Tierra primigenia en particular, en cuyo medio ígneo, procesos dinámicos dieron lugar a la formación de las estructuras y de los silicatos, desplegándose con ello una enorme diversidad de composiciones, formas y colores, asistiéndose, por primera vez en la historia de la materia, a unas manifestaciones que contrastan con las que hemos mencionado en relación al proceso de las estrellas.
Desde el punto de vista del orden es la primera vez que nos encontramos con objetos de tamaño comparables al nuestro, en los que la ordenación de sus constituyentes es el rasgo más característico. Partiendo de un Caos inicial se han ido acumulando los procesos necesarios para llegar a un orden que, es digno del asombro que nos producen los signos de vida que podemos contemplar por todas partes y, desde luego, tampoco podemos dejar de maravillarnos de que la Naturaleza, valiéndose de mil artimañas, haya podido conseguir la presencia de vida consciente en un mundo, y, muy probablemente, en muchos mundos de muchas galaxias en todo el Universo.
De esa manera, sin lugar a ninguna duda, podemos hablar de un Universo viviente en el que, la materia evoluciona hasta la vida y los pensamientos. En el que en un carrusel sin fin surgen nuevas estrellas y nuevos mundos en los que, como en la Tierra, pasando el tiempo, también surgirá la vida que, podrá ser… ¡de tántas maneras! Una galaxia como la Vía Láctea puede tener más de cien mil millones de estrellas, en el universo pueden estar presentes más de cien mil millones de galaxias, los mundos que existen en una sola galaxia son cientos de miles de millones y, sabiendo todo eso, ¿Cómo poder pensar que la vida sea única en la Tierra?
“La vida se abre paso… ¡imparable!” No me puedo resistir a reproducir aquellas frases de Darwin:
“…en alguna pequeña charca caliente, tendrían la oportunidad de hacer el trabajo y organizarse en sistemas vivos…” Eso comentaba Darwin sobre lo que podría ocurrir en la Naturaleza. Hemos podido constatar la persistencia con la que la vida, se abre paso en este mundo, la hemos podido hallar en lugares tan insólitos como fumarolas marinas a más de 100 ºC, o en aguas con una salinidad extrema, o, a varios kilómetros de profundidad bajo tierra, o, nutriéndose de metales, o metanógenas y alófilas y tantas otras infinitesimales criaturas que nos han causado asombro y maravilla.
Si, amigos míos, en lo que a la vida se refiere, ésta se abre paso en los lugares más extremos e inesperados por muy malas condiciones que allí puedan estar presentes.De la misma manera, podrían estar situadas en mundos lejanos que, con unas condiciones distintas a las de la Tierra, se puedan haber creado criaturas que ni nuestra desbordante imaginación pueda configurar en la mente.
Porque, ¿qué sabemos en realidad de lo que llamamos materia inerte? Lo único que sabemos de ella son los datos referidos a sus condiciones físicas de dureza, composición, etc.; en otros aspectos ni sabemos si pueden existir otras propiedades distintas a las meramente físicas. ¿No os hace pensar que nosotros estemos hechos, precisamente, de lo que llamamos materia inerte?
Pero el mundo inorgánico es sólo una parte del inmenso mundo molecular. El resto lo constituye el mundo orgánico, que es el de las moléculas que contienen carbono y otros átomos y del que quedan excluidos, por convenio y características especiales, los carbonatos, bicarbonatos y carburos metálicos, los cuales se incluyen en el mundo inorgánico.
Hasta que supimos que existían otros sistemas planetarios en nuestra Galaxia, ni siquiera se podía considerar esta posibilidad como una prueba de que la vida planetaria fuera algo común en la Vía Láctea. Pero se sabe que más de cien estrellas de nuestra zona de la galaxia tienen planetas que describen órbitas alrededor de ellas. Casi todos los planetas descubiertos hasta ahora son gigantes de gas, como Júpiter y Saturno (como era de esperar, los planetas grandes se descubrieron primero, por ser más fáciles de detectar que los planetas pequeños), sin embargo es difícil no conjeturar que, allí, junto a estos planetas, posiblemente estarán también sus hermanos planetarios más pequeños que, como la Tierra, pudieran tener condiciones para generar la vida en cualquiera de sus millones de formas.
Es cierto que en todo el Universo rigen las mismas leyes y están presentes las mismas constantes universales que, ni con el paso del tiempo pueden variar, así la luz siempre irá a 300.000 Km/s, la carga del electrón será siempre la misma como la masa del protón y, gracias a que eso es así, podemos estar nosotros aquí para contarlo. Sin embargo, el Universo, no es uniforme y en el inmenso espacio interestelar impera la diversidad. ¡Y pensar que toda esta grandeza comienza a partir de unas infinitesimales partíoculas que conforman el núcleo de los átomos!
La composición de los núcleos (lo que en química se llama análisis cualitativo) es extraordinariamente sencilla, ya que como es sabido, constan de neutrones y protones que se pueden considerar como unidades que dentro del núcleo mantienen su identidad. Tal simplicidad cualitativa recuerda, por ejemplo, el caso de las series orgánicas, siendo la de los hidrocarburos saturados la más conocida. Recordad que su fórmula general es CnH2n+2, lo que significa que una molécula de hidrocarburo contiene n átomos de carbono (símbolo C) y (2n+2) átomos de hidrógeno (símbolo H).
El número de protones y neutrones determina al elemento, desde el hidrógeno (el más simple), al uranio (el más complejo), siempre referido a elementos naturales que son 92; el resto son artificiales, los conocidos transuránicos en cuyo grupo están el einstenio o el plutonio, artificiales todos ellos.
Los núcleos, como sistemas dinámicos de nucleones, pertenecen obviamente a la microfísica y, por consiguiente, para su descripción es necesario acudir a la mecánica cuántica. La materia, en general, aunque presumimos de conocerla, en realidad, nos queda mucho por aprender de ella.
Existe una amplia variedad de densidades dentro del medio interestelar. En la modalidad más ligera, la materia que está entre las estrellas es tan escasa que sólo hay un átomo por cada mil centímetros cúbicos de espacio: en la modalidad más densa, las nubes que están a punto de producir nuevas estrellas y nuevos planetas contienen un millón de átomos por centímetro cúbico. Sin embargo, esto es algo muy diluido si se compara con el aire que respiramos, donde cada centímetro cúbico contiene más de diez trillones de moléculas, pero incluso una diferencia de mil millones de veces en densidad sigue siendo un contraste espectacular.
La cuestión es que, unos pocos investigadores destacaron allá por 1.990 en que todos estos aspectos -composición, temperatura y densidad- en el medio interestelar dista mucho de ser uniforme. Por decirlo de otra manera más firme, no está en equilibrio, y parece que lo que lo mantiene lejos del equilibrio son unos pocos de procesos asociados con la generación de las pautas espirales.
Aquí, en las galaxias espirales, se crea entropía negativa. También nosotros, tenemos una manera de vencer a la inexorable Entropía que siempre acompaña al Tiempo, su transcurrir deja sentir sus efectos sobre las cosas que se hacen más viejas. Sin embargo, sabemos, como las galaxias, generar energía reproductora y, mientras que las galaxias crean estrellas nuevas y mundos, nosotros, recreamos la vida a partir de la unión entre hombre y mujer, y, de esa unión surgen otros seres que, perpetúan nuestra especie. Es la entropía negativa que lucha contra la extinción.
La vida nueva que surge de un Amor… ¡También es entropía negativa! Como cuando nacen estrellas
Esto significa que la Vía Láctea (como otras galaxias espirales) es una zona de reducción de la entropía. Es un sistema auto-organizador al que mantienen lejos del equilibrio, por una parte, un flujo de energía que atraviesa el sistema y, por otra, como ya se va viendo, la retroalimentación. En este sentido, nuestra Galaxia supera el test de Lovelock para la vida, y además prestigiosos astrofísicos han argumentado que las galaxias deben ser consideradas como sistemas vivos.
Puede que podamos ser más de lo que parece y que, seamos menos de lo que nosotros mismos nos podamos creer. No parece muy aconsejable que estemos situados en un plano de superioridad en el cual podamos mirarlo todo por encima del hombro. Precisamente por ser Naturaleza nosotros mismos, estamos supeditados a sus cambios y, por lo tanto, a merced de ellos.
El dilema está, como dijo aquel hombre sabio: “¡Somos parte del problema que tratamos de resolver!”
emilio silvera
Ene
13
por Emilio Silvera ~
Clasificado en Astronomía y Astrofísica ~
Comments (1)
Un telescopio de Canadá detecta unas extrañas y misteriosas señales de radio procedentes de una galaxia muy lejana
ASTRONOMÍA

Rastrean las misteriosas señales situadas en lejanas regiones del Universo
Los FRB son uno de los misterios más intrigantes de la astrofísica
La naturaleza y el origen de las explosiones de las ondas de radio es desconocida
Los FRB surgen por todo el cielo, y no están seguros de qué los causa
Un equipo de científicos liderado por Canadá ha hallado unas señales misteriosas que emanan de una galaxia muy lejana. La naturaleza precisa y el origen de las explosiones de las ondas de radio es desconocida, según revela la investigación publicada en la revista Nature.
Entre las 13 ráfagas de radio rápidas, conocidas como FRB, se ha hallado una señal de repetición muy inusual, proveniente de la misma fuente a unos 2.500 millones de años luz de distancia. Es decir, una segunda señal igual que otra anterior que se registró en 2012. Los científicos creen que las FRB proceden de poderosos fenómenos astrofísicos a miles de millones de años luz de distancia, pero el origen real sigue siendo un misterio.
“¡Mira! Vemos FRB”, dijo Deborah Good, una astrónoma de la Universidad de British Columbia en Vancouver, Canadá, en una reunión de la American Astronomical Society en Seattle, el pasado 7 de enero.
Good informó sobre los primeros resultados del Experimento Canadiense de Cartografía de la Intensidad del Hidrógeno (CHIME), un telescopio que originalmente fue diseñado para explorar el Universo primitivo pero que resultó ser ideal para detectar FRB . Visto por primera vez en 2007, los FRB son uno de los misterios más intrigantes de la astrofísica. Aparecen por todo el cielo, y los astrónomos no están seguros de qué los causa.
Tal señal sólo había sido registrada una vez antes, y por un telescopio diferente.“Hemos descubierto una segunda señal repetitiva y sus propiedades son muy similares a la primera”, dijo Shriharsh Tendulkar, de la Universidad McGill de Canadá. Apareció por primera vez en 2012 y parece originarse en una galaxia a unos 2.500 millones de años luz de la Tierra.
¿Una estrella de neutrones o una nave alienígena?
Hay una serie de teorías sobre lo que podría estar causando estas señales de radio. La mayoritaria es que se trata de una estrella de neutrones con un campo magnético muy fuerte que gira muy rápidamente, o que se trata de dos estrellas de neutrones que se fusionan. Y, entre una minoría de observadores, que se trata de alguna forma de nave espacial alienígena.
De las más de 60 FRB observadas hasta la fecha, sólo se habían encontrado repeticiones de una sola fuente una vez, un descubrimiento realizado por el radiotelescopio de Arecibo en Puerto Rico en 2015, ahora ya son dos.
“Hasta ahora, solo se conocía una FRB repetida. Sabiendo que hay otra sugiere que podría haber más por ahí. Y con más repetidores y más fuentes disponibles para el estudio, podremos entender estos enigmas cósmicos -de dónde proceden y qué los causa-“, apunta Ingrid Stairs, miembro del equipo CHIME y astrofísica de la UBC.
Antes de que CHIME comenzara a recopilar datos, algunos científicos se preguntaban si el rango de frecuencias de radio con el que el telescopio había sido diseñado para detectar sería demasiado bajo para captar ráfagas de radio rápidas. La mayoría de las FRB detectadas anteriormente se habían encontrado en frecuencias cercanas a 1400 MHz, muy por encima del rango del telescopio canadiense de 400 MHz a 800 MHz.
El estudio de FRB de baja frecuencia y la forma en que su radiación se dispersa en el camino a la Tierra, puede revelar más sobre el entorno en el que nacieron las explosiones.
Publica: emilio silvera
Ene
13
La Física de Partículas al Servicio de la Salud
por Emilio Silvera ~
Clasificado en La física en la vida cotidiana ~
Comments (0)
A los que critican los gastos realizados en adelantos (principalmente en proyectos espaciales), les aconsejo leer esté reportaje, donde se deja claro que, la mayoría de esos proyectos nos hacen adelantar en rtecnologías que, más tarde, son empleadas en salvar vidas.

En realidad, en el CERN, se trabaja en algo más que en las partículas subatómicas y se buscan nuevas respuestas y remedios para paliar el dolor en el mundo. También, se ha contribuido de manera notable a las comunicaciones y, el mundo es tal como lo conocemos hoy gracias a Ingenios como el LHC que, por desconocimiento de muchos, en su mpomento, fue tan denostado.
Transferencias tecnológicas del CERN a la Biomedicina.
Partículas y mucho más
Seguramente la mayoría de los lectores de la Revista Española de Física han oído más de una vez hablar del CERN. Fundado en 1954, constituye el mayor laboratorio de física de partículas del mundo, con veinte países miembros y un personal de unas 3.000 personas entre físicos, ingenieros y personal técnico y administrativo de todo tipo. Seguramente están también al tanto de los grandes experimentos que se están preparando en este centro como el Large Hadron Collider (LHC), situado en un túnel circular de 27 km de longitud, destinado a elucidar el origen de la llamada ruptura de la simetría electrodébil y en última instancia el origen de las masas de las partículas elementales (no de la masa del protón o del neutrón como erróneamente se dice a veces en los medios de comunicación), o del proyecto CERN Neutrino Gran Sasso (CNGS), que consiste en enviar un haz de neutrinos de alta energía desde el CERN al laboratorio subterráneo italiano del Gran Sasso que se encuentra a 730 km, para estudiar las oscilaciones de estas huidizas partículas.
También es muy probable que muchos lectores asocien de manera natural la palabra acelerador de partículas a los instrumentos que utilizan los físicos modernos para estudiar y comprender mejor la estructura y el comportamiento de la materia a pequeñas escalas. Sin embargo, de los 17.000 aceleradores de partículas que se estima existen en la actualidad en todo el mundo, aproximadamente la mitad de ellos se usan en medicina y sólo una parte muy pequeña se usan para investigación fundamental. Por este y otros motivos que se discutirán más adelante, en este número especial de la Revista Española de Física dedicado a la física y las ciencias de la vida, ha parecido conveniente incluir un artículo en el que, al menos brevemente, se describieran algunas de las transferencias tecnológicas (spinoffs) importantes que la actividad del CERN aporta a dichas ciencias.
Mucho de lo que aquí se descubre, se aplica a nuestra Salud
Es bastante razonable que, como ocurre con las ciencias del espacio, mucha gente se pregunte cuál es la utilidad social de la física de partículas más allá de la adquisición de conocimientos fundamentales de la naturaleza. Sin embargo, es preciso señalar que los aceleradores y detectores de partículas del CERN y otros laboratorios similares requieren el uso, y muchas veces el desarrollo, de tecnologías de punta que obligan a una estrecha colaboración con la industria que redunda en beneficio de ambas partes. Las transferencias tecnológicas que se producen en este proceso se incorporan inmediatamente a nuestra vida diaria en áreas tales como la electrónica, procesamiento industrial y médico de imágenes, manejo y usos de la radiación , metrología, nuevos materiales, tecnologías de la computación y la información, tratamiento del cáncer, etc. En este artículo se pondrá el énfasis en aquellas actividades del CERN que han redundado de una forma más clara en beneficio de las ciencias biomédicas.
PET/TC o más allá de los rayos X
En el ámbito de la medicina los aceleradores de partículas se utilizan con dos finalidades; una para la formación de imágenes con propósitos diagnósticos y otra, para terapia, principalmente oncológica. Desde el descubrimiento de los rayos X por Röntgen en 1895, este tipo de radiación electromagnética ha proporcionado una información de valor incalculable y aún sigue proporcionándola. Sin embargo, mucho más recientemente, se han desarrollado otras técnicas complementarias de diagnóstico basadas en los llamados radiofármacos. Estas sustancias radiactivas presentan idealmente la propiedad de poder ser inyectadas en el organismo humano de forma segura y de fijarse exclusivamente a determinados tejidos. Posteriormente, a medida que van desintegrándose, emiten ciertas partículas que pueden ser detectadas y analizadas produciendo de esta forma imágenes estáticas o incluso dinámicas de los órganos en los que se depositaron los radiofármacos y, en definitiva, proporcionando información no solamente sobre la morfología de aquellos, sino también, en muchos casos, sobre su función y metabolismo.Los radiofármacos se producen utilizando haces de protones de alta intensidad y, como tienen una vida media muy baja, deben utilizarse cerca de donde se han creado. Se calcula que unos 20 millones de personas son diagnosticadas cada año mediante el uso de este tipo de sustancias.
Son técnicas no invasivas que dejan al descubierto lo que interesa ver y eliminar.
Una de las técnicas de este tipo más utilizada en la actualidad es la Positron Emission Tomography (PET). En su aplicación se utiliza normalmente un ciclotrón para irradiar alguna sustancia que se convierte en radiactiva por desintegración beta positiva (emisora de positrones). Esta sustancia se une por ejemplo a la glucosa y se inyecta al paciente. Los positrones producidos se aniquilan con los electrones circundantes dando lugar a dos fotones de energía muy bien definida, emitidos en direcciones opuestas. Estos fotones interaccionan con un material escintilador dando lugar a la emisión de otros fotones que pueden ser detectados por fotomultiplicadores o fotodiodos para formar la imagen de los tejidos que se pretenden estudiar en función de la distribución de la glucosa radiactiva. Por ejemplo, en el caso del diagnóstico del cáncer las células cancerosas suelen consumir más glucosa que las células sanas debido a su mayor vascularización y a su mayor actividad metabólica y reproductiva, produciendo por tanto una mayor emisión de fotones. Por el contrario, las zonas donde el tejido presente mayor número de células muertas brillarán menos debido a la menor concentración de glucosa radioactiva, lo cual puede ser muy útil para el diagnóstico de infartos y otras lesiones.
Tecnológias que llegan más allá
De acuerdo con David Townsend, uno de los pioneros en el desarrollo de la tecnología PET, aunque ésta no fue inventada en el CERN, una cantidad esencial e inicial de trabajo desarrollado en el CERN a partir de 1977 contribuyó de forma significativa al desarrollo del PET 3D. La tecnología PET alcanza su grado más alto de utilidad diagnóstica cuando se combina con la Computed Tomography (CT). La CT es un método de formación de imágenes tridimensionales a partir del procesamiento digital de un gran número de imágenes bidimensionales de rayos X. Inicialmente, las diferentes imágenes se obtenían alrededor de un solo eje de rotación y de ahí su nombre original de Computed Axial Tomography (CAT).
Se puede llegar a lugares que antes eran imposibles de localizar
La técnica combinada PET/CT es uno de los desarrollos más excitantes de la medicina nuclear y la radiología modernas. Las reconstrucciones de imágenes CT permiten el diagnóstico precoz de tumores basándose en sus características morfológicas, mientras que la tecnología PET es capaz de diferenciar con grane eficiencia los tejidos malignos de los benignos. La fusión PET/CT permite ahora integrar las imágenes morfológica y fisiológica en una única imagen. El prototipo del scanner ART, el Partial Ring Tomograph (PRT), fue desarrollado en el CERN en 1980 y 1990 por David Townsend, Martín Wensveen y Henri Tochon-Danguy, y evaluado clínicamente en el departamento de medicina nuclear del Hospital Cantonal de Ginebra. ART puede considerarse como el precursor de la parte PET del moderno scanner PET/CT, que ha producido un impacto extraordinario en la tecnología de imágenes con fines médicos. Además, el CERN continua hoy en día contribuyendo a este campo fundamental de la medicina moderna mediante proyectos como Clear PET, Clear PEM, HPD PET etc.
Sin embargo, la importancia del CERN en el desarrollo de las tecnologías PET o CT, y en general de todo tipo de scanner, va mucho más allá. En efecto, todo este tipo de dispositivos se basa, de una forma u otra, en los detectores desarrollados a finales de los sesenta en el CERN por George Charpak. Su trabajo fue reconocido en 1992 con la concesión del Premio Nobel de Física por su invención y desarrollo de detectores de partículas, en particular de la cámara proporcional multihilos, que produjo una revolución en la técnica de exploración de las partes más íntimas de la materia. Los detectores desarrollados por Charpak se usan aún para todo tipo de investigaciones médicas y biológicas y podrían eventualmente sustituir completamente a las placas fotográficas en la radio-biología aplicada. La velocidad creciente con la que permiten registrar las imágenes en radio medicina conducen a una menor tiempo de exposición y a menores dosis de radiación indeseada recibida por los pacientes.
Hadronterapia, o las partículas contra el cáncer, La energía de un haz de partículas atravizan el tejido sin dañarlo y llegan al tumos que destruyen.
Como es bien sabido, una de las herramientas terapéuticas esenciales en el campo de la oncología es la radioterapia. Dicho tratamiento se aplica hoy en día aproximadamente a la mitad de los pacientes de cáncer. En cierto modo se puede considerar como una forma sutil de cirugía donde el bisturí es reemplazado por un haz colimado de partículas capaz de esterilizar las células malignas mediante la inactivación de su ADN, impidiendo así su reproducción. Tradicionalmente, la radioterapia se ha basado en el uso de rayos X (fotones), electrones y, más recientemente, hadrones, es decir, partículas capaces de interaccionar fuerte o nuclearmente, si bien no es ésta la propiedad más interesante de estas partículas para las aplicaciones radioterapeúticas. Los haces de rayos X y los electrones se obtienen normalmente a partir de aceleradores lineales como los del CERN, aunque mucho más pequeños, y se apuntan hacia los tumores con la energía, dirección y colimación apropiadas para optimizar su efecto destructivo sobre los mismos. Por su parte, los neutrones pierden energía en el interior del organismo de una forma diferente, lo cual les hace más indicados para el tratamiento de ciertos tipos especiales de tumores. Se obtienen a partir de las colisiones de protones, previamente acelerados en un ciclotrón, con núcleos de berilio. Este hecho hace que esta terapia sea bastante más cara que las anteriores, pero a cambio el ciclotrón puede ser usado también para la producción de radiofármacos.
Cintíficos del CERN aplivcan antimateria contra el Cáncer
El estudio de las posibilidades de utilización de haces de hadrones en la terapia del cáncer tuvo su origen en el trabajo seminal de R.R Wilson titulado Radiological Use of Fast Protons (Radiology 47, 1946). En dicho artículo se ponía de manifiesto que los protones, así como otras partículas cargadas pesadas, presentan la propiedad única de que al penetrar en el cuerpo humano depositan la mayor parte de su energía a una preofundidad que depende de su energía inicial. Este hecho permite seleccionar cuidadosamente el área que se quiere irradiar, preservando de dicha radiación al tejido sano que pudiera encontrarse a menor profundidad. Además, como las partículas se detienen a una distancia de la superficie bien definida por la energía del haz, tampoco resultarían dañadas las células situadas detrás del blanco seleccionado.
En contraste, la energía depositada por los rayos X alcanza su máximo cerca de la superficie de entrada y decae exponencialmente hasta que abandona el cuerpo humano en el lado opuesto, haciendo por tanto muy difícil seleccionar la zona que quiere irradiarse sin dañar otras áreas de células sanas. El trabajo de Wilson de 1946 condujo a toda una nueva línea de investigación experimental, principalmente en el Lawrence Berkeley Laboratory, que ha dado lugar al desarrollo de una nueva clase de terapias antitumorales basadas en la irradiación con protones y más recientemente con iones de carbono. Estas técnicas han sido aplicadas en más de 40 centros de todo el mundo, y de ellas se han beneficiado hasta la fecha más de 50.000 pacientes. No obstante, continúan investigándose nuevas formas de intentar mejorar el ratio entre la energía depositada en las células tumorales y en el tejido sano.
En la actualidad, el CERN se encuentra involucrado en diversos proyectos relacionados con la hadronterapia. Por ejemplo, en el diseño de un acelerador de protones e iones de carbono dedicado exclusivamente a usos médicos conocido como Proton Ion Medical Machine Study (PIMMS). Otro proyecto interesante es la realización de las pruebas del Linear Booster ( LIBO), capaz de acelerar una haz de protones hasta 200 Mev (los hospitales habiualmente utilizan energías en torno a los 65 MeV) y que estaría especializado en el tartamiento de tumores profundos.
Finalmente, y situándonos en un plano de investigación a un nivel más básico, es interesante señalar que en octubre de 2006 se presentaron los primeros resultados de un experimento llevado a cabo en el CERN con potencial para futuras aplicaciones en la terapia del cáncer. Se trataba del Antiproton Cell Experiment (ACE), que constituye la primera investigación realizada hasta la fecha sobre efectos biológicos de los antiprotones. Los antiprotones se comportan como los protones cuando entran en el organismo, pero generan mucha más energía en el blanco seleccionado debido a du aniquilación con los protones existentes en los núcleos de los átomos de las células, y además depositan esta energía de una forma biológicamente más efectiva.
Se busca antimateria contra el Cáncer. Los resultados muestran que los antiprotones son cuatro veces más efectivos que los protones para destruir células vivas. (Foto: Especial CERN )
Evaluando la fracción de células supervivientes después de la irradiación con el haz de antiprotones, el experimento ACE ha encontrado que a eficiencia de éstos es unas cuatro veces mayor que la de los protones, mientras que el daño producido a las células situadas antes del blanco era básicamente el mismo. De acuerdo con Michael Holzscheiter, portavoz del experimento ACE, este hecho podría ser extremadamente importante para el tratamiento de casos de cáncer recurrente, donde este tipo de propiedad es vital. La tecnología desarrollada previamente en el CERN para la obtención de haces de antiprotones de buena calidad a la energía apropiada es esencial para este prometedor experimento, que difícilmente podría haberse realizado en ningún otro laboratorio. Éste es por tanto un magnífico ejemplo de cómo la investigación en física de partículas desarrollada en el CERN puede generar soluciones innovadores con excelentes beneficios médicos potenciales.
Los investigadores de ACE, en colaboración con otras instituciones de todo el mundo, están realizando en la actualidad nuevos tests para comprobar la eficacia de este método en el caso de tumores situados a mayor profundidad, y comparando sus resultados con los de otros métodos más convencionales como la irradiación mediante iones de carbono. Si todo sale como se espera, los beneficios clínicos de esta nueva técnica podrían empezar a producirse dentro de la próxima década.
Otro ejemplo importante de tecnología creada en el CERN con aplicaciones a la terapia del cáncer es el Neutron Driven Element Trasmuter. Se trata de un sistema de producción de radioisótopos específicos específicos a partir de un acelerador de protones cuyo desarrollo fue liderado por Carlo Rubbia, Premio Nobel de Física en 1984 por el descubrimiento de los bosones W y Z y ex director general del CERN. La idea es utilizar el haz de protones para producir neutrones los cuales provocan reacciones en un ambiente apropiado donde ciertos elementos son convertidos en los isótopos deseados.
La diferencia principal entre este método, seguro y barato, y el método más tradicional de utilizar los neutrones provenientes de un reactor nuclear, es que no requiere el uso de material fisionable ni funciona críticamente, es decir las reacciones se detienen en el momento en el que el acelerador es apagado. Más aún, el método tiene la ventaja de que sólo se producen los isótopos requeridos, lo que redunda en una importante reducción de impacto ambiental. Normalmente, el blanco utilizado es plomo, elemento idóneo por presentar el menor ritmo de captura de neutrones. Los neutrones se producen por espalación a partir del haz de protones y permanecen en el interior del blanco de plomo, que está rodeado de un deflector de grafito, hasta que su espectro se suaviza suficientemente para cubrir un gran rango de energías que permiten su utilización para la transmutación de los elementos necesarios para la obtención de los isótopos deseados.
El Neutron Driven Element Trasmuter ha permitido, entre otras cosas, la producción de radioisótopos beta emisores como el 166Ho, 186 Re o el 188Re que son de gran importancia en braquiterapia. Dicha técnica, muy utilizada en el tratamiento de cánceres ginecológicos y en el de cáncer de próstata, es un tipo de radioterapia de proximidad donde la fuente radiactiva se sitúa dentro o muy cerca de los tejidos que requieren irradiación. Típicamente, la fuente radiactiva, de alta actividad y corta vida media, se encapsula en una semilla, filamento o tubo y se implanta en quirófano en la zona deseada. Las diferentes dosis requeridas en cada caso hacen que sea fundamental disponer del mayor muestrario posible de radioisótopos con la actividad y vida media apropiadas, lo cual convierte al Neutron Driven Element Trasmuter en una herramienta valiosísima para el futuro de este tipo de técnica terapéutica.
Información y computación sin fronteras
CERN, … where the web was born; éste es uno de los reclamos publicitarios que suelen utilizarse para hacer ver al público la importancia de los retornos tecnológicos que en este laboratorio tienen lugar. Y en efecto, fue a finales de los ochenta cuando Tim Berners-Lee desarrolló estándar de Hyper Text Transfer Protocol (HTTP) e implementó los primeros servidores web en el CERN. Su esfuerzo permitió la comunicación fácil y segura y el intercambio de todo tipo de información entre todos los ordenadores del mundo conectados a internet, dando lugar de esta forma a una de las revoluciones tecnológicas más importantes de las últimas décadas. Las repercusiones científicas, tecnológicas, culturales, comerciales y de ocio de la web son ya tan conocidas que apenas merecen comentario alguno.
El término Grid fue acuñado por Ian Foster and Carl Kesselman en su libro The Grid, Blueprint for new Computing Infraestructure (Morgan Kaufman, 1998), aunque las ideas básicas habían sido consideradas con anterioridad. No existe un acuerdo general sobre cual debería ser la definición precisa de las tecnologías Grid, pero hay un amplio concenso en que esta debería contener elementos tales como recursos compartidos, virtualización, abstracción del acceso a los recursos y estandarización. La filosofía Grid consistería, no sólo en compartir información entre diferentes usuarios, sino también recursos, como por ejemplo, procesadores, tiempo de CPU, unidades de almacenamiento, así como otros aparatos e instrumentos, de tal forma que eventualmente cada usuario tendría acceso virtual, por ejemplo, a la capacidad de cálculo de todos los demás usuarios de esa Grid. En los primeros tiempos de esta tecnología de la información se llegó a hablar de la Grid, refiriéndose a la posibilidad de existencia de una única World Wide Grid.
Todo surgió del CERN
Hasta el momento, sin embargo, este concepto no es una realidad y más bien lo que se encuentra es que diferentes grupos de proyectos crean su propia Grid usando sus propias implementaciones, estándares y protocolos y dando acceso restringido solamente a una cierta comunidad de usuarios autorizados. Así, aunque se siguen realizando importantes esfuerzos en cuanto a la estandarización de los protocolos, no está claro cual será el camino que este tipo de tecnología seguirá en el futuro en lo que se refiere a la futura existencia de un única Grid.
En cualquier caso es importante resaltar que una vez más el CERN ha sido pionero en este tipo de tecnología. Los detectores que se están instalando (a estas alturas, todos instalados y en marcha) en el LHC (ATLAS, CMS, ALICE, LHCb, SUSY, etc.), son tan complejos, que han requerido cada uno de ellos el concurso de muchas instituciones de todo el mundo para su construcción, y lo seguirán requiriendo para su mantenimiento cuando el acelerador empiece a funcionar (ya está en marcha), y, como no, para el análisis de los datos que se obtengan. Para hacerse una idea de la dimensión y complejidad de estos análisis baste mencionar que el compact Muon Selenoid (CMS), una vez pasado su primer filtro, deberá almacenar información sobre el resultado de las colisiones producidas en su interior a un ritmo del orden de 100 a 200 MB por segundo durante un tiempo esperado de unos cien días por año. Resulta obvio que sólo una tecnología tipo Grid puede afrontar con posibilidades de éxito un reto semejante y de hecho el CERN ha inspirado varios proyectos Grid multinacionales por este motivo. Posiblemente, el más grande de ellos hasta la fecha sea el EGEE (Enablinbg Grids for E-Science), que conecta más de 150 paises y ofrece 20 000 CPUs y más de 10 Petabytes de memoria.
De manera análoga a como ocurrió con las tecnologías de la detección y aceleración, las tecnologías Grid tendrán, y de hecho ya empiezan a tener, un fuerte impacto en las ciencias de la vida y de la salud. En este sentido, uno de los campos obvios de aplicación es la bioinformática. Gracias a los espectaculares avances llevados a cabo en los últimos años en el campo de la biología molecular, se dispone hoy en día de cantidades crecientes de información genética de diferentes especies e individuos. Dicha información codificada en el ADN en forma de secuencia de tripletes o codones de ácidos nucleicos, que constituyen los genes que contienen la estructura primaria de las diferentes proteínas, ha sido y está siendo obtenida por centenares de grupos diferentes distribuidos por todo el mundo y debe almacenarse en gigantescas bases de datos de forma eficiente para su compartición, contrastación y análisis.
Ejemplos típicos serían la búsqueda de determinadas secuencias, comparaciones, búsqueda de determinadas mutaciones o alelos, etc. Resulta evidente que esta ingente labor puede verse enormemente beneficiada por el uso de tecnologías Grid. De hecho, la Bioinformática, y en particular sus aplicaciones biomédicas, han sido una parte importante del proyecto EGEE desde el comienzo del mismo.
Finalmente, y como última muestra de cómo puede revertir en la sociedad las tecnologías de la información y la computación provenientes de la física de partículas, es interesante mencionar el Proyecto Mammogrid y su continuación Mammogrid Plus. Liderado por el CERN, dicho proyecto de la UE utiliza la tecnología Grid para crear una base de datos de mamografías que pueda ser usada para investigar un gran conjunto de datos e imágenes que, aparte de otras aplicaciones sanitarias, sea útil para estudiar el potencial de esta tecnología para servir de soporte a la colaboración entre los profesionales de la salud de la UE.
Ciencia, Tecnología y Sociedad
A estas alturas debería haber quedado claro que los centros científicos de élite internacionales como el CERN, no sólo nos proporcionan un conocimiento más profundo de la naturaleza, sino que las tecnologías de punta que en ellos se desarrollan acaban permeando a la Sociedad y se incorporan a nuestras vidas cotidianas. El autor del artículo, Antonio Dobado, del Departamento de Física Teórica I de la Universidad Complutense de Madrid, ha pretendido ilustrar el hecho innegable de la conexión existente entre temas tan aparentemente dispares como el de la Física de Partículas y la Biomedicina, pero ejemplos semejantes podrían haberse encontrado en prácticamente cualquier área de la actividad humana.
La Sociedad no puede permanecer por más tiempo ajena a la Ciencia y a todo lo que trae consigo. Precisamente por eso la RSEF dedica un gran esfuerzo a la difícil tarea de convencer al público de la importancia de la Física como valor científico, cultural y social, como una forma rigurosa y profunda del acercamiento al conocimiento de la naturaleza, y a la vez como generadora de nuevas tecnologías. En este sentido, es una espléndida noticia la inminente creación de un nuevo Grupo especializado en el seno de la RSEF denominado Física Médica. Y, desde aquí, aprovechamos la oportunidad para darles la bienvenida y desearles el mayor éxito en sus futuras andaduras en la búsqueda de la verdad científica.
Publica: emilio silvera
Fuente: Revista Española de FÍSICA.
Publicada por la RSEF con el Nº 3 Volumen 21 de 2007
La presente transcripción es de: Emilio Silvera
Miembro numerario de la RSEF y adscrito a los Grupos Especializados de Física Teórica y Astrofísica.
Ene
13
Sí, todo cambia. ¿Cual es la verdadera medida? ¡Llegar a comprender!
por Emilio Silvera ~
Clasificado en El Universo dinámico ~
Comments (0)
En otras ocasiones hemos presentado aquí trabajos que, entre los temas que fueron tratados, entraba el Universo estacionario y también la posibilidad de un final con la presencia del Big Crunch, lo cual, según todos los datos de la cosmología moderna, no será posible dado que, el Universo euclideo y la Densidad Crítica que se observa no sería suficiente para producir tal final.
Cuando el Universo alcance la temperatura del cero absoluto (-273 ºC) ni los átomos se moverán
Por el contrario, la dinámica observada de expansión es cada vez más acelerada y, aunque algunos hablan de la “materia oscura”, en realidad no sabemos a qué se puede deber tal expansión pero, lo cierto es que no habrá colapso final y sí, en cambio, una expansión ilimitada que nos llevará hacia un “enfriamiento térmico” que llegará a alcanzar un máximo de entropía dS = dQ/T, así habrá una gran parte de la energía del Universo que no podrá producir trabajo. Sin embargo, es curioso que siendo eso lo que se deduce de los datos que tenemos, cuando miramos lo que predicen las nuevas teorías basadas en las cuerdas y la mecánica cuántica nos indica que tal escenario es poco creíble.
Todo parece indicar que nada podrá impedir que en las galaxias se sigan produciendo explosiones supernovas que formaran hermosas Nebulosas de las que nacerán nuevas estrellas, toda vez que las galaxias, quedarán aisladas y detendrán su expansiòn y tal hecho, no parece que pueda incidir en la mecánica galáctica de formación de nuevas estrellas.
Así, las estrellas más masivas devolverán parte de la materia que las conforman al medio interestelar y la gravedad y la radiación se encargarán de que nuevos ciclos se sigan produciendo. Y, las estrellas menos masivas, como nuestro Sol y otras seguirán sus vidas durante miles de millones de años y, si tiene planetas en su entorno, ¿quién sabe si estando en la zona habitable no podrá hacer surgir alguna clase de vida? Claro que, el proceso de la dinámica del universo es llegar al frío absoluta de los -273 ºC y, en ese momento, las masas de las estrellas quedarían bloqueadas, los átomos presentes en las Nebulosas perderían su dinámica y nada, en nuestro Universo, tendría movimiento ni energía para crear trabajo, la Entropía sería la dueña y señora de todo y una última estrella habría nacido para quedar colapsada sin poder cumplir su misión de transmutar elementos.
Sería triste contemplar un Universo congelado
Pero no pocas de todas estas conclusiones son conjeturas que se hacen conforme a los datos observados que llevan a esas consecuencias. En otros panoramas se podría contemplar como en el futuro, las estrellas escaparían lentamente de las galaxias y según algunos cálculos el 90% de la masa estelar de una galaxia habría huido al espacio en unos 10^19 años. El 10% restante habría sido engullido por agujeros negrossupermasivos centrales. El mismo mecanismo haría que los planetas escaparan de su soles y vagaran por el espacio como planetas errantes hasta perderse en el espacio profundo y, los que no lo hagan caeran hacia el centro de sus soles en unos 0^20 años.
Un último estudio ha indicado que el Universo es curvo, no plano como se creía y tal resultado, aunque tendrá que ser verificado, es importante para saber el final que realmente espera a nuestro Universo en ese futuro muy lejano en el que, no sabemos siquiera si nuestra especie andará aún por aquí.
Esa imagen de arriba no sería repetida y las galaxias, los cúmulos se disgregarían debido a interacciones gravitatorias en unos 10^23 años y, en un momento determinado el universo estaría formado por enanas negras, estrellas de neutrones y agujeros negros junto con planetas y pequeñas cantidades de gas y polvo, todo ello, sumergido en una radiación de fondo a 10^-13K. Hay modelos que predicen que los agujeros negros terminarán evaporándose mediante la emisión de la radiación de Hawking. Una vez evaporado el agujero negro, los demás objetos se convertirían en Hierro en unos 10^1500 años pero también, pasado mucho tiempo, se evaporaran y a partir de este momento el universo se compone de partículas aisladas (fotones, electrones, neutrinos, protones). La densidad tenderá a cero y las partículas no podrán interactuar. Entonces, como no se puede llegar al cero absoluto, el universo sufrirá fluctuaciones cuánticas y podría generar otro universo. ¿Qué locura!
Claro que toda esa teoría podría modificarse si la “energía oscura” -si finalmente existe- resultara ser negativa, con lo cual el fin se produciría antes. Tampoco se ha contado con la posible inestabilidad del protón. Todo esto está descrito según la física que hoy día se conoce, lo cual nos puede llevar a conclusiones erróneas. Como vereis, tenemos respuestas para todo y, aunque ninguna de ellas pueda coincidir con la realidad, lo cierto es que, el panorama de la cosmología está lleno de historias que, algunas podrán gustar más que otras pero todas, eso sí, están cargadas de una imaginación desbordante.
Como mi intelecto es más sencillo y no alcanza a ver en esas profundas lejanías, me quedo con lo más tangible y cercano como lo es el hecho cierto de que el Universo tiene que tener miles de millones de años para que haya podido tener tiempo suficiente para que los ladrillos de la vida sean manufacturados en las estrellas.
Las leyes de la gravitación nos dice que la edad del universo está directamente ligada a otras propiedades que manifiesta, como su densidad, su temperatura y el brillo del cielo. Puesto que el Universo debe expandirse durante miles de millones de años, debe tener una extensión visible de miles de millones de años-luz. Puesto que su temperatura y densidad disminuyen a medida que se expande, necesariamente se hace más frío y disperso. Ahora sabemos que la densidad del Universo es hoy día de poco más de 1 átomo por m3 de espacio.
Traducida en una medida de las distancias medias entre estrellas o galaxias, esta densidad tan baja muestra porque no es tan sorprendente que otros sistemas estelares estén tan alejados y sea difícil el contacto con extratreterrestres. Si existen en el Universo otras formas de vida avanzada (como creo), entonces, al igual que los seres de la Tierra habrán evolucionado sin ser perturbadas por los seres de otros mundos hasta que puedan llegar a lograr una fase tecnológica avanzada.
Además, la muy baja temperatura de la radiación hace algo más que asegurar que el espacio sea un lugar frío: también garantiza la oscuridad del cielo nocturno. Durante siglos los científicos se han preguntado por esta sorprendente característica del Universo. Si ahí fuera en el espcio hubiera un número enorme de estrellas, entonces cabría pensar que mirar hacia arriba al cielo nocturno sería un poco como mirar un bosque denso.
Millones de estrellas en un sólo cúmulo globular
Cada linea de visión debería terminar en una estrella. Sus superficies brillantes cubrirían cada parte del cielo haciéndolo parecido a la superficie del Sol. Lo que nos salva de ese cielo brillante es la expansión del Universo y la lejanía a la que se encuentran las estrellas entre sí. Para encontrar las condiciones necesarias que soporte la complejidad viviente hicieron falta diez mil millones de años de expansión y enfriamiento.
La Densidad de materia ha caido hasta un valor tan bajo que aun sim toda la materia se transformase repentinamente en energía radiante no advertiríamos ningún resplandor importante en el cielo nocturno. La radiación es demasiado pequeña y el espacio a llenar demasiado grande para que el cielo parezca brillante otra vez. Hubo un tiempo cuando el Universo tenía, menos de cien mil años, en que todo el cielo era brillante, tan brillante que ni estrellas ni átomos ni moléculas podían existir, la podría radiación los destruía. Y, en ese tiempo, no podrían haber existido observadores para ser testigo de ello.
Con algunas estrellas por aquí y por allá, alguna que otra Nebulosa (incluso algunas brujas), el Universo es oscuro y frío.
Pero estas consideraciones tienen otros resultados de una Naturaleza mucho más filosófica. El gran tamaño y la absoluta oscuridad del Universo parecen ser profundamente inhóspitos para la vida. La apariencia del cielo nocturno es responsable de muchos anhelos religiosos y estéticos surgidos de nuestra aparente pequeñez e insignificancia frente a la grandeza e inmutabilidad (aparente) de las estrellas lejanas. Muchas Civilizaciones rindieron culto a las estrellas o creyeron que gobernaban su futuro, mientras otras, como la nuestra, a menudo anhelan visitarlas.
Mucho se ha escrito sobre el efecto emocional que produce la contemplación de la insignificancia de la Tierra ante esa inmensidad del cielo salpicado de estrellas, inmersa en una Galaxia que tiene más de cien mil millones y que ahora sabemos, que también tiene, miles de millones de mundos. En efecto, la idea de ese conocimiento es impresionante y puede llegar (en algunos casos) a ser intensamente desagradable y producir sensación de ahogo y hasta miedo. Nuestra imaginación matemática se ve atormentada ante esa inconmensurable grandeza que, nuestras mentes, no llegan a poder asimilar. Y, la sorpresa llegó cuando pudimos descubrir que dentro de nuestro Universo, existía otro a escalainfinitesimal que planteaba preguntas que no sabíamos responder.
“Pues bien, tratando de responder a estas preguntas es como nace The Scale of The Universe 2, una visualización interactiva creada por Cary y Michael Huang; la visualización es sorprendente porque nos permite ir a escalas mínimas y llegar hasta el tamaño aproximado del Universo, comparando cosas que están, de muchas maneras, más allá de nuestra imaginación (sigo pensando que es difícil imaginarse el tamaño real de un átomo, o el de una galaxia).”
Claro que, en eso de lo grande y lo pequeño…, todo puede ser muy subjetivo y, no pocas veces dependerá de la perspectiva con que lo podamos mirar. Podríamos considerar la Tierra como enorme, al mirarla bajo el punto de vista que es el mundo que nos acoge, en el que existen inmensos océanos y grandes montañas y volcanes y llanuras y bosques y ríos y, una inmensa lista de seres vivos. Sin embargo, se nos aparecerá en nuestras mentes como un minúsculo grano de arena y agua si la comparamos a la inmensidad del Universo. Igualmente, podemos ver un átomo como algo grande en el sentido de que, al juntarse con otros, pueden llegar a formar moléculas que juntas, son capaces de formar mundos y galaxias.
Si comparamos una galaxia con un átomo, éste nos parecerá algo ínfimo. Si comparamos esa misma galaxia con el Universo, lo que antes era muy grande ahora resulta ser también muy poca cosa. Si el mundo que nos acoge, en el que la Humanidad ha escrito toda su historia y costado milenios conocer, dado su “inmensidad” para nosotros, lo comparamos con la Nebulosa Orión, nos parecerá ridículo en tamaño y proporción y, sin embargo, cuán importante es para nosotros. Todo puede ser grande o pequeño dependiendo de la perspectiva con que lo miremos y según con qué lo podamos comparar.
Nada es objetivamente grande; las cosas son grandes sólo cuando consiguen tocar la sensibilidad del observador que las contempla, encontrar los caminos hacia su corazón y su cerebro. La idea de que el Universo es una multitud de esferas minúsculas circulando como motas de polvo en un vacío oscuro e ilimitado, podría dejarnos fríos e indiferentes, si no acomplejados y deprimidos, si no fuera porque nosotros identificamos este esquema hipotético con el esplendor visible, la intensidad conmovedora del desconcertante número de estrellas que están ahí, precisamente, para hacer posible nuestra presencia aquí y, eso amigos míos, nos hace ser importantes, dado que demuestra algo irrefutable, formamos parte de toda esta grandeza.
Bueno, no es por nada pero, ¿quién me puede decir que una imagen como la que arriba podemos contemplar, no es tan hermosa como la más brillante de las estrellas del cielo? Incluso diría que más, ya que se trata del producto o esencia del marterial que allí se fabricó y que ha podido llegar a su más alto nivel de belleza que, aemás, tiene consciencia de Ser y genera pensamientos y, ¡sentimientos!
Yo, si tengo que deciros la verdad, no me considero nada insignificante, soy consciente de que formo parte del Universo, como todos ustedes, ni más ni menos, somos una parte de la Naturaleza y, como tales productos de algo tan grande, debemos estar orgullosos y, sobre todo procurar, conocer bien qué es lo que realmente hacemos aquí, para qué se nos ha traído y, para ello amigos, el único camino que conozco es, llegar a conocer a fondo la Naturaleza y procurar desvelar sus secretos, ella nos dirá todo cuanto queramos saber.
emilio silvera