“Encontraremos señales de formas de vida simples fuera de la Tierra en los próximos años”
El nuevo responsable de ciencia de la Agencia Espacial Europea habla sobre los grandes objetivos de la agencia, la exploración de mundos habitables y el estudio del universo con métodos inéditos
Günther Hasinger, nuevo director de ciencia de la Agencia Espacial Europea, en las instalaciones de la ESA en Villanueva de la Cañada (Madrid) LUIS SEVILLANO
La exploración espacial no es un trabajo para impacientes. Cuando Rosetta logró interceptar al cometa 67P/Churiumov-Guerasimenko, en 2014, había pasado ya una década desde su lanzamiento desde la Guayana Francesa y diez años más desde que su construcción fue aprobada. A esas dos décadas habría que sumar el tiempo de diseño de la propia misión. Hace unos días, Günter Hasinger (Oberammergau, Alemania, 1954), el nuevo director de ciencia de la Agencia Espacial Europea (ESA), presentaba en Madrid los próximos Rosetta, esto es, la visión de Europa para el futuro de la exploración espacial. El próximo mes de noviembre, en Sevilla, se celebrará la reunión de ministros de los Estados miembros de la agencia que decidirán sus objetivos para los próximos años.
Entre las grandes misiones ya aprobadas destaca Juice, que tiene previsto partir hacia Júpiter en 2022 para estudiar sus lunas. Los océanos que parecen existir bajo la superficie de Europa, Ganímedes o Calisto se encuentran entre los lugares donde podría haber vida dentro del Sistema Solar. Más adelante, ya en la década de 2030, llegarán Athena y Lisa, un observatorio espacial de rayos X y otro de ondas gravitacionales que prometen ver como nunca antes las fusiones de agujeros negros o estrellas de neutrones y por el camino pueden resolver dilemas de la física con más de un siglo de antigüedad. Hasinger también mencionó la posibilidad de planear una misión que visite Urano y Neptuno, dos planetas que nunca han recibido la atención de una misión espacial propia.
Pregunta. ¿Cree que encontrar algún tipo de vida extraterrestre en las próximas décadas es algo probable?
Hay gente que dice que la atmósfera de los cometas apesta como un establo de caballos
Respuesta. En primer lugar, tenemos que dejar claro qué consideramos vida. Tenemos que diferenciar entre formas de vida simples, como las algas o las bacterias, que han hecho del nuestro un planeta habitable terraformando la Tierra durante miles de millones de años y produciendo el oxígeno para que otras formas de vida puedan existir, y la vida inteligente. Unos pocos cientos de millones de años después de la formación de la Tierra ya existían las primeras formas de vida, pero la aparición de formas más complejas requirió 3.000 millones de años más, así que las primeras serán mucho más abundantes.
Las lunas de Júpiter son el primer gran objetivo científico de la ESA NASA
Por otro lado, en la Tierra hemos encontrado vida en muchos lugares inesperados, en el hielo de los glaciares o bajo el manto terrestre. Ahora sabemos que la biomasa total bajo la superficie de la Tierra es mayor que la biomasa sobre nosotros. Hay bacterias y otros organismos que viven de la desintegración radioactiva así que tienen ciclos vitales completamente diferentes de los que estamos acostumbrados. Y además hay otro factor: cuando hemos estudiado cometas, se ha encontrado un gran número de moléculas orgánicas. Hay gente que dice que la atmósfera de los cometas apesta como un establo de caballos y para mí eso significa que los ladrillos básicos de la vida, los pequeños elementos necesarios para crear vida, ya existen en cometas y otros lugares.
Creo que debería haber formas simples de vida ahí fuera, el problema es cómo detectarla. Por ejemplo, creemos que había vida en Marte hace miles de millones de años, que había agua líquida en la superficie, pero hoy está esterilizada por la radiación cósmica, así que todas las formas de vida que pudiesen haber existido en la superficie han desaparecido. Para encontrar vida, tienes que perforar el suelo. Y algo parecido sucede cuando miras, por ejemplo, a Encélado o Europa, las lunas heladas de Saturno y Júpiter. Creemos que podría haber vida bajo una capa de un kilómetro de hielo, en un océano líquido al que es muy difícil llegar. La pregunta no es tanto si descubriremos vida sino cuán difícil será descubrirla.
Creo que hay vida inteligente ahí fuera, pero está tan lejos que no hay posibilidad de comunicarnos con ella
Cuando hablamos de exoplanetas, la mera existencia de oxígeno en una atmósfera ya indica que se ha producido algún tipo de terraformación y que tiene que haber bacterias que crean oxígeno porque el oxígeno no viene del espacio exterior. En los próximos diez o veinte años creo que encontraremos señales de formas de vida simples fuera de la Tierra. La cuestión de si encontraremos vida inteligente es completamente diferente. Yo creo que hay vida inteligente ahí fuera, pero está tan lejos que no hay posibilidad de comunicarnos con ella.
P. ¿Qué misiones específicas pueden realizar estas detecciones?
Las dos lunas de Marte son Fobos y Deimos. Estas lunas de Marte podría ser asteroides capturados del cinturón principal de asteroides situado entre Marte y Júpiter. Tanto cerca de la órbita de los satélites a su planeta, unos pocos miles de kilómetros de ella, 9.377 kilómetros de Fobos y Deimos 23.460 kilómetros. El diámetro de Marte es sólo 6.792 kilómetros.
Ambas lunas están vinculados a Marte por las fuerzas de marea, por lo que siempre muestran la misma cara a su planeta, como lo hace la Luna respecto a la Tierra.
R. Creo que la primera oportunidad que tendremos es la misión de recuperación de muestras de Phobos [la luna de Marte] con MMX. En los próximos años traeremos material del sistema marciano. Creo que Exomars2020, cuando tengamos el rover, también será un comienzo. Otra posibilidad es analizar los penachos de lunas como Europa o Encélado que surgen a través de las grietas en el hielo y géiseres en los que el agua podría arrastrar algún tipo de material orgánico, aunque por el momento no tenemos instrumentos para hacer esos análisis.
ARIEL, un observatorio espacial para analizar las atmósferas de los planetas extrasolares en detalle. ARIEL (Atmospheric Remote‐sensing Infrared Exoplanet Large‐survey mission) fue presentada hace tres año entre muchas otras misiones candidatas. Con esta ya son tres las misiones de la ESA dedicadas en exclusiva a la astromomía exoplanetaria, después de CHEOPS, un pequeño observatorio para caracterizar mejor el tamaño de exoplanetas previamente descubiertos, y PLATO, un cazador de nuevos planetas que usará el método del tránsito.
Después, hay misiones como Ariel, que hacen espectroscopía de las atmósferas de exoplanetas y que podrían encontrar biomarcadores. Apostaría a que eso puede suceder en los próximos diez o veinte años.
P. ¿Qué grandes descubrimientos podemos esperar de Lisa y Athena?
R. Creo que Lisa y Athena abordan preguntas fascinantes sobre la naturaleza de los agujeros negros, de la materia oscura y de todo el universo oscuro. Ahora, con el interés despertado por los observatorios de ondas gravitacionales terrestres, hay un interés renovado en cómo se forman los agujeros negros y lo que sucede cuando se funden. Esto también puede servir para comprender la materia oscura. Sabemos que existe, pero no tenemos ni idea sobre qué partículas la forman. Tampoco entendemos de dónde vienen los agujeros negros, vemos los cuásares primitivos, en el universo temprano, donde ya hay agujeros negros, y no sabemos de dónde vienen. Y hay una especulación que es emocionante, aunque no haya acuerdo sobre si es plausible, y es si los agujeros negros son en realidad parte de la materia oscura, si los agujeros negros están contribuyendo o incluso son básicamente la materia oscura.
Eso son cuestiones que pueden ser estudiadas por Lisa y Athena. Porque Lisa y Athena encontrarán las fusiones de agujeros negros en el universo muy temprano y podrán estimar cuántos hay y si están conectados a la luz y a la materia normal. Creo que las próximas dos décadas estarán dominadas por el estudio de los planetas extrasolares, pero los veinte siguientes volverá la ciencia gravitacional que nos ayudará a entender lo que sucedió en el origen del universo.
P. Usted está interesado en Oumuamua, el primer objeto llegado de fuera del sistema solar que se ha podido observar. ¿Está de acuerdo con los investigadores de Harvard que aseguran que es, probablemente, un artefacto construido por seres inteligentes?
R. Creo que si lees el artículo que publicaron, no afirman realmente que se trate de algo artificial sino que no se puede descartar que sea un objeto artificial. Pero entonces la prensa tomó esta afirmación y dijo que astrofísicos de Harvard decían eso. Desde mi punto de vista, se referían a una idea que ha sido discutida desde hace tiempo sobre la posibilidad de viajar a otros planetas con una vela solar. Algo relacionado con la iniciativa Breakthrough Starshot en la que Stephen Hawking, antes de morir, también se involucró. Consistía en enviar un artefacto como un smartphone con una gran vela solar. Cuando lo impulsas con un rayo láser, puedes acelerarlo hasta una fracción de la velocidad de la luz y así podrías llegar a la estrella más cercana en poco tiempo.
El factor que determinará si somos capaces de poblar la galaxia es la longevidad de nuestra civilización
Soy escéptico sobre esta tecnología, porque la vela tiene que ser una estructura extremadamente fina y muy grande, de cientos de metros. Tienes que propulsarla con un rayo láser y la cantidad de energía que necesitas para acelerarla es tan grande que básicamente freirías la vela en lugar de acelerarla. Pero supón que hay una civilización que ha superado este problema de la vela solar y no se quema. Entonces, en principio, podrías enviar una sonda hasta otra estrella. Pero si esto fuese así, Oumuamua se estaría moviendo demasiado despacio. Se mueve a unos 30 kilómetros por segundo cuando con una vela solar se estaría moviendo a unos 10.000 kilómetros por segundo.
Recreación de ‘Oumuamua’ ESO/M. KORNMESSER
Además, hay explicaciones naturales bastante creíbles. No hemos visto una cola de cometa, así que debe ser un tipo especial de cometa que no hemos visto en el sistema solar. Eso se podría explicar por el hecho de que lleva viajando millones o cientos de millones de años, y quizá ha perdido la mayor parte de su gas porque está pasando junto a una nueva estrella cada millón de años aproximadamente. Hay explicaciones naturales al fenómeno aunque no las comprendamos del todo.
P. Incluso aunque en los próximos años encontremos señales de vida en un planeta extrasolar, en el universo todo está tan lejos que nunca lo podríamos visitar.
R. Si piensas en una escala humana, es imposible que en una vida llegues a ningún sitio. Pero si tienes una civilización inteligente capaz de construir robots y estos robots van a otro planeta, y después estos robots pueden construir una fábrica que construya más robots, puedes producir un efecto bola de nieve y en unos pocos cientos de millones de años podrías poblar con robots todos los planetas de la galaxia. Así que hay quien se plantea que como estos robots no han llegado a la Tierra, podemos pensar que no hay ninguna civilización en la galaxia con esa capacidad, porque si la hubiese ya estarían aquí. Pero en principio sería posible si no se piensa poblar la galaxia en una generación humana sino durante la vida una civilización completa. Así que el factor final es la longevidad de nuestra civilización. Si matamos nuestro planeta de aquí a mil años, no habrá posibilidad de comunicarse con otras civilizaciones, en particular si ellos tampoco saben cuidar sus planetas.
Un matorral y un pájaro y un pez en las olas saladas.”
Esto nos decía Empédocles, el padre de aquellos primitivos elementos formados por Agua, tierra, aire y fuego que, mezclados en la debida proporción, formaban todas las cosas que podemos ver a nuestro alrededor. Claro que, él no podía llegar a imaginar hasta donde pudimos llegar después en la comprensión de la materia a partir del descubrimiento de las partículas “elementales” que formaban el átomo. Pero sí, con sus palabras, nos quería decir que, la materia, una veces está conformando mundos y, en otras, estrellas y galaxias.
Sí, hay cosas malas y buenas pero todas deben ser conocidas para poder, en el primer caso aprovecharlas, y en el segundo, prevenirlas.
Pero demos un salto en el tiempo y viajemos hasta los albores del siglo XX cuando se hacía cada vez más evidente que alguna clase de energía atómica era responsable de la potencia del Sol y del resto de las estrellas que más lejos, brillaban en la noche oscura. Ya en 1898, sólo dos años despuès del descubrimiento de la radiactividad por Becquerel, el geólogo americano Thomas Chrowder Chamberlin especulaba que los átomos eran “complejas organizaciones y centros de enormes energías”, y que “las extraordinarias condiciones que hay en el centro del Sol pueden…liberar una parte de su energía”. Claro que, por aquel entonces, nadie sabía cual era el mecanismo y cómo podía operar, hasta que no llegamos a saber mucho más sobre los átomos y las estrellas.
Conseguimos desvelar el secreto escondido en los átomos y llegamos a saber que fuerza operaba dentro del núcleo atómico en el que residía el 99,99% de toda la masa atómica, el resto eran espacios “vacíos”.
El intento de lograr tal comprensión exigió una colaboración cada vez mayor entre los astrónomos y los físicos nucleares. Su trabajo llevaría, no sólo a resolver la cuestión de la energía estelar, sino también al descubrimiento de una trenza dorada en la que la evolución cósmica se entrelaza en la historia atómica y la estelar.
La Clave: Fue comprender la estructura del átomo. Que el átomo tenía una estructura interna podía inferirse de varias líneas de investigación, entre ellas, el estudio de la radiactividad: para que los átomos emitiesen partículas, como se había hallado que lo hacían en los laboratorios de Becquerel y los Curie, y para que esas emisiones los transformasen de unos elementos en otros, como habían demostrado Rutherford y el químico inglés Frederick Soddy, los átomos debían ser algo más que simples unidades indivisibles, como implicaba su nombre (de la voz griega que significa “imposible de cortar”).
El átomo de Demócrito era mucho más de lo que él, en un principio intuyó que sería. Hoy sabemos que está conformado por diversas partículas de familias diferentes: unas son bariones que en el seno del átomo llamados nucleones (los hadrones que forman la materia bariónica y que fuera del núcleo llevan los nombres de Protón y Neutrón), otras son leptones que gitan alrededor del núcleo para darle estabilidad de cargas, y, otras, de la familia de los Quarks, construyen los bariones del núcleo y, todo ello, está, además, vigilado por otras partículas llamadas bosones intermedios de la fuerza nuclear fuerte, los Gluones que, procuran mantener confinados a los Quarks.
Pero no corramos tanto, la física atómica aún debería recorrer un largo camino para llegar a comprender la estructura que acabamos de reseñar. De los trs principales componentes del átomo -el protón, el neutrón y el electrón-, sólo el electrón había sido identificado (por J.J. Thomson, en los últimos años del siglo XIX). Nadie hablaba de energía “nuclear” pues ni siquiera se había demostrado la existencia de un núcleo atómico, y mucho menos de sus partículas constituyentes, el protón y el neutrón, que serían identificados, respectivamente, por Thomson en 1913 y James Chawick en 1932.
De importancia capital resultó conocer la existencia del núcleo y que éste, era 1/100.000 del total del átomo, es decir, casi todo el átomo estaba compuesto de espacios “vacíos” y, la materia así considerada, era una fracción infintesimal del total atómico.
Rutherford, Hans Geiger y Ernest Marsden se encontraban entre los Estrabones y Tolomeos de la cartografía atómica, en Manchester , de 1909 a 1911, sonderaron el átomo lanzando corrientes de “partículas alfa” subatómicas -núcleos de helio- contra delgadas laminillas de oro, plata, estaño y otros metales. La mayoría de partículas Alfa se escapaban a través de las laminillas, pero, para sombro de los experimentadores, algunas rebotaban hacia atrás. Rutherford pensó durante largo tiempo e intensamente en este extraño resultado; era tan sorprendente, señalaba, como si una bala rebotase sobre un pañuelo de papel. Finalmente, en una cena en su casa en 1911, anunció a unos pocos amigos que había dado con una explicación: que la mayoría de la masa de un átomo reside en un diminuto núcleo masivo. Ruthertford pudo calcular la carga y el diámetro máximo del nucleo atómico. Así se supo que los elementos pesados eran más pesados que los elementos ligeros porque los núcleos de sus átomos tienen mayor masa.
El simple hecho de que hayamos sido capaces de “entrar” en esos laberintos profundos… ¡Es un milagro en sí mismo! LLegar a comprender lo que está pasando en el infinitesimal espacio de un núcleo atómico… ¡Esen sí mismo asombroso!
Todos sabemos ahora, la función que desarrollan los electrones en el átomo. Pero el ámbito de los electrones para poder llegar a la comprensión completa, tuvo que ser explorado, entre otros, por el físico danés Niels Bohr, quien demostró que ocupaban órbitas, o capas, discretas que rodean al núcleo. (Durante un tiempo Bohr consideró el átomo como un diminuto sistema solar, pero ese análisis, pronto demostró ser inadecuado; el átomo no está rígido por la mecánica newtoniana sino por la mecánica cuántica.)
Entre sus muchos otros éxitos, el modelo de Bohr revelaba la base física de la espectroscopia. El número de electrones de un átomo está determinado por la carga eléctrica del núcleo, la que a su vez se debe al número de protones del núcleo, que es la clave de la identidad química del átomo. Cuando un electróncae de una órbita externa a una órbita interior emite un fotón. La longitud de onda de este fotón está determinada por las órbitas particulares entre las que el electrón efectúa la transición. E esta es la razón de que un espectro que registra las longitudes de onda de los fotones, revele los elementos químicos que forman las estrellas u otros objetos que sean estudiados por el espectroscopista. En palabras de Max Planck, el fundador de la física cuántica, el modelo de Bohr del átomo nos proporciona “la llave largamente buscada de la puerta de entrada al maravilloso mundo de la espectroscopia, que desde el descubrimiento del análisis espectral (por Fraunhoufer) había desafiado obtinadamente todos los intentos de conocerlo”.
Es curioso que, mirando en la oscura noche como brillan las estrellas del cielo, nos atrae su titilar engañoso (es la atmósfera terrestre la que hace que lo parezca) y su brillo, Sin embargo, pocos llegan a pensar en lo que verdaderamente está allí ocurriendo. Las transformaciones de fase por fusión no cesan. Esta transformación de materia en energía es consecuencia de la equivalencia materia-energía, enunciada por Albert Einstein en su famosa fórmula E=mc2; donde E es la energía resultante, m es la masa transformada en energía, y c es la velocidad de la luz (300 000 kilómetros por segundo). La cantidad de energía que se libera en los procesos de fusión termonuclear es fabulosa. Un gramo de materia transformado íntegramente en energía bastaría para satisfacer los requerimientos energéticos de una familia mediana durante miles de años.
Es un gran triunfo del ingenio humano el saber cómo están conformadas las las estrellas, de qué materiales están hechas, y, sobre todo, que mecanismos funcionan dentro de ellas a más de 15.000.000 de grados para crear elementos nuevos. Recuerdo aquí a aquel Presidente de la Real Society de Londres que, en una reunión multitudinaria, llegó a decir: “Una cosa está clara, nunca podremos saber de qué están hechas las estrellas”. El hombre se vistió de gloria con la, desde entonces, famosa frase. Creo que nada, con tiempo por delante, será imposible para nosotros.
Pero, por maravilloso que nos pueda parecer el haber llegado a la comprensión de que los espectros revelan saltos y tumbos de los electrones en sus órbitas de Bohr, aún nadie podía hallar en los espectros de las estrellas las claves significativas sobre lo que las hace brillar. En ausencia de una teoría convincente, se abandonó este campo a los taxonomistas, a los que seguían obstinadamente registrando y catalogando espectros de estrellas, aunque no sabían hacia donde los conduciría esto.
En el Laboratorio de la Universidad de Harvard, uno de los principales centros de la monótona pero prometedora tarea de la taxonomía estelar, las placas fotográficas que mostraban los colores y espectros de decenas de miles de estrellas se apilaban delante de “calculadoras”, mujeres solteras en su mayoría y, de entre ellas, Henrietta Leavitt, la investigadora pionera de las estrellas variables Cefeidas que tan útiles serían a Shapley y Hubble.
Imagen de Sirio A, la estrella más brillante del cielo tomada por el Telescopio Hubble (Créd. NASA). Sirio es la quinta estrella más cercana y tiene una edad de 300, millones de años. Es una estrella blanca de la secuencia principal de tipo espectral A1V con temperatura superficial de 10 000 K y situada a 8,6 años luz de la Tierra. Es una estrella binaria y, de ella, podríamos contar muchas historias. La estrella fue importante en las vidas de Civilizaciones pasadas como, por ejemplo, la egipcia.
Fue Cannon quien, en 1915, empezó a discernir la forma en una totalidad de estrellas en las que estaba presente la diversidad, cuando descubrió que en una mayoría, las estrellas, pertenecían a una de media docena de clases espectrales distintas. Su sistema de clasificación, ahora generalizado en la astronomía estelar, ordena los espectros por el color, desde las estrellas O blancoazuladas, pasando por las estrellas G amarillas como el Sol, hasta estrellas rojas M. Era un rasgo de simplicidad denajo de la asombrosa variedad de las estrellas.
Las Pléyades y las Híades
Pronto se descubrió un orden más profundo, en 1911, cuando el ingeniero y astrónomo autodidacta danés Ejnar Hertzsprung analizó los datos de Cannon y Maury de las estrellas de dos cúmulos, las Híades y las Pléyades. Los cúmulos como estos son genuinos conjuntos de estrellas y no meras alineaciones al azar; hasta un observador poco experimentado saltaría con entusiasmo cuando recorre con el telescopio las Pléyades, con sus estrellas color azul verdoso enredadas en telarañas de polvo de diamante, o las Híades, cuyas estrellas varían en color desde el blanco mate hasta un amarillo apagado.
Las Híades
Hertzsprung utilizó los cúmulos como muestras de laboratorio con las que podía buscar una relación entre los colores y los brillos intrínsecos de las estrellas. Halló tal relación: la mayoría de las estrellas de ambos cúmulos caían en dos líneas suavemente curvadas. Esto, en forma de gráfico, fue el primer esbozo de un árbol de estrellas que desde entonces ha sido llamado diagrama Hertzsprung-Russell.
El progreso en física, mientras tanto, estaba bloquedado por una barrera aparentemente insuperable. Esto era literal: el agente responsable era conocido como barrera de Coulomb, y por un tiempo frustó los esfuerzos de las físicos teóricos para copmprender como la fusión nuclear podía producir energía en las estrellas.
La línea de razonamiento que conducía a esa barrera era impecable. Las estrellas están formadas en su mayor parte por hidrógeno. (Esto se hace evidente en el estudio de sus espectros.) El núcleo del átomo de Hidrógeno consiste en un solo protón, y el protón contiene casi toda la masa del átomo. (Sabemos esto por los experimentos de Rutherford). Por tanto, el protón también debe contener casi toda la energía latente del átomo de hidrógeno. (Recordemos que la masa es igual a la energía: E = mc2.) En el calor de una estrella, los protones son esparcidos a altas velocidades -el calor intenso significa que las partículas involucradas se mueven a enormes velocidades- y, como hay muchos protones que se apiñan en el núcleo denso de una estrella, deben tener muchísimos choques. En resumen, la energía del Sol y las estrellas, puede suponerse razonablemente, implica las interacciones de los protones. Esta era la base de la conjetura de Eddintong de que la fuente de la energía estelar “difícilmente puede ser otra que la energía subatómica, la cual, como se sabe, existe en abundancia en toda materia”.
Plasma en ebullición en la superficie del Sol
Hasta el momento todo lo que hemos repasado está bien pero, ¿que pasa con la Barrera de Coulomb? Los protones están cargados positivamente; las partículas de igual carga se repelen entre sí; y este obstáculo parecía demasiado grande para ser superado, aun a la elevada velocidad a la que los protones se agitaban en el intenso calor del interior de las estrellas. De acuerdo con la física clásica, muy raras veces podían dos protones de una estrella ir con la rapidez suficiente para romper las murallas de sus campos de fuerza electromagnéticos y fundirse en un solo núcleo. Los cálculos decían que la tasa de colisión de protones no podía bastar para mantener las reacciones de fusión. Sin embargo, allí estaba el Sol, con el rostro radiante, riéndose de las ecuaciones que afirmaban que no podía brillar.
Afortunadamente, en el ámbito nuclear, las reglas de la Naturaleza no se rigen por las de la mecánica de la física clásica, que tienen validez para grandes objetos, como guijarros y planetas, pero pierden esa validez en el reino de lo muy pequeño. En la escala nuclear, rigen las reglas de la indeterminación cuántica. La mecánica cuántica demuestra que el futuro del protón sólo puede predecirse en términos de probabilidades: la mayoría de las veces el protón rebotará en la Barrera de Coulomb, pero de cuando en cuando, la atravesará. Este es el “efecto túnel cuántico”; que permite brillar a las estrellas.
El proceso Triple Alfa que hace posible “fabricar” Carbono
George Gamow, ansioso de explotar las conexiones entre la astronomía y la nueva física exótica a la que era adepto, aplicó las probabilidades cuánticas a la cuestión de la fusión nuclear en las estrellas y descubrió que los protones pueden superar la Barrera de Coulomb. Esta historia es mucho más extensa y nos llevaría hasta los trabajos de Hans Bethe, Edward Teller y otros, así como, al famoso Fred Hoyle y su efecto Triple Alfa y otras maravillas que, nos cuentan la historia que existe desde los átomos a las estrellas del cielo.
La Mente puede recrear cualquier cosa que esté en nuestro recuerdo, o, incluso, de lo que nunca supo
Surge del cerebro y crea las ideas
La Naturaleza de la mente es el misterio más profundo de la humanidad., se trata, además de un enigma de proporciones gigantescas, que se remonta a milenios atrás, y que se extiende desde el centro del cerebro hasta los confines del Universo. Es un secreto que provocó vértigo y depresión en alguna de las mentes más preclaras de algunos de los filósofos y pensadores más grandes que en el mundo han sido. Sin embargo, este amplio vacío de ignorancia está, ahora, atravesado, por varios rayos de conocimiento que nos ayudará a comprender cómo se regula la energía mental.
Ahora estamos comenzando a comprender (en parte) el desarrollo del cerebro y de sus interaciones que se producen en varias escalas de tiempo, y, conforme a las experiencias del individuo, sus serntidos que recogen datos del entorno…
Aunque puede que no sepamos que es la mente, sabemos algunas cosas sobre el cerebro. Está formado por una red, una increíble maraña de “cables” eléctricos que serpentean a través de una gran cantidad de “sustancias” neuroquímicas. Existen quizás cien mil millones de neuronas en el cerebro humano, tantas como estrellas hay en la Vía Láctea, y, cada una de ellas recibe datos eléctricos de alrededor de mil neuronas, además de estar en contacto y en comunicación con unas cien mil neuronas más.
El cerebro adulto continúa generando neuronas durante toda la vida. El proceso se conoce como neurogénesis, y ocurre principalmente en el hipocampo, …
El suministro de datos que llega en forma de multitud de mensajes procede de los sentidos, que detectan el entorno interno y externo, y luego envía el resultado a los músculos para dirigir lo que hacemos y decimos. Así pues, el cerebro es como un enorme ordenador que realiza una serie de tareas basadas en la información que le llega de los sentidos. Pero, a diferencia de un ordenador, la cantidad de material que entra y sale parece poca cosa en comparación con la actividad interna. Seguimos pensando, sintiendo y procesando información incluso cuando cerramos los ojos y descansamos.
La unidad a partir de la cual se configuran todas las fabulosas actividades del cerebro es una célula del mismo, la neurona. Las neuronas son unas células fantásticamente ramificadas y extendidas, pero diminutas.
La hipótesis neuronal de las células anatómicamente separadas se estableció cuando Santiago Ramón y Cajal (1852-1934) modificó el método cromoargéntico de Golgi y lo utilizó en una serie magistral de experimentos. Aunque Golgi y Ramón y Cajal compartieron el premio Nobel en 1906, siguieron nsiendo revales encarnizados hasta el final.
Si todas las neuronas del cerebro, los cien mil millones, están anatómicamente separadas unas de otras, ¿cómo podían los mensajes eléctricos que pasaban a través de cada una de ellas saltar de una neurona a la siguiente?. La respuesta es que no saltan sino que hacen otra cosa, y esto tiene una importancia fundamental en relación con el modo en que funciona el cerebro.
El descubrimiento fue realizado por Otto Loewi, cuando trabajaba en Australia durante la década de 1920. Loewi estaba trabajando con la transmisión neuronal del cerebro al corazón a través del nervio vago. Aisló el corazón de una rana con el nervio vago intacto, y demostró que la estimulación del nervio hacía que los latidos del corazón fueran más lentos. Pero él quería saber cómo se transmitía al corazón el mensaje eléctrico que transporta el nervio vago. ¿Se trataba de una conexión eléctrica o química, o de alguna otra cosa diferente? La clave estaba en una solución química que bañaba el corazón después de la estimulación del nervio vago que como consecuencia segregaba esta sustancia química que hacía de intermediaria en la transmisión del mensaje desde una célula a la siguiente.
Por lo tanto, los impulsos eléctricos nerviosos pasan a los extremos de las neuronas, donde la llegada del impulso hace que la terminación nerviosa libere una sustancia química (un neurotransmisor), que cruza el estrecho espacio que hay entre dos neuronas (la sinapsis), y entonces la sustancia química actúa sobre la segunda neurona para modificar su capacidad de emitir , a su vez, impulsos nerviosos. Cada neurona liberará sólo un tipo de neurotransmisor (habitualmente), pero lo liberará hacia muchas neuronas diferentes.
Existen dos neurotransmisores principales en el cerebro: el glutamato y el GABA. El glutamato actúa sobre la segunda neurona para aumentar la probabilidad de que emita un impulso nervioso (por lo que es un transmisor excitante), mientras que el GABA actúa para disminuir la probabilidad de que lo emita (luego es un transmisor inhibidor).
No obstante, una neurona no recibe una sola entrada desde una sinapsis neuronal individual, sino que recibe muchos miles. Decenas de miles de sinapsis desde miles de neuronas diferentes cubren la superficie ramificada de una sola neurona. Omito explicar aquí (podría ser tedioso para del lector) todos los mecanismos de los transmisores entre sinapsis y las ramas de salida (los axones) por las que se desplazan las señales eléctricas como ondas.
Una neurona, o una red de neuronas, puede así recoger información de muchas fuentes, incluídos los sentidos, la memoria y las emociones, para controlar la señal que ella misma va a emitir y que finalmente puede ocasionar una contracción o una relajación muscular.
El glutamato es el principal neurotransmisor del cerebro, pero paradójicamente es tambnién una toxina poderosa para las células del sistema nervioso. Cuando los niveles de glutamato son bajos, actúan como una señal entre neuronas, pero si son excesivos las sobreexcitan y las matan.. Esta acción “excitotóxica” del glutamato parece ser la causa de muerte neuronal durante las apoplejías y en las enfermedades neurodegenerativas, tales como la de Alzheimer, la de Parkison, y la esclerosis múltiples.
El glutamato es uno de los aditivos más frecuentes en los alimentos, presentándose en forma de sal como glutamato monosódico (GMS). Actúa reforzando el sabor y es omnipresente en la cocina china: la salsa de soja es especialmente rica en glutamato. Afortunadamente, el glutamato que está en el instestino y en la sangre apenas penetra en el cerebro, porque la barrera “sangre-cerebro” impide que glutamato cruce desde la sangre al cerebro.
La mayoría de las personas no lo sabe y de hecho pocas la han padecido, pero existe una enfermedad que responde al nombre de Síndrome de restaurante chino …
c –donde nunca he comido, ni comeré- que puede aparecer por comer demasiados alimentos saturados de glutamano y que consiste en unos niveles de glutamano tan elevados en la sangre que no puede impedir que entre en el cerebro y cause la muerte neuronal. Claro que, otras fuentes nos dicen que el GABA, actúa como calmante y de alguna manera, contrarresta el mal. De hecho, los barbitúricos, el principio activo de las píldoras para dormir que toman algunos enfermos depresivos y las benzodiacepinas, como el Librium o el Valium, que reduce la ansiadad, actúan, por ejemplo, reforzando la acción del GABA en su receptor neuronal.
La radiación alfa consiste en núcleos de helio-4 (4He) y es detenida fácilmente por una hoja de papel. La radiación Beta que consiste en electrones, es detenida por una placa de aluminio. La radiación gamma es finalmente absorbida cuando penetra en un material denso. El plomo es bueno en la absorción de la radiación gamma, debido a su densidad.
¿Qué no será capaz de inventar el hombre para descubrir los misterios de la naturaleza?
Ha pasado mucho tiempo desde que Rutherford identificara la primera partícula nuclear (la partícula alfa). El camino ha sido largo y muy duro, con muchos intentos fallidos antes de ir consiguiendo los triunfos (los únicos que suenan), y muchos han sido los nombres que contribuyen para conseguir llegar al conocimiento del átomo y del núcleo actual; los electrones circulando alrededor del núcleo, en sus diferentes niveles, con un núcleo compuesto de protones y neutrones que, a su vez, son constituidos por los quarks allí confinados por los gluones, las partículas mediadoras de la fuerza nuclear fuerte. Pero, ¿qué habrá más allá de los quarks?, ¿las supercuerdas vibrantes? Algún día se sabrá.
Partículas
El universo de las partículas es fascinante. Cuando las partículas primarias chocan con átomos y moléculas en el aire, aplastan sus núcleos y producen toda clase de partículas secundarias. En esta radiación secundaria (aún muy energética) la que detectamos cerca de la Tierra, por los globos enviados a la atmósfera superior, han registrado la radiación primaria.
El físico estadounidense Robert Andrews Millikan, que recogió una gran cantidad de información acerca de esta radiación (y que le dio el nombre de rayos cósmicos), decidió que debería haber una clase de radiación electromagnética. Su poder de penetración era tal que, parte del mismo, atravesaba muchos centímetros de plomo. Para Millikan, esto sugería que la radiación se parecía a la de los penetrantes rayos gamma, pero con una longitud de onda más corta.
Otros, sobre todo el físico norteamericano Holly Compton, no estaban de acuerdo en que los rayos cósmicos fuesen partículas. Había un medio para investigar este asunto; si se trataba de partículas cargadas, deberían ser rechazadas por el campo magnético de la Tierra al aproximarse a nuestro planeta desde el espacio exterior. Compton estudió las mediciones de la radiación cósmica en varias latitudes y descubrió que en realidad se curvaban con el campo magnético: era más débil cera del ecuador magnético y más fuerte cerca de los polos, donde las líneas de fuerza magnética se hundían más en la Tierra.
Las partículas cósmicas primarias, cuando entran en nuestra atmósfera, llevan consigo unas energías fantásticas, muy elevadas. En general, cuanto más pesado es el núcleo, más raro resulta entre las partículas cósmicas. Núcleos tan complejos como los que forman los átomos de hierro se detectaron con rapidez; en 1.968, otros núcleos como el del uranio. Los núcleos de uranio constituyen sólo una partícula entre 10 millones. También se incluirán aquí electrones de muy elevada energía.
Para entender con claridad la noción de positrón, hay que abordar otros conceptos. Las antipartículas, entre las que están incluidos los positrones, …
Ahora bien, la siguiente partícula inédita (después del neutrón) se descubrió en los rayos cósmicos. A decir verdad, cierto físico teórico había predicho ya este descubrimiento. Paul Adrien Dirac había aducido, fundándose en un análisis matemático de las propiedades inherentes a las partículas subatómicas, que cada partícula debería tener su antipartícula (los científicos desean no sólo que la naturaleza sea simple, sino también simétrica). Así pues, debería haber un antielectrón, salvo por su carga que sería positiva y no negativa, idéntico al electrón; y un antiprotón, con carga negativa en vez de positiva.
En 1.930, cuando Dirac expuso su teoría, no llamó demasiado la atención en el mundo de la ciencia. Pero, fiel a la cita, dos años después apareció el antielectrón. Por entonces, el físico americano Carl David Anderson trabajaba con Millikan en un intento por averiguar si los rayos cósmicos eran radiación electromagnética o partículas. Por aquellas fechas, casi todo el mundo estaba dispuesto a aceptar las pruebas presentadas por Compton, según las cuales, se trataría de partículas cargadas; pero Millikan no acababa de darse por satisfecho con tal solución.
La existencia de los pòsitrones puede llegar a ser indefinida, lo que ocurre es que, al estar en un universo repleto de electrones, cuando apenas han iniciado su veloz carrera se encuentran con uno y, su carrera, dura apenas una millonésima de segundo y, el electrón y el positrón quedan asociados y giran alrededor de un centro de fuerza común
Anderson se propuso averiguar si los rayos cósmicos que penetraban en una cámara de ionización se curvaban bajo la acción de un potente campo magnético. Al objeto de frenar dichos rayos lo suficiente como para detectar la curvatura, si la había, puso en la cámara una barrera de plomo de 6’35 mm de espesor. Descubrió que, cuando cruzaba el plomo, la radiación cósmica trazaba una estela curva a través de la cámara; y descubrió algo más. A su paso por el plomo, los rayos cósmicos energéticos arrancaban partículas de los átomos de plomo. Una de esas partículas dejó una estela similar a la del electrón. ¡Allí estaba, pues, el antielectrón de Dirac! Anderson le dio el nombre de positrón. Tenemos aquí un ejemplo de radiación secundaria producida por rayos cósmicos. Pero aún había más, pues en 1.963 se descubrió que los positrones figuraban también entre las radiaciones primarias.
Abandonado a sus propios medios, el positrón es tan estable como el electrón (¿y por qué no habría de serlo si el idéntico al electrón, excepto en su carga eléctrica?). Además, su existencia puede ser indefinida. Ahora bien, en realidad no queda abandonado nunca a sus propios medios, ya que se mueve en un universo repleto de electrones. Apenas inicia su veloz carrera (cuya duración ronda la millonésima de segundo), se encuentra ya con uno.
Así, durante un momento relampagueante quedaron asociados el electrón y el positrón; ambas partículas girarán en torno a un centro de fuerza común. En 1.945, el físico americano Arthur Edwed Ruark sugirió que se diera el nombre de positronio a este sistema de dos partículas, y en 1.951, el físico americano de origen austriaco Martin Deutsch consiguió detectarlo guiándose por los rayos gamma característicos del conjunto.
Pero no nos confundamos, aunque se forme un sistema positronio, su existencia durará, como máximo, una diezmillonésima de segundo. El encuentro del electrón-positrón provoca un aniquilamiento mutuo; sólo queda energía en forma de radiación gamma. Ocurre pues, tal como había sugerido Einstein: la materia puede convertirse en energía y viceversa. Por cierto, que Anderson consiguió detectar muy pronto el fenómeno inverso: desaparición súbita de rayos gamma para dar origen a una pareja electrón-positrón. Este fenómeno se llama producción en pareja. Anderson compartió con Hess el premio Nobel de Física de 1.936.
Poco después, los Joliot-Curie detectaron el positrón por otros medios, y al hacerlo así realizaron, de paso, un importante descubrimiento. Al bombardear los átomos de aluminio con partículas alfa, descubrieron que con tal sistema no sólo se obtenían protones, sino también positrones. Cuando suspendieron el bombardeo, el aluminio siguió emitiendo positrones, emisión que sólo con el tiempo se debilitó. Aparentemente habían creado, sin proponérselo, una nueva sustancia radiactiva. He aquí la interpretación de lo ocurrido según los Joliot-Curie: cuando un núcleo de aluminio absorbe una partícula alfa, la adición de los dos protones transforma el aluminio (número atómico 13) en fósforo (número atómico 15). Puesto que las partículas alfa contienen cuatro nucleones en total, el número masivo se eleva 4 unidades, es decir, del aluminio 27 al fósforo 31. Ahora bien, si al reaccionar se expulsa un protón de ese núcleo, la reducción en una unidad de sus números atómicos y masivos hará surgir otro elemento, o sea, el silicio 30.
Puesto que la partícula alfa es el núcleo del helio, y un protón es el núcleo del hidrógeno, podemos escribir la siguiente ecuación de esta reacción nuclear:
aluminio 27 + helio 4 = silicio 30 + hidrógeno 1
Nótese que los números másicos se equilibran:
27 + 4 = 30 + 1
Adentrarse en el universo de las partículas que componen los elementos de la tabla periódica, y en definitiva, la materia conocida, es verdaderamente fantástico.
Tan pronto como los Joliot-Curie crearon el primer isótopo radiactivo artificial, los físicos se lanzaron en tropel a producir tribus enteras de ellas. En realidad, las variedades radiactivas de cada elemento en la tabla periódica son producto de laboratorio. En la moderna tabla periódica, cada elemento es una familia con miembros estables e inestables, algunos procedentes de la naturaleza, otros sólo del laboratorio. Por ejemplo, el hidrógeno presenta tres variedades: en primer lugar, el corriente, que tienen un solo protón. En 1.932, el químico Harold Urey logró aislar el segundo. Lo consiguió sometiendo a lenta evaporación una gran cantidad de agua, de acuerdo con la teoría de que los residuos representarían una concentración de la forma más pesada del hidrógeno que se conocía, y, en efecto, cuando se examinaron al espectroscopio las últimas gotas de agua no evaporadas, se descubrió en el espectro una leve línea cuya posición matemática revelaba la presencia de hidrógeno pesado.
El núcleo de hidrógeno pesado está constituido por un protón y un neutrón. Como tiene un número másico de 2, el isótopo es hidrógeno. Urey llamó a este átomo deuterio (de la voz griega deutoros, “segundo”), y el núcleo deuterón. Una molécula de agua que contenga deuterio se denomina agua pesada, que tiene puntos de ebullición y congelación superiores al agua ordinaria, ya que la masa del deuterio es dos veces mayor que la del hidrógeno corriente. Mientras que ésta hierve a 100º C y se congela a 0º C, el agua pesada hierve a 101’42º C y se congela a 3’79º C. El punto de ebullición del deuterio es de -23’7º K, frente a los 20’4º K del hidrógeno corriente. El deuterio se presenta en la naturaleza en la proporción de una parte por cada 6.000 partes de hidrógeno corriente. En 1.934 se otorgó a Urey el premio Nobel de Química por su descubrimiento del deuterio.
El deuterio resultó ser una partícula muy valiosa para bombardear los núcleos. En 1.934, el físico australiano Marcus Lawrence Edwin Oliphant y el austriaco P. Harteck atacaron el deuterio con deuterones y produjeron una tercera forma de hidrógeno, constituido por un protón y dos neutrones. La reacción se planteó así:
Este nuevo hidrógeno superpesado se denominó tritio (del griego tritos, “tercero”); su ebullición a 25º K y su fusión a 20’5º K.
Como es mi costumbre, me desvío del tema y sin poderlo evitar, mis ideas (que parecen tener vida propia), cogen los caminos más diversos. Basta con un fugaz recuerdo; lo sigo y me lleva a destinos distintos de los que me propuse al comenzar. Así, en este caso, me pasé a la química, que también me gusta mucho y está directamente relacionada con la física; de hecho son hermanas: la madre, las matemáticas, la única que finalmente lo podrá explicar todo.
Como pueden haber deducido por el título, me estoy refiriendo a cualquiera de los cuatro tipos diferentes de interacciones que pueden ocurrir entre los cuerpos. Estas interacciones pueden tener lugar incluso cuando los cuerpos no están en contacto físico y juntas pueden explicar todas las fuerzas que se observan en el universo.
La interacción más potente de todas es la que hace posible que los núcleos atómicos existan al mantener confinados a los quarks dentro de los nucleones (protones y neutrones)
Viene de lejos el deseo de muchos físicos que han tratado de unificar en una teoría o modelo a las cuatro fuerzas, que pudieran expresarse mediante un conjunto de ecuaciones. Einstein se pasó los últimos años de su vida intentándolo, pero igual que otros antes y después de él, aún no se ha conseguido dicha teoría unificadora de los cuatro interacciones fundamentales del universo. Se han hecho progresos en la unificación de interacciones electromagnéticas y débiles.
Figuras
Estos diagramas son una concepción artística de los procesos físicos. No son exactos y no están hechos a escala. Las áreas sombreadas con verde representan la nube de gluones o bien el campo del gluón, las líneas rojas son las trayectorias de los quarks.
En el texto del recuadro dice: Un neutrón decae en un protón, un electrón y un antineutrino, a través de un bosón virtual (mediador). Este es el decaimiento beta del neutrón.
En el texto del recuadro dice: Una colisión electrón – positrón (antielectrón) a alta energía puede aniquilarlos para producir mesonesB0 y Bbarra0 a través de un bosón Z virtual o de un fotón virtual.
El texto del recuadro dice: Dos protones que colisionan a alta energía pueden producir varios hadrones más partículas de masa muy grande tales como los bosonesZ. Este tipo de suceso es raro pero puede darnos claves cruciales sobre cómo es la estructura de la materia.
Aunque no pueda dar esa sensación, todo está relacionado con las interacciones fundamentales de la materia en el entorno del espacio-tiempo en el que se mueven y conforman objetos de las más variadas estructuras que en el Universo podemos contemplar, desde una hormiga a una estrella, un mundo o una galaxia. Las fuerzas fundamentales de la Naturaleza siempre están presentes y de alguna manera, afecta a todo y a todos.
Cuando hablamos de la relatividad general, todos pensamos en la fuerza gravitatoria que es unas 1040veces más débil que la fuerza electromagnética. Es la más débil de todas las fuerzas y sólo actúa entre los cuerpos que tienen masa. Es siempre atractiva y pierde intensidad a medida que las distancias entre los cuerpos se agrandan. Como ya se ha dicho, su cuanto de gravitación, el gravitón, es también un concepto útil en algunos contextos. En la escala atómica, esta fuerza es despreciablemente débil, pero a escala cosmológica, donde las masas son enormes, es inmensamente importante para mantener a los componentes del universo juntos. De hecho, sin esta fuerza no existiría el Sistema Solar ni las galaxias, y seguramente, nosotros tampoco estaríamos aquí. Es la fuerza que tira de nuestros pies y los mantiene firmemente asentados a la superficie del planeta. Aunque la teoría clásica de la gravedad fue la que nos dejó Isaac Newton, la teoría macroscópica bien definida y sin fisuras de la gravitación universal es la relatividad general deEinstein, mucho más completa y profunda.
¿Lo grande y lo pequeño en la misma Teoría?
Nadie ha podido lograr, hasta el momento, formular una teoría coherente de la Gravedad Cuántica que unifique las dos teorías. Claro que, la cosa no será nada fácil, ya que, mientras que aquella nos habla del macrocosmos, ésta otra nos lleva al microcosmos, son dos fuerzas antagónicas que nos empeñamos en casar.
Seguimos empeñados en buscar esa teoría que una lo muy grande con lo muy pequeño y la Gravedad, hasta el momento no da el sí
Por el momento, no hay una teoría cuántica de la interacción gravitatoria satisfactoria. Es posible que la teoría de supercuerdas pueda dar una teoría cuántica de la gravitación consistente, además de unificar la gravedad con los demás interacciones fundamentales sin que surjan los dichosos e indeseados infinitos.
Las partículas colisionan ente sí y se producen cambios y transiciones de fase
Algunos han puesto en duda la realidad del Modelo Estándar que, como se ha dicho aquí en otros trabajos, está construído con el contenido de una veintena de parámetros aleatorios (entre ellos el Bos´çon de Higgs) que no son nada satisfactorios para dar una conformidad a todo su entramado que, aunque hasta el momento ha sido una eficaz herramienta de la física, también es posible que sea la única herramienta que hemos sabido construir pero que no es ¡la herramient!
Es posible que sola sea cuestión de tiempo y de más investigación y experimento. En el sentido de la insatisfacción reinante entre algunos sectores, se encuentran los físicos del experimento de alta energía BaBar, en el SLAC, un acelerador lineal situado en Stanford (California). Según ellos, la desintegración de un tipo de partículas llamado «B to D-star-tau-nu» es mucho más frecuente de lo predicho por el modelo estándar. Puede que no sea importante y puede que, hasta la existencia del Bosón de Higgs esté en peligro a pesar de que en el LHC digan que se ha encontrado.
Esquema del decaimiento Beta y una sencilla explicación de la interacción débil
La fuerza débil recibe su nombre porque a la escala de sus interacciones es la más débil dentro del modelo estándar. Pero ojo, esto no incluye la gravedad, puesto que la gravedad no pertenece al modelo estándar por el momento. La interacción débil ocurre a una escala de metros, es decir, la centésima parte del diámetro de un protón y en una escala de tiempos muy variada, desde segundos hasta unos 5 minutos. Para hacernos una idea, esta diferencia de órdenes de magnitud es la misma que hay entre 1 segundo y 30 millones de años.
La interacción débil, que es unas 1010 veces menor que la interacción electromagnética, ocurre entre leptones y en la desintegración de los hadrones. Es responsable de la desintegración beta de las partículas y núcleos. En el modelo actual, la interacción débil se entiende como una fuerza mediada por el intercambio de partículas virtuales, llamadas bosones vectoriales intermediarios, que para esta fuerza son las partículas W+, W– y Z0. Las interacciones débiles son descritas por la teoría electrodébil, que las unifica con las interacciones electromagnéticas.
Propiedades de los Bosones mediadores intermediarios de la fuerza débil
La teoría electrodébil es una teoría gauge de éxito que fue propuesta en 1.967 por Steven Weinberg y Abdus Salam, conocida como modelo WS. También Sheldon Glashow, propuso otra similar.
La interacción electromagnética es la responsable de las fuerzas que controlan la estructura atómica, reacciones químicas y todos los fenómenos electromagnéticos. Puede explicar las fuerzas entre las partículas cargadas, pero al contrario que las interacciones gravitacionales, pueden ser tanto atractivas como repulsivas. Algunas partículas neutras se desintegran por interacciones electromagnéticas. La interacción se puede interpretar tanto como un modelo clásico de fuerzas (ley de Coulomb) como por el intercambio de unos fotones virtuales. Igual que en las interacciones gravitatorias, el hecho de que las interacciones electromagnéticas sean de largo alcance significa que tiene una teoría clásica bien definida dadas por las ecuaciones de Maxwell. La teoría cuántica de las interacciones electromagnéticas se describe con la electrodinámica cuántica, que es una forma sencilla de teoría gauge.
El electromagnetismo está presente por todo el Universo
La interacción fuerte es unas 102 veces mayor que la interacción electromagnética y, como ya se dijo antes, aparece sólo entre los hadrones y es la responsable de las fuerzas entre nucleones que confiere a los núcleos de los átomos su gran estabilidad. Actúa a muy corta distancia dentro del núcleo (10-15 metros) y se puede interpretar como una interacción mediada por el intercambio de mesones virtuales llamados Gluones. Está descrita por una teoría gauge llamada Cromodinámica cuántica.
La interacción fuerte, también conocida como interacción nuclear fuerte, es la interacción que permite unirse a los quarks para formar hadrones. A pesar de su fuerte intensidad, su efecto sólo se aprecia a distancias muy cortas del orden del radio atómico. Según el Modelo estándar, la partícula mediadora de esta fuerza es el Gluón. La teoría que describe a esta interacción es la cromodinámica cuántica (QCD) y fue propuesta por David Politzer, Frank Wilczek y David Gross en la década de 1980 y por lo que recibieron el Nobel 30 años más tarde cuando el experimento conformó su teoría.
La interacción fuerte, como se ha explicado muchas veces, es la más fuerte de todas las fuerzas fundamentales de la Naturaleza, es la responsable de mantener unidos los protones y neutrones en el núcleo del átomo. Como los protones y neutrones están compuestos de Quarks, éstos dentro de dichos bariones, están sometidos o confinados en aquel recinto, y, no se pueden separar por impedirlo los gluones que ejercen la fuerza fuerte, es decir, esta fuerza, al contrario que las demás, cuando más se alejan los quarks los unos de los otros más fuerte es. Aumenta con la distancia.
En la incipiente teoría del campo electromagnético sugerida por Faraday, desaparecía la distinción esencial entre fuerza y materia, introduciendo la hipótesis de que las fuerzas constituyen la única sustancia física.
Las características de las fuerzas eran:
Cada punto de fuerza actúa directamente sólo sobre los puntos vecinos.
La propagación de cualquier cambio de la intensidad de la fuerza requiere un tiempo finito.
Todas las fuerzas son básicamente de la misma clase; no hay en el fondo fuerzas eléctricas, magnéticas ni gravitatorias, sino sólo variaciones (probablemente geométricas) de un sólo tipo de fuerza subyacente.
Lo importante al considerar la influencia de la metafísica de Faraday en sus investigaciones, es su suposición de que la teoría de campos ofrece una explicación última a todos los fenómenos. Los cuerpos sólidos, los campos eléctricos y la masa de los objetos son, de alguna forma, sólo apariencias. La realidad subyacente es el campo, y el problema de Faraday era encontrar un lazo de unión entre las apariencias y la supuesta realidad subyacente
Estaría bueno que al final del camino se descubriera que todas son una sola fuerza
El concepto de campo de Faraday ha dado mucho juego en Física, es un concepto ideal para explicar cierttos fenómenos que se han podido observar en las investigaciones de las fuerzas fundamentales y otros. El campo no se ve, sin embargo, está ahí, rodea los cuerpos como, por ejemplo, un electrón o el planeta Tierra que emite su campo electromagnético a su alrededor y que tan útil nos resulta para evitar problemas.
Me he referido a una teoría gauge que son teorías cuánticas de campo creadas para explicar las interacciones fundamentales. Una teoría gauge requiere un grupo de simetría para los campos y las potenciales (el grupo gauge). En el caso de la electrodinámica, el grupo es abeliano, mientras que las teorías gauge para las interacciones fuertes y débiles utilizan grupos no abelianos. Las teorías gauge no abelianas son conocidas como teorías de Yang–Mills. Esta diferencia explica por qué la electrodinámica cuántica es una teoría mucho más simple que la cromodinámica cuántica, que describe las interacciones fuertes, y la teoría electrodébil que unifica la fuerza débil con la electromagnética. En el caso de la gravedad cuántica, el grupo gauge es mucho más complicado que los anteriores necesarios para la fuerza fuerte y electrodébil.
En las teorías gauge, las interacciones entre partículas se pueden explicar por el intercambio de partículas (bosones vectoriales intermediarios o bosones gante), como los gluones, fotones y los W y Z.
El físico Enrico Fermi, refiriéndose al gran número de partículas existentes, dijo: “Si tuviera que saber el nombre de todas las partículas, me habría hecho botánico.” Por todo lo antes expuesto, es preciso conocer los grupos o familias más importantes de partículas, lógicamente “el espacio tiempo” nos limita y, me remitiré a las más comunes, importantes y conocidas como:
– Protón, que es una partícula elemental estable que tiene una carga positiva igual en magnitud a la del electrón y posee una masa de 1’672614×10-27 Kg, que es 1836,12 veces la del electrón. El protón aparece en los núcleos atómicos, por eso es un nucleón que está formado por partículas más simples, los Quarks. Es decir, un protón está formado por dos quarks up y un quark down.
– Neutrón, que es un hadrón como el protón pero con carga neutra y también permanece en el núcleo, pero que se desintegra en un protón, un electrón y un antineutrino con una vida media de 12 minutos fuera del núcleo. Su masa es ligeramente mayor que la del protón (símbolo mn), siendo de 1’6749286(10)×10-27 kg. Los neutrones aparecen en todos los núcleos atómicos excepto en el del hidrógeno que está formado por un solo protón. Su existencia fue descubierta y anunciada por primera vez en 1.932 por James Chadwick (1891-1974. El protón está formado por tres quarks, dos quarks down y un quark up. Fijáos en la diferencia entre las dos partículas: la aparentemente minúscula diferencia hace que las dos partículas “hermanas” se comporten de formas muy distintas: la carga del protón es +2/3 +2/3 -1/3 = +1. Pero como el neutrón tiene up/down/down su carga es +2/3 -1/3 -1/3 = 0. ¡No tiene carga! No porque no haya nada con carga en él, sino porque las cargas que hay en su interior se anulan.
Los neutrinos, se cree que no tienen masa o, muy poca, y, su localización es difícil. Se han imaginado grandes recipientes llenos de agua pesada que, enterrados a mucha profundidad en las entrañas de la Tierra, en Minas abandonadas, captan los neutrinos provenientes del Sol y otros objetos celestes, explosiones supernovas, etc.
– Neutrino, que es un leptón que existe en tres formas exactas pero (se cree que) con distintas masas. Tenemos el ve (neutrino electrónico) que acompaña al electrón, vμ (neutrino muónico) que acompaña al muón, y vt (neutrino tau) que acompaña a la partícula tau, la más pesada de las tres. Cada forma de neutrino tiene su propia antipartícula.
El neutrino fue postulado en 1.931 para explicar la “energía perdida” en la desintegración beta. Fue identificado de forma tentativa en 1.953 y definitivamente en 1.956. Los neutrinos no tienen carga y se piensa que tienen masa en reposo nula y viajan a la velocidad de la luz, como el fotón. Hay teorías de gran unificación que predicen neutrinos con masa no nula, pero no hay evidencia concluyente.
Se ha conseguido fotografíar a un electrón. Poder filmar y fotografiar un electrón no es fácil por dos razones: primero, gira alrededor del núcleo atómico cada 0,000000000000000140 segundos , y, segundo, porque para fotografiar un electrón es necesario bombardearlo con partículas de luz (y cualquier que haya intentado sacarle una foto a un electrón sabe que hay que hacerlo sin flash).
– Electrón, que es una partícula elemental clasificada como leptón, con una carga de 9’109 3897 (54)×10-31Kg y una carga negativa de 1´602 177 33 (49) x 10-19 culombios. Los electrones están presentes en todos los átomos en agrupamientos llamados capas alrededor están presentes en todos los átomos en agrupamientos llamados capas alrededor del núcleo; cuando son arrancados del átomo se llaman electrones libres. Su antipartícula es el positrón, predicha por Paul Dirac.
El núcleo del átomo constituye el 99,9% de la masa
En los átomos existen el mismo número de protones que el de electrones, y, las cargas positivas de los protones son iguales que las negativas de los electrones, y, de esa manera, se consigue la estabilidad del átomo al equilibrarse las dos fuerzas contrapuestas. El electrón fue descubierto en 1.897 por el físico británico Joseph John Thomson (1.856 – 1940). El problema de la estructura (si la hay) del electrón no está resuelto. Si el electrón se considera como una carga puntual, su autoenergía es infinita y surgen dificultades en la ecuación conocida como de Lorentz–Dirac.
Es posible dar al electrón un tamaño no nulo con un radio ro, llamado radio clásico del electrón, dado por e2/(mc2) = 2’82×10-13cm, donde e y m son la carga y la masa, respectivamente, del electrón y c es la velocidad de la luz. Este modelo también tiene problemas, como la necesidad de postular las tensiones de Poincaré.
Muchas son las partículas de las que aquí podríamos hablar, sin embargo, me he limitado a las que componen la materia, es decir Quarks y Leptones que conforman Protones y Neutrones, los nucleaones del átomo que son rodeados por los electrones. El Modelo Estándar es la herramienta con la ue los físicos trabajan (de momento) hasta que surjan nuevas y más avanzadas teorías que permitan un modelo más eficaz y realista. De Wikipedia he cogido el cuadro comparativo de las fuerzas.
La teoría cuántica de campos es el marco general dentro del cual se inscriben la cromodinámica cuántica, la teoría electrodébil y la electrodinámica cuántica. Por otra parte la “gravedad cuántica” actualmente no consiste en un marco general único sino un conjunto de propuestas que tratan de unificar la teoría cuántica de campos y la relatividad general.
Van surgiendo por ahí nuevas conjeturas como, por ejemplo, las de Maldacena. En 1997 el joven físico argentino Juan Maldacena sugirió utilizar esta solución de gravedad para describir la teoría gauge que vive en las D-Branas.
“Las consecuencias de esta conjetura son muy importantes, pues existe la posibilidad de que el resto de interacciones (electromagnéticas y nucleares) sean tan sólo una ilusión, el reflejo sobre el cristal de un escaparate del contenido de la tienda. Así, podría ser que el electromagnetismo tan sólo sea la imagen proyectada de la interacción de algunas cuerdas en un supuesto interior del espacio-tiempo. De la misma manera, la necesidad de compactificar las dimensiones adicionales desaparece en cierto modo si consideramos que, quizás, nuestro mundo sea solamente la frontera; siendo el interior del espacio-tiempo inaccesible.”
Que gran sorpresa sería si al final del camino se descubriera que en realidad solo existe una sola fuerza: La Gravedad, de la que se derivan las otras tres que hemos podido conocer en sus ámbitos particulares y que, ¿por qué no? podrían surgir a partir de aquella primera y única fuerza existente en los principios o comienzos del Universo: ¡La Gravedad! Que no acabamos de comprender.