Ago
5
Antimateria y otros enigmas
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
En cualquier sitio que busquemos datos para saber sobre la antimateria, nos podemos encontrar con explicaciones como ésta:
“En física de partículas, la antimateria es la extensión del concepto de antipartícula a la materia. Así, la antimateria está compuesta de antipartículas, mientras que la materia ordinaria está compuesta de partículas. Por ejemplo, un antielectrón (un electrón con carga positiva, también llamado positrón) y un antiprotón (un protón con carga negativa) podrían formar un átomo de antimateria, de la misma manera que un electrón y un protón forman un átomo de hidrógeno. El contacto de materia y antimateria llevaría a la aniquilación de ambas, dando lugar a fotones de alta energía (rayos gamma) y otros pares partícula-antipartícula.”
Lo cierto es que solo vemos materia
“La desconcertante prevalencia de la materia sobre la antimateria en el universo podría estar relacionado con un extraño estiramiento del espacio-tiempo causado por el giro de nuestra galaxia, según un nuevo estudio”.
De tonterías como esa están las revistas científicas llenas. Ya no saben lo que hacer por llamar la atención y, en cualquier mente lógica medianamente “leída”, se puede llegar a la conclusión de que, como en el Universo todo es cuestión de equilibrios entre fuerzas contrapuestas, mejor sería pensar en la existencia de un universo paralelo de antimateria.
La antimateria es el pariente primo de la materia. Por cada partícula de materia se cree que existe su pareja de antimateria, con la misma masa, pero de carga opuesta. Cuando la materia y la antimateria se encuentran, se aniquilan, y de la conversión de su masa en energía resulta una poderosa explosión.
Aunque hoy en día, los científicos siguen sin entender por qué en el universo predomina, casi completamente la materia. De hecho, aunque la han buscado con insistencia, la antimateria del universo primordial…no aparece por ninguna parte.
Baryogénesis es el término aplicado al proceso teórico en la cosmología moderna que condujo a un desequilibrio entre barión y anti-barión en el universo temprano. Este desequilibrio, conocido como asimetría bariónica, es uno de los misterios más profundos de la cosmología moderna.
Según todos los estudios de experimentos y observaciones que han sido llevados a la práctica por Equipos de estudiosos en todo el Mundo, parece ser que, los motivos por los que no se han encontrado grandes estructuras de antimateria en nuestro Universo, y, el hecho de que la Materia supere a la antimateria, es denominado como “Bario-génesis”, es decir, la Materia Bariónica que es la que observamos y emite radiación (Planetas, estrellas, galaxias, etc.) es la que, finalmente, ha quedado predominando en este Universo nuestro (dejando a un lado esa otra clase de materia que llamamos Oscura y que, de ser cierto que existe, debió crearse antes que la Bariónica, sería la primera clase de materia que hizo acto de presencia en el Universo y, la Fuerza de Gravedad que generaba, hizo posible que, a pesar de la expansión de Hubble, se formaran las estrellas y las galaxias.
¿Por qué en el comienzo del Universo podría la materia Bariónica superar a la antimateria?
–Pequeño exceso de materia tras el Bib Bang: Especula con que la materia que forma actualmente el universo podría ser el resultado de una ligera asimetría en las proporciones iniciales de ambas.
–Asimetría CP. Un reciente experimento en el acelerador KEK de Japón sugiere que esto quizás sea cierto, y que por tanto no es necesario un exceso de materia en el Big Bang: simplemente las leyes físicas que rigen el universo favorecen la supervivencia de la materia frente a la antimateria.
–Existencia de galaxias de antimateria ligada por antigravedad: Muy pocos científicos confían en esta posibilidad, pero todavía no ha podido ser completamente descartada. Esta tercera opción plantea la hipótesis de que pueda haber regiones del universo compuestas de antimateria. Hasta la fecha no existe forma de distinguir entre materia y antimateria a largas distancias, pues su comportamiento y propiedades son indistinguibles. (Esta opción parece poco probable).
La ecuación de Dirac, formulada en en 1928, predijo la existencia de antipartículas además de las partículas de materia ordinarias. Desde entonces, se han ido detectando experimentalmente muchas de dichas antipartículas: Carl D. Anderson, en el Caltech, descubrió el positrón en 1932. Veintitrés años después, en 1955, Emilio Sègre y Owen Chamberlain, en la universidad de Berkeley, el antiprotón y antineutrón.
Pero la primera vez que se pudo hablar propiamente de antimateria, es decir, de “materia” compuesta por antipartículas, fue en 1965, cuando dos equipos consiguieron crear un antideuterón, una antipartícula compuesta por un antiprotóny un antineutrón. La antipartícula fue lograda en el Acelerador Protón Sincrotrón del CERN, a cargo de Antonio Zichichi, y paralelamente por Leon Lederman en el acelerador AGS (Alternating Gradient Synchrotron) del Laboratorio Nacional de Brookhaven, en Nueva York.
En 1995, el CERN anunció la creación de nueve átomos de antihidrógeno en el experimento PS210, liderado por Walter Oelert y Mario Macri, y el Fermilab confirmó el hecho, anunciando poco después la creación a su vez de 100 átomos de antihidrógeno.
El 14 de Diciembre de 2.009, científicos de la NASA con la ayuda del telescopio espacial de rayos gamma Fermi, descubrieron rayos de antimateria producidos encima de tormentas eléctricas. El fenómeno es causado por ráfagas de rayos gamma terrestres (TGF) generadas al interior de las tormentas eléctricas y asociados directamente con los relámpagos.
La antimateria es un término que se ha hecho muy común y familiar en los últimos años, y, han sido muchos los que han tratado de buscarla en los confines del Universo. No parece que el resultado obtenido sea muy alentador.
Si la antimateria realmente existiera en su forma natural, no habría que buscarla en los confines del Universo, estaría, como es lógico pensar, por todas partes. Así que, lo mejor será hacernos a la idea de que en aquellos comienzos el exceso de materia bariónica prevaleció y fue la única que quedó para formar los objetos que ahora podemos ver repartidos por todo el Cosmos en forma de estrellas, de mundos, galaxias, y otros de múltiples formas y fases.
Se ha logrado capturar partículas de antimateria en los Aceleradores de partículas y, con ellas, se han realizado pruebas que han venido a confirmar que, cuanto la Materia se encuentra con la antimateria, la destrucción está asegurada. El resultado de dicha colisión podrían ser muchas de las grandes fuentes de energía Gamma que se han detectado en algunas regiones del Universo.
He aquí la primera imagen jamás obtenida de antimateria, específicamente un “anti-átomo” de anti-hidrógeno. Este experimento se realizó en el Aparato ALPHA de CERN, en donde los anti-átomos fueron retenidos por un récord de 170 milisegundos (se atraparon el 0.005% de los anti-átomos generados).
Producir antipartículas es relativamente “fácil”. De hecho ocurre habitualmente en la naturaleza, en un tipo de desintegración radioactiva denominada “desintegración beta”. También se producen con los rayos cósmicos, que son partículas de altas energías que llegan a la atmósfera y al interaccionar con ella se producen cascadas de partículas.
Pero producir antiátomos es mucho muy difícil, y almacenarlos todavía más. Generar estructuras más complejas, como una mesa de antimateria, actualmente es imposible y de momento no conocemos ninguna forma para poderlo hacer en el futuro.
A finales de 2009 años fuimos testigos de la explosión más grande jamás registrada: una estrella supergigante en el límite posible de la masa permitida, muchas veces más grande que el Sol completamente destruida por reacciones termonucleares increíblemente veloces provocada por la producción de antimateria de rayos gamma. La explosión resultante fue visible durante meses, ya que desató una nube de material radiactivo más de cincuenta veces el tamaño de nuestra propia estrella, dándole un resplandor visible a partir de la fisión nuclear y a pesar de la distancia a la que se hallaba situada la galaxia portadora de la estrella.
Una explosión Gamma captada por la NASA
Desde nuestra madre Tierra, el cielo nocturno puede parecer tranquilo e inmutable, pero el universo visto en rayos gamma es un lugar de violencia repentina y caótica. Utilizando telescopios sensibles a los rayos gamma, los astrónomos son testigo de explosiones breves pero tremendamente intensas, llamadas explosiones de rayos gamma. No existe nada más potente. Cuando se produce encuentros entre Marteria y Anti-materia, aparecen las fuentes de energías más potentes conocidas en el Universo.
Si cuando se produjo el Big Bang, la creación de materia y antimateria hubiera sido simétrico, ahora, la materia bariónica que forman los objetos que podemos contemplar, no existiría y se habría destruido mediante la interacción de ambos tipos de materia. Sin embargo, al parecer, en el reparto que hizo la Naturaleza, la mayor parte le tocó a la Materia y, de ahí que, cuando se destruyó toda la materia y antimateria que suponía la misma proporción, quedó el exceso existente de Materia que es, precisamente, la que forma las estrellas y los mundos.
“Desafortunadamente, el uso de anti-materia podría ser objeto de abuso por usarlo como un arma para disparar reacciones de fusión nuclear. Fuerza Aérea de los Estados, sin embargo, se ha interesado en el uso militar – incluyendo aplicaciones destructivas – antimateria desde la Guerra Fría, cuando comenzó a financiar la investigación de la física de la antimateria. Las principales ventajas teóricas de este tipo de armas es que la antimateria y la materia se cumplen convertir la mayoría de las armas de destrucción masiva en explosión de energía mucho más grande que las reacciones de fusión nuclear. El comportamiento frente a los aspectos fundamentales como el ingeniero que prioriza el bienestar de las personas.”
Acelerador AGS (Alternating Gradient Synchrotron) del Laboratorio Nacional de Brookhaven.
Aquí se buiscó la anti-materia y, desde luego, como sabemos que su contacto con la materia crea o da como resultado la dustrucción de ambas en forma de energía pura… ¿qué intenciones tenían en buscarla?
Nunca, por uno u otro Organismo, se ha dejado de buscar la antimateria en el Universo, y, los escasos resultados obtenidos hasta el momento son, hasta cierto punto comprensibles, toda vez que, si como se cree, la mayor parte fue eliminada al encontrarse con la materia, los residuos que puedan estar ahí, teniendo en cuenta las dimensiones del Universo, no serán fáciles de encontrar.
El Premio Nobel de Física en 1976 Samuel Ting ha expresado su esperanza de que el experimento que lleva a cabo el laboratorio europeo de partículas Cern y su proyecto de enviar un gran imán al espacio permitan descubrir donde se esconde la antimateria en el universo. El gran colisionador de hadrones (LHC) del Cern, ha logrado en sus experimentos reproducir en laboratorio un mini Big-Bang similar al que podría haber dado origen al Universo hace unos 13.700 millones de años, a base de iones de plomo, lo que ha generado una especie de sopa o plasma de quarks y gluones que ahora los científicos tratan de analizar.
Ting, que colabora con el Cern, lideró por su parte una iniciativa para colocar en órbita el espectómetro magnético Alfa (AMS, de sus siglas en inglés), un gran imán que sería situado en órbita espacial con el objetivo de detectar la presencia de antimateria en otras galaxias. “Encontrar antimateria sería muy importante porque permitiría destruir muchas de las teorías actuales”, dijo el investigador estadounidense, que ha sido invitado por el programa ConCiencia de la Universidad de Santiago de Compostela (USC) a una serie de conferencia y actos de divulgación científica. En una conferencia de prensa, Ting aseguró que “el tiempo no es importante” para descubrir dónde se encuentra la antimateria producto de la explosión al origen del Universo, aunque precisó que el AMS estará “durante 20 años” analizando su presencia entre las cien millones de galaxias que calcula que lo integran.”
Bueno, de todas las maneras, esperemos que, si algún día encontramos abundancia de antimateria en el Universo, no sea utilizada para prácticas militares. Por otra parte, como la antimateria es exactamente igual que la materia a excepción de las cargas que son opuestas (electrón-positrón), esperemos que no existan mundos de antimateria con seres que lo pueblen, ya que, si alguna vez nos encontramos con alguno, lo mejor será no saludarlo con un apretón de manos.
Físicos de Estados Unidos y Canadá, propusieron una nueva partícula que podría resolver dos importantes misterios de la física moderna: ¿Qué es la materia oscura y por qué hay mucha más materia que antimateria en el universo?
La aún por descubrir “partícula X”, se espera que decaiga mayormente en materia normal, mientras que su antipartícula se espera que decaiga mayormente en antimateria “oculta”. El equipo afirma que su existencia en los inicios del universo podría explicar por qué hay más materia que antimateria en el universo – y que la materia oscura es, de hecho, antimateria oculta.
Como podreis ver, por teorizar, especular, lanzar hipótesis y exponer cuestiones imaginativas…Que no quede. Todos tenemos nuestras propias ideas y, desde luego, no siempre van encaminadas en la dirección correcta. ¿Partícula X? ¿Qué está pasando? ¿De qué estamos hablando?
Lo cierto es que el Universo sabe muy bien como tenernos entretenidos.
emilio silvera
Ago
5
Hoy un sueño ¿Realidad mañana?
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
Llegará un día en el que, podremos entrar en un inmenso espacio, una enorme habitación, en la que, previa elección de la programación adecuada, todo se transformará en un “mundo ficticio”, un holograma que lo mismo podrá ser una playa luminosa con arena dorada por el Sol que una Selva tropical o un desierto, dependiendo de los gustos del usuario.
Si repasamos la historia de la ciencia, seguramente encontraremos muchos motivos para el optimismo. Witten (el Físico de la Teoría M), está convencido de que la ciencia será algún día capaz de sondear hasta las energías de Planck. Como ya he referido en otras ocasiones, él dijo:
“No siempre es tan fácil decir cuáles son las preguntas fáciles y cuáles las difíciles. En el siglo XIX, la pregunta de por qué el agua hierve a 100 grados era desesperadamente inaccesible. Si usted hubiera dicho a un físico del siglo XIX que hacia el siglo XX sería capaz de calcularlo, le habría parecido un cuento de hadas… La teoría cuántica de campos es tan difícil que nadie la creyó completamente durante 25 años.”
En su opinión, las buenas ideas siempre se verifican. Los ejemplos son innumerables: la gravedad de Newton, el campo eléctrico de Faraday y el electromagnetismo de Maxwell, la teoría de la relatividad de Einstein en sus dos versiones y su demostración del efecto fotoeléctrico, la teoría del electrón de Paul Dirac, el principio de incertidumbre de Heisenberg, la función de ondas de Schrödinger, y tantos otros. Algunos de los físicos teóricos más famosos, sin embargo, protestaban de tanto empeño en la experimentación. El astrónomo arthur Eddington se cuestionaba incluso si los científicos no estaban forzando las cosas cuando insistían en que todo debería ser verificado. ¡Cómo cambia todo con el Tiempo! Hasta la manera de pensar.
Sin embargo, muchos son los ejemplos de un ingenio superior que nos llevaron a desvelar secretos de la Naturaleza que estaban profundamente escondidos, y, el trabajo de Dirac en relación al electrón, es una buena muestra de ese ingenio humano que, de vez en cuando vemos florecer.
“En la práctica, ’(∂ + m) ψ = 0’ define que “si dos sistemas interaccionan entre ellos durante cierto periodo de tiempo y luego se separan, podemos describirlos como dos sistemas distintos, pero de una forma sutil se vuelven un sistema único. Lo que le ocurre a uno sigue afectando al otro, incluso a millones de kilómetros o a años luz”
Ya que la ecuación de Dirac fue originalmente formulada para describir el electrón, las referencias se harán respecto a “electrones”, aunque actualmente la ecuación se aplica a otros tipos de partículas elementales de espín ½, como los quarks. Una ecuación modificada de Dirac puede emplearse para describir de forma aproximada los protones y los neutrones, formados ambos por partículas más pequeñas llamadas quarks (por este hecho, a protones y neutrones no se les da la consideración de partículas elementales).
La ecuación de Dirac presenta la siguiente forma:
Siendo m la masa en reposo del electrón, c la velocidad de la luz, p el operador de momento,
la constante reducida de Planck, x y t las coordenadas del espacio y el tiempo, respectivamente; y ψ (x, t) una función de onda de cuatro componentes. La función de onda ha de ser formulada como un espinor (objeto matemático similar a un vectorque cambia de signo con una rotación de 2π descubierto por Pauli y Dirac) de cuatro componentes, y no como un simple escalar, debido a los requerimientos de la relatividad especial. Los α son operadores lineales que gobiernan la función de onda, escritos como una matriz y son matrices de 4×4 conocidas como matrices de Dirac.
Paul Dirac
El premio Nobel Paul Dirac incluso llegó a decir de forma más categórica:
“Es más importante tener belleza en las ecuaciones que tener experimentos que se ajusten a ellas“, o en palabras del físico John Ellis del CERN, “Como decía en una envoltura de caramelos que abrí hace algunos años, «Es sólo el optimista el que consigue algo en este mundo».“
Yo, como todos ustedes, un hombre normal y corriente de la calle, escucho a unos y a otros, después pienso en lo que dicen y en los argumentos y motivaciones que les han llevado a sus respectivos convencimientos, y finalmente, también decido según mis propios criterios mi opinión, que no obligatoriamente coincidirá con alguna de esas opiniones, y que en algún caso, hasta me permito emitirla.
¿Será que en la Teoría de cuerdas subyace una teoría cuántica de la Gravedad?
¿No es curioso que, cuando se formula la moderna Teoría M, surjan, como por encanto, las ecuaciones de Einstein de la Relatividad General? Nadie las llama y, sin embargo, allí aparecen para decirnos que, la Teoría de cuerdas es un buen camino a seguir, ya que, si en ella subyacen las ecuaciones de Einstein de la relatividad General… ¡No debe ser por casualidad!
Suponiendo que algún físico brillante nos resuelva la teoría de campos de cuerdas y derive las propiedades conocidas de nuestro universo, con un poco de suerte, podría ocurrir en este mismo siglo, lo que no estaría nada mal considerando las dificultades de la empresa. El problema fundamental es que estamos obligando a la teoría de supercuerdas a responder preguntas sobre energías cotidianas, cuando “ámbito natural” está en la energía de Planck. Esta fabulosa energía fue liberada sólo en el propio instante de la creación, lo que quiere decir que la teoría de supercuerdas es naturalmente una teoría de la creación.
Las primeras observaciones realizadas por Planck | ESA
Fuimos capaces de predecir que el Big Bang produjo un “eco” cósmico reverberando en el universo y que podría ser mesurable por los instrumentos adecuados. De hecho, Arno Penzias y Robert Wilson de los Bell Telephone Laboratories ganaron el premio Nobel en 1.978 por detectar este eco del Big Bang, una radiación de microondas que impregna el universo conocido. El que el eco del Big Bang debería estar circulando por el universo miles de millones de años después del suceso fue predicho por primera vez por George Gamow y sus discípulos Ralpher y Robert Herman, pero nadie les tomó en serio. La propia idea de medir el eco de la creación parecía extravagante cuando la propusieron por primera vez poco después de la segunda guerra mundial. Su lógica, sin embargo, era aplastante.
La estufa básica es la resistencia por hilo enrollado de nicrom. Ésta se llega a poner al rojo vivo, por lo que emite también algo de calor por radiación.
Cualquier objeto, cuando se calienta, emite radiación de forma gradual. Ésta es la razón de que el hierro se ponga al rojo vivo cuando se calienta en un horno, y cuanto más se calienta, mayor es la frecuencia de radiación que emite. Una fórmula matemática exacta, la ley de Stefan-Boltzmann, relaciona la frecuencia de la luz (o el color en este caso) con la temperatura. De hecho, así es como los científicos determinan la temperatura de la superficie de una estrella lejana; examinando su color. Esta radiación se denomina radiación de cuerpo negro.
Esta radiación, cómo no, ha sido aprovechada por los ejércitos, que mediante visores nocturnos pueden operar en la oscuridad. De noche, los objetos relativamente calientes, tales como soldados enemigos o los carros de combate, pueden estar ocultos en la oscuridad, pero continúan emitiendo radiación de cuerpo negro invisible en forma de radiación infrarroja, que puede ser captada por gafas especiales de infrarrojo. Ésta es también la razón de que nuestros automóviles cerrados se calientes en verano, ya que la luz del Sol atraviesa los cristales del coche y calienta el interior. A medida que se calienta, empieza a emitir radiación de cuerpo negro en forma de radiación infrarroja. Sin embargo, esta clase de radiación no atraviesa muy bien el vidrio, y por lo tanto queda atrapada en el interior del automóvil, incrementando espectacularmente la temperatura.
Análogamente, la radiación de cuerpo negro produce el efecto invernadero. Al igual que el vidrio, los altos niveles de dióxido de carbono en la atmósfera, causados por la combustión sin control de combustibles fósiles, pueden atrapar la radiación de cuerpo negro infrarroja en la Tierra, y de este modo calentar gradualmente el planeta.
Gamow razonó que el Big Bang era inicialmente muy caliente, y que por lo tanto sería un cuerpo negro ideal emisor de radiación. Aunque la tecnología de los años cuarenta era demasiado primitiva para captar esta débil señal de la creación, Gamow pudo calcular la temperatura de dicha radiación y predecir con fiabilidad que un día nuestros instrumentos serían lo suficientemente sensibles como para detectar esta radiación “fósil”.
Ya la lista de ingenios robóticos es larga. Todos quieren medir la radiación del fondo de microondas generadas por el Big Bang. Incluso hemos preparado telescopios especiales para que nos puedan captar las ondas gravitatorias surgidas en aquellos primeros momento de la inflación.
La lógica que había detrás de su razonamiento era la siguiente: alrededor de 300.000 años después del Big Bang, el universo se enfrió hasta el punto en el que los átomos pudieron empezar a componerse; los electrones pudieron empezar a rodear a los protones y neutrones formando átomos estables, que ya no serían destruidos por la intensa radiación que estaba impregnando todo el universo. Antes de este momento, el universo estaba tan caliente que los átomos eran inmediatamente descompuestos por esa radiación tan potente en el mismo acto de su formación. Esto significa que el universo era opaco, como una niebla espesa absorbente e impenetrable.
Pasados 300.000 años, la radiación no era tan potente; se había enfriado y por lo tanto la luz podía atravesar grades distancias sin ser dispersada. En otras palabras, el universo se hizo repentinamente negro y transparente.
Terminaré esta parte comentando que un auténtico cuerpo negro es un concepto imaginario; un pequeño agujero en la pared de un recinto a temperatura uniforme es la mejor aproximación que se puede tener de él en la práctica.
La radiación de cuerpo negro es la radiación electromagnética emitida por un cuerpo negro. Se extiende sobre todo el rango de longitudes de onda y la disminución de energías sobre este rango tiene una forma característica con un máximo en una cierta longitud de onda, desplazándose a longitudes de onda más cortas al aumentar las temperaturas*.
Hablar, sin más especificaciones, de radiación, es estar refiriéndonos a una energía que viaja en forma de ondas electromagnéticas o fotones por el universo. También nos podríamos estar refiriendo a un chorro de partículas, especialmente partículas alfa o beta de una fuente radiactiva o neutrones de un reactor nuclear.
La radiación actínida es la electromagnética que es capaz de iniciar una reacción química. El término es usado especialmente para la radiación ultravioleta y también para denotar radiación que podría afectar a las emulsiones fotográficas.
La radiación gamma es un tipo de radiación electromagnética producida generalmente por elementos radioactivos o procesos subatómicos como la aniquilación de un par positrón-electrón. Este tipo de radiación de tal magnitud también es producida en fenómenos astrofísicos de gran violencia.
Debido a las altas energías que poseen, los rayos gamma constituyen un tipo de radiación ionizante capaz de penetrar en la materia más profundamente que la radiación alfa o beta. Dada su alta energía pueden causar grave daño al núcleo de las células, por lo que son usados para esterilizar equipos médicos y alimentos.
La Radiación expone un amplio abanico dependiendo de la fuente: blanda, radiación cósmica, radiación de calor, radiación de fondo, de fondo de microondas, radiación dura, electromagnética, radiación gamma, infrarroja, ionizante, monocromática, policromática, de sincrotón, ultravioleta, de la teoría cuántica, de radiactividad… y, como se puede ver, la radiación en sus diversas formas es un universo en sí misma.
Siempre me llamó la atención y se ganó mi admiración el físico alemán Max Planck (1.858 – 1.947), responsable entre otros muchos logros de la ley de radiación de Planck, que da la distribución de energía radiada por un cuerpo negro. Introdujo en física el concepto novedoso de que la energía es una cantidad que es radiada por un cuerpo en pequeños paquetes discretos, en vez de una emisión continua. Estos pequeños paquetes se conocieron como cuantos y la ley formulada es la base de la teoría cuántica.
Einstein se inspiró en este trabajo para a su vez presentar el suyo propio sobre el efecto fotoeléctrico, donde la energía máxima cinética del fotoelectrón, Em, está dada por la ecuación que lleva su nombre: Em = hf – Φ.
Cada metal requiere, para que se produzca la extracción, una radiación con una frecuencia mínima (no). Cualquier otra radiación de menor frecuencia, no será capaz de arrancar electrones. Por debajo de la frecuencia mínima la intensidad de corriente -”i” (amperios)- será cero. No hay efecto fotoeléctrico.
Planck publicó en 1.900 un artículo sobre la radiación de cuerpo negro que sentó las bases para la teoría de la mecánica cuántica que más tarde desarrollaron otros, como el mismo Einstein, Heisenberg, Schrödinger, Dirac, Feymann, etc. Todos los físicos son conocedores de la enorme contribución que Max Planck hizo en física: la constante de Planck, radiación de Planck, longitud de Planck, unidades de Planck, etc. Es posible que sea el físico de la historia que más veces ha dado su nombre a conceptos de física. Pongamos un par te ejemplos de su ingenio:
1. vale 10-35 metros. Esta escala de longitud (veinte órdenes de magnitud menor que el tamaño del protón, de 10-15 m) es a la que la descripción clásica de gravedad cesa de ser válida y debe ser tenida en cuenta la mecánica cuántica. En la fórmula que la describe, G es la constante gravitacional, ħ es la constante de Planck racionalizada y c en la velocidad de la luz.
2. . Es la masa de una partícula cuya longitud de onda Compton es igual a la longitud de Planck. En la ecuación, ħ es la constante de Planck racionalizada, c es la velocidad de la luz y G es la constante gravitacional. Así, Se denomina masa de Planck a la cantidad de masa (21,7644 microgramos) que, incluida en una esfera cuyo radio fuera igual a la longitud de Planck, generaría una densidad del orden de 1093 g/cm³. Según la física actual, esta habría sido la densidad del Universo cuando tenía unos 10-44 metros segundos, el llamado Tiempo de Planck. Su ecuación, es decir la masa de Planck se denota:
El valor de la masa de Planck se expresa por una fórmula que combina tres constantes fundamentales, la constante de Planck, (h), la velocidad de la luz (c), y la constante de gravitación universal (G). La masa de Planck es una estimación de la masa del agujero negro primordial menos masivo, y resulta de calcular el límite donde entran en conflicto la descripción clásica y la descripción cuántica de la gravedad.
“Aunque todas estas descripciones reflejan más una abundante imaginación que un hecho existencial apoyado teóricamente con alguna hipótesis que pueda ser comprobada en el laboratorio sobre hechos que están más allá de poder ser medidos jamás en algún laboratorio construido por humanos. La única forma de confrontar la factibilidad o la posibilidad del modelo de la espuma cuántica nos lleva necesariamente a confrontar la carencia de un modelo que logre unificar exitosamente al macrocosmos con el microcosmos, a la Relatividad General con la Mecánica Cuántica, la Gravedad Cuántica. Si la energía y la materia (o mejor dicho la masa-energía) están discretizadas, se supone que también deben de estarlo el espacio y el tiempo (o mejor dicho, el espacio-tiempo), y la “partícula fundamental” del espacio-tiempo debe de serlo el gravitón, aunque de momento todo esto son especulaciones que seguirán siéndolo mientras no tengamos a la mano algo que pueda confirmar la existencia de tan exótica partícula, quizá la más exótica de cuantas hayan sido concebidas por la imaginación del hombre.”
La descripción de una partícula elemental de esta masa, o partículas que interaccionan con energías por partículas equivalentes a ellas (a través de E = mc2), requiere de una teoría cuántica de la gravedad. Como la masa de Planck es del orden de 10-8 Kg (equivalente a una energía de 1019 GeV) y, por ejemplo, la masa del protón es del orden de 10-27 Kg y las mayores energías alcanzables en los aceleradores de partículas actuales son del orden de 103 GeV, los efectos de gravitación cuántica no aparecen en los laboratorios de física de partículas. Únicamente en un laboratorio aparecieron partículas que tenían energías del orden de la masa de Planck: en el universo primitivo, de acuerdo con la teoría del Big Bang, motivo éste por el que es necesaria una teoría cuántica de la gravedad para estudiar aquellas condiciones. Esta energía de la que estamos hablando, del orden de 1019 GeV (inalcanzable para nosotros), es la que necesitamos para verificar la teoría de supercuerdas.
¿Por qué el número 137 es adimensional y esconde los secretos del electromagnetismo (e), de la constante de Planck (h), y de la velocidad de la luz (c). Es el resultado de Alfa (α), la Constante de Estructura Fina.
Siempre, desde que puedo recordar, me llamó la atención los misterios y secretos encerrados en la Naturaleza, y la innegable batalla mantenida a lo largo de la historia por los científicos para descubrirlos. Muchos han sido los velos que hemos podido descorrer para que, la luz cegadora del saber pudiera entrar en nuestras mentes para hacerlas comprender cómo actuaba la Naturaleza en ciertas ocasiones y el por qué de tales comportamientos, y, sin embargo, a pesar del largo camino recorrido, es mucho más el que nos queda por andar.
emilio silvera
Ago
4
Los Misterios de la Tierra
por Emilio Silvera ~
Clasificado en Ciencias de la Tierra ~
Comments (1)
Encuentros espaciales
La más destructiva intensificación temporal de los normalmente suaves flujos de energía geotectónica – erupciones volcánicas o terremotos extraordinariamente potentes – o de energía atmosférica – vientos o lluvias anormalmente intensas –, parecen irrelevantes cuando se comparan con las repetidas colisiones del planeta con cuerpos extraterrestres relativamente grandes.
Existen simulaciones de lo que puede ser el choque del meteorito en la Tierra y, desde luego, no quisiera estar aquí cuando suceda. La Tierra está siendo bombardeada continuamente por invisibles partículas microscópicas de polvo muy abundantes en todo el Sistema Solar, y cada treinta segundos se produce un choque con partículas de 1 mm de diámetro, que dejan un rastro luminoso al autodestruirse en la atmósfera. También son relativamente frecuentes los choques con meteoritos de 1 metro de diámetro, que se producen con una frecuencia de, al menos, uno al año.
Pero los impactos, incluso con meteoritos mayores, producen solamente efectos locales. Esto es debido a que los meteoritos que deambulan por la región de asteroides localizada entre Marte y Júpiter están girando alrededor del Sol en el mismo sentido que la Tierra, de manera que la velocidad de impacto es inferior a 15 Km/s.
Entre Marte y Júpiter hay cientos de miles de cuerpos pequeños que orbitan alrededor del Sol llamados asteroides. También podemoas encontrarlos más allá de Plutón, llamado cinturón de Kuiper, y que en este caso reciben el nombre de objetos transneptunianos y que están hecho de hielo. Ceres es el asteroide más grande y tiene 913 km de diámetro.
El cráter de Arizona, casi perfectamente simétrico, se formó hace 25.000 años por el impacto de un meteorito que iba a una velocidad de 11 Km/s, lo que representa una potencia cercana a 700 PW. Estas gigantescas liberaciones de energías palidecen cuando se comparan con un choque frontal con un cometa típico. Su masa (al menos de 500 millones de toneladas) y su velocidad relativa (hasta 70 Km/s) elevan su energía cinética hasta 1022 J. Aunque se perdiera un diez por ciento de esta energía en la atmósfera, el impacto sería equivalente a una explosión de unas 2.500 bombas de hidrógeno de 100 megatones. Está claro que un fenómeno de estas características produciría impresionantes alteraciones climatológicas. Sin embargo, no es seguro y sí discutible que un impacto parecido fuese la causa de la extinción masiva del cretácico, siendo lo más probable, si tenemos en cuenta el periodo relativamente largo en que se produjo, que se podría explicar por la intensa actividad volcánica de aquel tiempo.
La frecuencia de impactos sobre la Tierra disminuye exponencialmente con el tamaño del objeto. Muchas toneladas son las que recibimos cada año de pequeños fragmentos de todo tipo pero, cuando estos van aumentando de tamaño, los sucesos de espacian de manera sustancial
Aproximadamente, cada cincuenta o sesenta millones de años se produce una colisión con un cometa, lo que significaría que la biosfera, que ha evolucionado durante cuatro mil millones de años, ha debido superar unos cuarenta impactos de este tipo. Está claro que ha salido airosa de estas colisiones, ya que aunque haya sido modificada, no ha sido aniquilada.
Igualmente, la evolución de la biosfera ha sobrevivido a las explosiones altamente energéticas de las supernovas más “cercanas”. Dado que en nuestra galaxia se produce por término medio la explosión de una supernova cada 50 años, el Sistema Solar se encuentra a una distancia de 100 parsecs de la explosión cada dos millones de años y a una distancia menor de 10 parsecs cada dos mil millones de años. En este último caso, la parte alta de la atmósfera se vería inundada por un flujo de rayos X y UV de muy corta longitud de onda, diez mil veces mayor que el flujo habitual de radiación solar, lo que implica que la Tierra recibiría, en unas pocas horas, una dosis de radiación ionizante igual a la que recibe anualmente. Exposiciones de 500 roentgens son setales para la mayoría de los vertebrados y, sin embargo, los diez episodios de esta magnitud que se han podido producir en los últimos 500 millones de años no han dejado ninguna consecuencia observable en la evolución de la biosfera.
Si suponemos que una civilización avanzada podría preparar refugios para la población durante el año que transcurre ente la llegada de la luz y la llegada de la radiación cósmica, se encontraría con la inevitable dosis de 500 roentgens cada mil millones de años, tiempo suficiente para permitir el desarrollo de una sociedad cuyo conocimiento le sirviera para defenderse de un flujo tan extraordinario y de consecuencias letales.
La fotosíntesis
Todo el Oxígeno de la Atmósfera terrestre procede del oxígeno que desprenden los organismos autótrofos durante la fotosíntesis.
La fotosíntesis es el principal proceso bioquímico que consigue pasar materiales desde el biotopo hasta la biocenosis de un ecosistema. Una vez incorporados como parte de los organismos autótrofos, los heterótrofos (por ejemplo, los animales) solo tienen que aprovecharse de aquellos; con la existencia de pequeñas cantidades de agua, todo está preparado para que el ecosistema entero comience a funcionar. Además, siempre habrá animales depredadores, carnívoros, que seguirán aprovechando los materiales de otros.
La conocida ecuación básica que describe la reacción endotérmica por la cual se sintetiza una molécula de glucosa a partir de sus seis moléculas de CO2 y H2O, y 2’8 MJ de radiación solar, es una simplificadisima caja negra. Una caja negra más realista sería la siguiente:
106 CO2 + 90 H2O + 16 NO3 + PO4 + nutrientes minerales + 5’4 MJ de radiación = 3’258 g de protoplasma (106 C, 180 H, 46 O, 16 N, 1 P y 815 g de cenizas minerales) + 154 O2 + 5’35 MJ de calor disipado.
Sin macronutrientes ni micronutrientes no se puede producir fito-masa, que está compuesta por los nutrientes básicos necesarios para todos los seres heterótrofos: azúcares complejos, ácidos grasos y proteínas.

Para entender esta caja negra hay que comenzar por destacar la acción de unos pigmentos sensibles a la luz entre los cuales destacan las clorofilas. Éstas absorben la luz en dos bandas estrechas, una entre 420 y 450 nm, y la otra entre 630 y 690 nm. Así, la energía necesaria para la fotosíntesis sólo procede de la radiación azul y roja a la que corresponde menos de la mitad de la energía total de la insolación. Esta parte de la radiación fotosintéticamente activa (RFA) no se utiliza en reducir CO2, sino en la regeneración de compuestos consumidos durante la fijación del gas.
La síntesis de fitomasa en el ciclo reductor del fosfato pentosa (RPP) – un proceso con varios pasos de carboxilación por catálisis enzimática, reducción y regeneración – tiene que empezar con la formación de trifosfato de adenosina (ATP) y nicotinamida adenina dinucleótido fosfato (NADP), que son los dos compuestos que suministran energía a todas las reacciones biosintéticas. La síntesis de las tres moléculas de ATP y las dos de NADP que se necesitan para reducir cada molécula de CO2 requiere de diez cuantos de radiación solar con longitud de onda próxima al pico rojo de absorción de la clorofila (680 nm). El carbono procedente del CO2, combinado con el hidrógeno del agua y con los micronutrientes, dará lugar a nueva fitomasa que contiene 465 KJ/mol.

La cantidad de energía de un cuanto de luz roja es de 2’92×10-19 J (el producto de la constante de Planck, 6’62×10-34 por la frecuencia de la luz, que a su vez es el cociente entre la velocidad de la luz y la longitud de onda).
Un einstein (definido como un mol o número de Avogadro, 6’02×1023) de fotones rojos tiene una energía aproximadamente igual a 17 Kg. Suponiendo que la RFA es el 45% de la luz directa, la eficiencia global de la fotosíntesis es del 11%, que equivale a 456/(1.760/0’43). Esta eficiencia se reduce por lo menos en una décima parte más si tenemos en cuenta la reflexión de la luz en las hojas y la pérdida que supone atravesar la cubierta vegetal. Ninguna planta, sin embargo, se acerca siquiera a esta eficiencia teórica, porque parte de la luz absorbida por las clorofilas (generalmente, el 20 – 25 por ciento) vuelve a ser emitida en forma de calor, debido a que los pigmentos no pueden almacenar la luz y las reacciones enzimáticas no se producen con suficiente velocidad como para utilizar completamente el flujo de energía incidente. En la respiración se cede el carbono fijado en el metabolismo de la planta y en el mantenimiento de las estructuras que la soportan.
Mosaico de nuestro planeta Tierra que recibe una fracción de la energía solar
Para cada especie, la tasa con la que se pierde carbono está determinada principalmente por el tipo de fotosíntesis. Así, existen diferencias sustanciales entre las plantas C3 y C4. La respiración a escala de una comunidad o ecosistema depende del estado de crecimiento, y varía entre menos del 20 por ciento en plantas jóvenes en rápido crecimiento, hasta más del 90 por ciento en bosques maduros.
Con una pérdida del 25 por ciento para la reacción, y otro tanto para la respiración, la eficiencia fotosintética es ligeramente superior al 5 por ciento. En este punto, las estimaciones teóricas y los valores reales coinciden, ya que el valor medio de fotosíntesis neta en plantas muy productivas y en condiciones óptimas y durante cortos periodos de tiempo, oscila entre el 4 y el 5 por ciento. La mayoría de las plantas rinden en función de los nutrientes, especialmente nitrógeno y agua, o por las bajas temperaturas en las regiones de mayor altura y latitud. Los mejores rendimientos en sistemas naturales muy productivos, como los humedales y los cultivos, están entre el 2 y el 3 por ciento. En otros ecosistemas, como los pantanos tropicales templados y los bosques templados, el rendimiento de la transformación es del 1’5 por ciento, y en las praderas muy áridas sólo del 0’1 por ciento. Globalmente, la producción anual es, al menos, de 100.000 millones de toneladas de fitomasa, que se sintetizan con un rendimiento medio del 0’6 por ciento.
Mapa de clorofila en los océanos
La fotosíntesis en los océanos, muy afectada por la escasez de nutrientes, es incluso menos eficiente. La productividad medie es de poco más de 3 MJ/m2 y se realiza con un rendimiento fotosintético del 0’06 por ciento. La media ponderada total es 0’2 por ciento, es decir, que sólo uno de cada 500 cuantos de energía solar que llega a la superficie de la Tierra se transforma en energía de biomasa en forma de tejido vegetal.
La mayor parte de esta energía se almacena en forma de azúcares simples, que contienen más energía, y que sólo se encuentran en las semillas.
La mayor parte de la fitomasa está en los bosques. En los océanos, los principales productores son los organismos que componen el fitoplancton, que son muy pequeños y flotan libres. Su tamaño varía entre algo menos de 2 y 200 μm de diámetro y están formados por cantidades variables de bacterias y protoctistas eucarióticos. Las cianobacterias cocoides son tan abundantes en algunas aguas oligotrópicas que pueden ser las responsables de la mayor parte de la producción de fitoplancton.
Los protoctistas fotosintetizadores varían entre los más pequeños flagelados pigmentados (como las criptomonas y crisofitos), hasta las diatomeas y dinoflagelados, que son mayores (más de 10 mm) y generalmente dominantes. Las diatomeas están formadas por células sin flagelos, con paredes de silicio amorfo mezclados con otros compuestos orgánicos. Presentan una sorprendente y amplia variedad de diseño, desde las que tienen simetría central (las de forma radial son las dominantes en el océano), a las pennadas (simetría lateral), y otras forman largas cadenas.
La productividad de fitoplancton está controlada por la temperatura del agua y por la disponibilidad de radiación solar y nutrientes. La temperatura no es determinante, porque muchas especies son muy adaptables y consiguen una productividad similar en distintos ambientes. Aunque es frecuente la adaptación a diferentes condiciones lumínicas, tanto el volumen como en contenido en clorofila de las diatomeas aumenta con la intensidad de la luz. En el mar abierto, la mayor limitación es la cantidad de nutrientes disponibles.
Entre las carencias que más limitan la producción de fitoplancton está la de nitrógeno, el macro-nutriente más importante, la de fósforo, y la de algunos otros micronutrientes clave como el hierro y el silicio.
Los medios menos productivos de la Tierra están en la capa superficial y la capa inmediatamente inferior de los océanos. En el mar abierto, las concentraciones más altas de nutrientes se encuentran entre los 500 y los 1.000 metros, a bastante más profundidad que la zona eufórica, capa en la que penetra la luz solar y que se extiende a unos 100 metros en las aguas transparentes.
El pequeñísimo tamaño de los productores dominantes es una adaptación eficaz a la escasez de nutrientes, ya que cuanto mayor sea el cociente entre la superficie y el volumen, y más lento el hundimiento de las células de fitoplancton en la capa eufórica, mayor es la tasa de absorción de nutrientes.
Cuando las corrientes elevan a la superficie las aguas frías y cargadas de nutrientes, la producción de fitoplancton aumenta sustancialmente. Las aguas costeras de Perú, California, noroeste y sudoeste de África, y de la India occidental son ejemplos destacados de ascensión costera de aguas frías. También se dan casos de ascensión mar adentro en la mitad del Pacífico, cerca del ecuador y en las aguas que rodean la Antártida. Otras zonas altamente productivas se encuentran en las aguas poco profundas cercanas a la costa que están enriquecidas por el aporte continental de nutrientes. Este enriquecimiento, con una proporción N/P muy descompensada, es especialmente elevados en los estuarios adonde van a parar grandes cantidades de aguas residuales y fertilizantes.
Las diferentes medidas de la productividad en las aguas oligotróficas de los mares subtropicales y de las aguas eutróficas con corrientes ascensionales, varían entre menos de 50 gC/m2 y 1 gC/m2, más de un orden de magnitud. Las estimaciones de la producción global de fitoplancton están comprendidas entre 80.000 y 100.000 millones de toneladas, que representan entre dos tercios y cuatro quintos de la fitomasa total terrestre. Contrasta con el resultado anterior el hecho de que, dado el corto periodo de vida del fitoplancton (1 – 5 días), la fitomasa marina represente sólo una pequeña fracción de todo el almacenamiento terrestre.
La distribución espacial del fitoplancton muestra zonas delimitadas que se extienden a escala local y global. La exploración desde los satélites es, con gran diferencia, la que permite detectar con mayor precisión las concentraciones de clorofila y la que ha posibilitado obtener las pautas de la distribución de fitoplancton. En las aguas que rodean la Antártida se observa claramente una distribución asimétrica en dos bandas casi concéntricas. La mejor distribución se explica por el hecho de que se deba a corrientes circumpolares y a la abundancia de ácido silicílico. Pero las zonas de mayor riqueza de fitoplancton se encuentran cerca de los continentes donde los ríos arrastran abundantes nutrientes disueltos.
La vida necesita un aporte continuo de energía que llega a la Tierra desde el Sol y pasa de unos organismos a otros a través de la cadena trófica.
El fitoplancton es la base energética de las intrincadas pirámides tróficas. Las cadenas alimenticias en el océano, generalmente, son redes complicadas. Una gran parte de la fito-masa disponible no la consumen directamente los herbívoros, sino que primero se almacena en depósitos de materia muerta que, transformada por bacterias, se convertirá en alimento para otros seres heterótrofos.
La gran producción de fitoplancton puede alimentar grandes cantidades de zoo-masa. El kril, pequeños crustáceos parecidos a las quisquillas que se alimentan de diatomeas, son los organismos más abundantes en la superficie del mar; sus densas acumulaciones pueden contener hasta mil millones de individuos y su producción anual de zoo-masa quizá llegue hasta los 1.300 millones de toneladas. Esta prodigiosa cantidad de zoo-masa sirve de alimento a focas, calamares y peces, así como a los mayores carnívoros de la biosfera, las especies de ballenas con barbas que se alimentan filtrando el agua.
emilio silvera
Ago
4
¡La Vida se abre paso!
por Emilio Silvera ~
Clasificado en El Universo y la Vida ~
Comments (0)

“Miles de especies viven en un lago subterráneo al que la luz y el aire no han llegado en millones de años.”
Bajo los hielos de la Antártida hay vida en abundancia. Lo acaba de demostrar una expedición norteamericana, llamada Wissard (Whillans Ice Stream Subglacial Access Research Drilling), formada por investigadores de varias universidades y que esta semana ha publicado en Nature sus primeras conclusiones. Bajo una capa de hielo de más de 800 metros de grosor, los científicos han encontrado todo un ecosistema viviendo en un lago subterráneo al que la luz y el aire no han llegado en millones de años.
Las formas de vida descubiertas son microorganismos unicelulares que para subsistir convierten amoniaco y metano en energía. La mayor parte de estos organismos pertenecen al dominio de las Arqueas, en el que se encuentran los seres vivos más antiguos del planeta. La investigación tiene implicaciones para la búsqueda de vida en otros ambientes extremos, tanto en la Tierra como en otros mundos del Sistema Solar.
Para John Priscu, profesor de la Universidad de Montana y jefe científico de la expedición Wissard, “ahora podemos probar al mundo de forma inequívoca que la Antártida no es un continente muerto”. El estudio, en efecto, aporta las primeras pruebas directas de que la vida es capaz de resistir en las más duras condiciones del ambiente subglacial.
Brent Christner, otro de los autores del estudio, afirma que se trata de la primera prueba definitiva de que bajo la capa de hielo antártico “no solo hay vida, sino ecosistemas activos que hemos estado buscando durante décadas. Con este trabajo damos un golpe sobre la mesa y afirmamos: šSí, teníamos razón”.
Priscu, por su parte, asegura no estar del todo sorprendido de que el equipo haya logrado encontrar por fin vida tras perforar más de 800 metros de hielo hasta llegar al lago subglacial Whillans. No en vano, se trata de un investigador experimentado y que ha trabajado tanto en el Polo Norte como en el Polo Sur. Este otoño, en efecto, cumplirá su campaña número 30 en la Antártida, y hace mucho que predijo este descubrimiento.
Aunque nos parezca imposible, bajo los hielos Antárticos, la vida está presente
Hace ya más de una década, Priscu publicó dos artículos en Science describiendo por primera vez cómo la vida microbiana podría vivir y multiplicarse bajo los hielos de la Antártida. Y hace cinco años, publicó otro artículo en el que predijo que el ambiente subglacial antártico podría albergar el humedal más extenso de toda la Tierra, uno que no estaría dominado por aves y otros animales, sino por microorganismos que utilizan los minerales de las rocas heladas para obtener la energía que necesitan para vivir.
Durante la última década, Priscu se ha dedicado a recorrer el mundo dando conferencias sobre lo que podríamos encontrar bajo la Antártida, y recaudando fondos para una expedición que podría cambiar para siempre nuestra visión sobre el mayor continente del planeta.
Microbios que viven a 800 metros bajo el Hielo
Sin embargo, Priscu sí que se muestra muy excitado con respecto a varios detalles del hallazgo, especialmente en la forma de funcionar de estos organismos, sin luz solar y a temperaturas muchos grados bajo cero, y al hecho de que la mayoría de ellos, tal y como revelan los análisis de ADN, sean Arqueas. Arquea es uno de los tres dominios principales de la vida. Los otros dos son Bacteria y Eukariota.
La mayoría de las arqueas subgaciales encontradas utilizan la energía de los enlaces químicos del amoniaco para fijar el dióxido de carbono y llevar a cabo otras funciones metabólicas. Otro grupo de organismos utilizan la energía y el carbono presente en el gas metano para sobrevivir. Para Priscu, probablemente todo este amoniaco y metano procedan de la descomposición de materia orgánica que se depositó en la zona hace cientos de miles de años, cuando la Antártida era aún templada y el mar inundó la parte occidental del continente.
Las emisiones de metano del Ártico este mes se registraron en niveles históricos-altos, causando gran preocupación entre los climatólogos, que citan fusión rápida del hielo marino y el calentamiento del océano Ártico como las principales causas.
También advierte el investigador de que si la Antártida continúa calentándose, se liberarán a la atmósfera enormes cantidades de metano acumulado en el hielo, un poderoso gas de efecto invernadero capaz de acelerar dramáticamente el cambio climático.
El equipo de científicos también demostró que los microorganismos que viven en el lago Whillans no pueden ser fruto de la contaminación de los materiales de los propios científicos, tal y como se sospecha que ocurrió con los hallados en el lago subglacial de Vostok. Los escépticos, por su parte, apoyan esta posibilidad y sugieren que los microorganismos encontrados son los que llevaban consigo los propios investigadores.
“Hemos llegado hasta el extremo -asegura Priscu- para garantizar que no hemos contaminado en absoluto uno de los ambientes más puros y prístinos del planeta y que nuestras muestras tienen la máxima integridad”.
4.000 especies
“La expedición norteamericana bajo el nombre de “Wissard” (Whillans Ice Stream Subglacial Access Research Drilling) ha descubierto que bajo los fríos hielos de la Antártida reside vida y, además, en abundancia: debajo de una capa de 800 metros de grosor donde no pasa ni la luz ni el aire desde hace millones de años, existe un ecosistema completo.”
En cuanto a las especies encontradas, resulta muy difícil su identificación, pero, afirma Christner por su parte, “hemos visto una columna de agua que probablemente tiene unas 4.000 cosas que podríamos llamar especies. Existe una increíble diversidad”.
El equipo de Wissard volverá a perforar durante el próximo verano austral. Wissard es el primer esfuerzo multidisciplinar a gran escala para examinar directamente la biología del ambiente subglacial antártico. La masa de hielo de la Antártida cubre una superficie equivalente a una vez y media la de los Estados Unidos y contiene el 70% del agua dulce de la Tierra.
Muy por debajo de la gruesa capa de hielo que cubre la Antártida, hay lagos de agua dulce sin una conexión directa con el océano. Estos lagos son de gran interés para los científicos, que tratan de entender el transporte de agua y la dinámica del hielo bajo la superficie congelada del continente.
El lago Whillans es uno de los más de 200 lagos que se conocen bajo la superficie del continente helado y el río subterráneo que lo alimenta fluye bajo la plataforma de Ross, una masa de hielo del tamaño de Francia, y desemboca en el océano, a gran profundidad, al que proporciona grandes cantidades de nutrientes y contribuye a la circulación de las corrientes marinas.
¡No conocemos ni nuestra propia casa… ¡Y queremos viajar hacia las lejanas estrellas! ¡Ilusos!
¡Cómo somos los Humanos!
Publica: emilio silvera
Ago
4
Final de “Los Misterios de la Tierra”
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
El metabolismo heterótrofo
Son esenciales para toda la vida porque son los productores primarios en la base de todas las cadenas alimentarias.
Los seres autótrofos siguen dos vías diferentes para transformar la biomasa que ingieren en los compuestos complejos de los que se componen sus tejidos. Esta transformación puede ser mediante fermentación anaeróbica o a través de respiración aeróbica. La primera vía se restringe a las células procariotas simples, como las fermentadoras, las bacterias metano-génicas y los hongos Ascomycota responsables de la fermentación del etanol (alcohol etílico).
Hongos ascomycota
La segunda vía se hizo posible a partir del momento en que la cantidad de oxígeno atmosférico, generado por los vegetales, alcanzó un nivel suficientemente alto como para que algunos seres procariotas pudieran utilizar la respiración aeróbica para generar trifosfato de adenosina más eficientemente que por fermentación. Desde un punto de vista energético, la oxidación es claramente ventajosa. Así, por cada mol de glucosa se liberan 197 KJ por fermentación en ácido láctico, 232 KJ por fermentación alcohólica y 2’87 MJ por la oxidación completa, lo que representa para esta última una ganancia que está comprendida entre 12 y 14 veces.
Seres vivos procariotas
Los nutrientes necesarios para el metabolismo de tipo heterótrofo proceden de la digestión de los tejidos vegetales o de otros heterótrofos. En el metabolismo heterótrofo hay notables regularidades orgánicas. Entre ellas destaca claramente el hecho de que al representar en un gráfico logarítmico la tasa metabólica basal (TMB), – metabolismo mínimo cuando el animal se encuentra en reposo absoluto – frente al peso, los resultados relativos a los animales comprendidos entre el ratón y el elefante se dispongan a lo largo de una línea recta.
Representación de Kleiber del metabolismo basal de los mamíferos desde el ratón al elefante.
Esta dependencia lineal en un gráfico logarítmico fue descubierta por Kleiber en 1.932, y muestra que, si representamos las TMB en vatios y el peso, p, en kilogramos, la dependencia funcional entre ambas magnitudes es 3’52 p0’74. Si en vez del peso, se representa la TMB frente a la superficie corporal de los animales, el exponente de Kleiber es 0’67, que es el valor que se había supuesto anteriormente. Las medidas posteriores de la TMB en cientos de especies han confirmado la primera dependencia funcional que ha sido redondeada en 1.961 por el propio Kleiber, en 3’4 p0’75 (en W).
Aunque aún no se ha encontrado una explicación definitiva de la razón de esta ley de potencia con exponente ¾, el análisis de los requerimientos mecánicos de los cuerpos animales dan una buena pista. Con criterios elásticos se deduce que el cubo de la longitud crítica de rotura de los huesos varía linealmente con el cuadrado del diámetro (d) de la sección de los mismos, que a su vez, es proporcional a p3/8. La potencia muscular es proporcional al área de su sección transversal (esto es, proporcional a d2), y por tanto, la forma funcional de la potencia máxima se expresa como (p3/8)2, o lo que es lo mismo, p0’75.
Una explicación aún más fundamental se basa en la geometría y en la física de la red vascular necesaria para distribuir los nutrientes y eliminar los materiales de desecho del cuerpo de los animales. Estas redes que llenan el espacio, son fractales que determinan las propiedades estructurales y funcionales de los sistemas cardiovasculares y respiratorios, y de sus propiedades se deduce que el metabolismo total de los organismos escala con su masa elevada a la potencia ¾.
El exponente de Kleiber tiene una consecuencia importante para los organismos con TMB específica (la TMB dividida por el peso corporal) decrecientes. Esta relación limita el tamaño mínimo de los animales homeotermos y facilita que las grandes criaturas puedan sobrevivir en condiciones ambientales adversas. La ingesta diaria de néctar de un pequeño colibrí es equivalente a la mitad del peso de su cuerpo (para los seres humanos, la comida diaria representa alrededor del 3% del peso corporal), y los animales de sangre caliente, de tamaño menor que un colibrí, tendrían que estar comiendo continuamente para poder compensar las rápidas pérdidas de calor.
En el otro extremo, los grandes mamíferos pueden pasar varios días sin alimentarse, recurriendo a las reservas de grasa acumuladas para mantener su bajo metabolismo durante periodos de hibernación relativamente largos.
Los casos de separación de la tendencia general ilustran varios modos de adaptación al medio. Para regular térmicamente su cuerpo en agua fría, la TMB de las focas y las ballenas es el doble de las de otros animales de su tamaño. Los mamíferos del desierto, con sus bajas TMB, se han adaptado a los periodos de carencia de alimentos y a la escasez recurrente o crónica de agua.
Naturalmente, la TMB representa sólo una parte de las necesidades energéticas. La digestión eleva las tasas metabólicas de todos los animales y la reproducción requiere aumentos periódicos de energía (como también ocurre con el cambio de plumaje o pelaje en los pájaros y mamíferos). La búsqueda de comida es una actividad ineludible para todos los animales que no estén hibernando. Simplemente por estar de pie, la tasa metabólica en los pájaros es un 15 por ciento superior a la tasa de reposo; y en los mamíferos, exceptuando al caballo, esta diferencia llega al 30 por ciento. El límite metabólico, múltiplo de la TMB durante el máximo esfuerzo, es mucho mayor durante la carrera, natación o el vuelo.
Tendría que mencionar ahora la reproducción y sus distintas formas, que varían de modo continuo entre los casos extremos de la cría generalizada generada de golpe y los nacimientos espaciados de un único neonato. El primer caso maximiza la producción de individuos que maduran con rapidez, y estas especies son más oportunistas. La mayoría de las bacterias, así como muchas especies de insectos, pertenecen a este grupo de seres que se reproducen de forma oportunista e intensa. En condiciones adecuadas llegan a invertir una parte tan importante de su metabolismo en la reproducción que acaban convirtiéndose en plagas indeseables. En unos pocos días de verano, pequeños insectos como los áfidos, dedican el 80% de su metabolismo a reproducirse, en una estrategia que reduce de forma importante la vida de los progenitores y también las posibilidades de reproducción repetida. Los endoparásitos, sin embargo, son una desafortunada excepción a esta restricción: la tenia, debido al fácil suministro de energía que recibe, se reproduce copiosamente y puede sobrevivir más de quince años.
En el otro extremo del rango reproductivo están las especies del tipo selección-k que se reproducen varias veces, espaciando los nacimientos y cada vez con crías poco numerosas, y que maduran lentamente. El resultado de esta forma de reproducción es una tasa baja de crecimiento y poca capacidad de colonización, que se compensa con la mayor longevidad, competitividad, adaptabilidad y frecuentemente por un comportamiento social altamente desarrollado.
Independientemente de su posición en el rango reproductivo, los rasgos comunes que presentan las transformaciones bioquímicas asociadas con la producción de los gametos y el crecimiento de los embriones permiten estimar la eficiencia de la reproducción heterótrofa. El máximo teórico de la eficiencia, para transformar los monómeros procedentes de la alimentación en los polímeros de la biomasa, está en torno a un impresionante 96%. Ineficiencias inevitables en la digestión de nutrientes y en la reproducción de recambio de tejidos reducen algo esta eficiencia, que siempre se mantiene por encima del 70%.
Los rendimientos se pueden medir fácilmente en los seres heterótrofos unicelulares que se reproducen rápidamente: los rendimientos más altos son los de las bacterias (50 – 65%) y se encuentra un valor medio en las levaduras y los protozoos. No es sorprendente que los poiquilotermos sedentarios sean, entre los heterótrofos superiores, los más eficientes en la transformación de nutrientes en zoo-masa: sus tasas se aproximan frecuentemente al 70 – 80%, que es la máxima eficiencia posible.
Entre los vertebrados, los homeotermos presentan tasas de crecimiento fetal mucho más altas que las especies poiquilotermas. Los ornitólogos han sido los primeros en estudiar la energética de la reproducción debido a la importancia del huevo en la vida de las aves. La energía necesaria para el crecimiento testicular en los pájaros, durante el periodo de rápido desarrollo de las gónadas, está comprendido entre el 0’4 y el 2 por ciento del metabolismo basal. El crecimiento de las gónadas femeninas generalmente requiere aportes energéticos tres veces mayores que las masculinas pero, en cualquier caso, es una cantidad pequeña comparada con el coste energético de la producción e incubación de un huevo.
La cadena alimenticia, los herbívoros, los carnívoros, peces, natación, carreras y saltos, el vuelo, y tantos y tantos conceptos implicados me aconsejan reducir el presente trabajo que, en realidad, sólo quería limitarse a facilitar algunos conocimientos del planeta y que, por mi cuenta y riesgo, he unido a los seres que lo pueblan y cómo se mantienen y están relacionados. Pero no es eso lo que pretendía al empezar, así que, volvamos al tema principal de la libreta: la física.
emilio silvera