viernes, 26 de abril del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Cosas de Física y algunos personajes

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (6)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Me gusta escribir sin tener un objetivo predeterminado y hacer un vuelo rasante sobre la física para escribir todo lo que estoy viendo (lo que sin llamarlo, acude a mi mente en cada instante). Es un buen ejercicio de repaso de cosas diversas que recuerdas. Por ejemplo, ahora mismo me llega la idea de que, desde la más remota antigüedad nos viene fascinando los fenómenos ópticos. De hecho, los estudios encaminados a desvelar la naturaleza de la luz han sido uno de los motores más fructíferos de la física. A ello se dedica la óptica, hoy día una de las áreas más activas de la física.

Buena prueba de ello es la rápida sucesión de Premios Nobel en ese campo en años recientes: 1.997, 2.001 y 2.005. La mitad del último premio fue a manos de Roy J. Glauber, de la Universidad de Harvard, “por sus contribuciones a la teoría cuántica de la coherencia óptica”. Estas contribuciones se recogen esencialmente en tres artículos publicados en 1.963 (se lo reconocen en 2.005). Sobre ellas se ha desarrollado la óptica cuántica. En la luz se apreció por primera vez la naturaleza dual onda-partícula de los objetos cuánticos.

El comportamiento ondulatorio de la luz sirvió de prueba experimental para la teoría electromagnética de Maxwell. La idea de la luz como un haz de fotones reapareció con Einstein en 1.905 para explicar el efecto fotoeléctrico (que le valió el Nobel de física). El dualismo onda-partícula de la luz, que De Broglie extendió a las partículas materiales, es contradictorio en el marco de la física clásica. Para reconciliar ambas imágenes hubo que desarrollar la física cuántica. No obstante, como señalaba Glauber en uno de los artículos mencionados, “la teoría cuántica ha tenido una influencia sobre la óptica que es sólo una fracción de la que históricamente ha tenido la óptica sobre la teoría cuántica”.

Motivado por los experimentos de Hanbury-Brown y Twiss en 1.954-56, y por la invención del láser en 1.960, Glauber realizó una aplicación de la electrodinámica cuántica a problemas ópticos. Mientras que los experimentos previos habían usado interferencia de amplitudes y registraban intensidades con un solo detector, Hanbury-Brown y Twiss estudiaron correlaciones en las intensidades recibidas de una estrella por dos detectores separados, observando que los fotones térmicos parecen emitirse agrupados (bunched). ¿También los de un haz de láser? Esta y otras cuestiones llevaron a Glauber a desarrollar la teoría cuántica de la coherencia, basada en los estados coherentes y en la teoría cuántica de la fotodetección. Estudiando coincidencias retardadas en la detección de fotones por varios detectores, Glauber introdujo una sucesión de funciones de correlación que mostraban las características cuánticas de la radiación y permitían diferenciar entre haces de luz con la misma distribución espectral, pero diferente estadística de fotones.

Particularmente relevantes han sido los estudios posteriores de “luz no clásica”, tales como resonancia-fluorescencia de un solo átomo, que muestra el llamado antibunching, luz cuyo ruido cuántico depende de la fase; y pares de fotones entrelazados.

El estado más común de la materia en el universo, no es ni líquido, ni sólido, ni gaseoso, sino que es el plasma; el estado de la materia que conforman las estrellas. Sin embargo, particularmente apuesto por una idea que no se va de mi cabeza, el estado último de la materia es la luz.

La otra mitad del Premio Nobel se otorgó a partes iguales a John L. Hall, de la Universidad de Colorado, JILA y NIST, Boulder y a Theodor W. Hänsch, del Max Planck Instit für Quantenoptik, Garching, y de la Ludwig-Maximilians-Universität, Munich, “por sus contribuciones al desarrollo de métodos de espectroscopia láser de precisión, incluyendo la técnica de peines de frecuencias ópticas”.

En espectroscopia se analiza la composición en frecuencias de la luz absorbida o emitida por la materia, lo cual proporciona información valiosa, por ejemplo, sobre la estructura cuántica de los átomos.

Los galardonados lideraron un proyecto espectacular en el desarrollo de métodos para producir y medir estas frecuencias ópticas, con una precisión actual de 15 cifras significativas y potencial de 18. De hecho, este tipo de medidas son de las de mayor precisión alcanzadas en física y permiten abordar cuestiones de gran interés básico, como la observación de la variación temporal de “constantes” fundamentales, como la estructura fina (α = 1/137, ó 2πe2/hc). Tienen también repercusión en el desarrollo de relojes atómicos ultraprecisos (con desajuste menor a una décima de segundo cada 100 años), útiles por ejemplo en sistemas GPS.

En espectroscopia óptica de precisión han de determinarse frecuencias de varios cientos de THz en términos de la definición del patrón de tiempo representado por desdoblamiento hiperfino del estado fundamental del cesio a 9’2 GHz. Hasta el año 2.000, esta tarea requería esfuerzos heroicos porque los detectores sólo permiten comparar directamente frecuencias separadas por algunas decenas de GHz. Se usaban por tanto complejas cadenas de generación de sucesivos armónicos de la frecuencia del cesio. Esas cadenas eran costosas, delicadas, y de hecho, sólo algunos laboratorios las desarrollaron. El problema se ha simplificado enormemente con la introducción por Hall y Hänsch del llamado peine de frecuencias ópticas, formado por del orden de un millón de frecuencias equiespaciadas unos 100 MHz y cubriendo varios cientos de THz. De estas frecuencias pueden realizarse una medida absoluta con el patrón de cesio. Por tanto el peine sirve como una “regla” para determinar cualquier frecuencia óptica desconocida. Estos peines o sintetizadores de frecuencias, que ya se comercializan, usan láseres de femtosegundos y un nuevo tipo de fibra óptica microestructurada o de cristal fotónico…

 Hay acontecimientos que son dignos de recordar.

Albert Einstein, al igual que Max Planck, amó los principios que regían las leyes de la naturaleza; sus trabajos siempre contenían estos principios. A parte de los principios de la relatividad y de constancia de la velocidad de la luz, unos años más tarde A. Einstein enunciaba la hipótesis de que un campo gravitatorio uniforme es físicamente indistinguible de una aceleración uniforme del sistema de referencia, y erigiría sobre ésta su teoría de la relatividad general, obra cumbre, por su originalidad y belleza, del pensamiento científico de todos los tiempos.

La comenzó a elaborar en 1.907 y la concluyó esencialmente el 25 de noviembre de 1.915, tras ocho años de tenaz trabajo, de búsqueda, de profundos pensamientos, de seguir por derroteros y caminos equivocados, hasta crear una fascinante teoría de la gravitación, conocida como Teoría General de la Relatividad.

Obligado a renunciar al espacio-tiempo absoluto de la relatividad, o mejor, teoría newtoniana, para dar cobijo a la relatividad especial a la gravedad, Einstein geometrizó ésta y derrocó la de Newton. Muchos años más tarde, en sus notas autobiográficas, Einstein pediría humildemente perdón a Newton por su osadía al modificar su mecánica: “Newton, perdóname; Tú encontraste el único camino que en tu época estaba justo al alcance de un hombre de potencia mental y creadora suprema”.

Tan sólo una semana antes, el 18 de noviembre, A. Einstein comunicaba a la Academia de Ciencias Prusiana que su teoría explicaba de forma natural el avance anómalo del perihelio de Mercurio. Cuenta él mismo que este histórico descubrimiento llegó a sumirle en estado de excitante alegría. También en esa sesión corrigió, doblándolo, su cálculo previo (en los años 1.907 y 1.911) del ángulo de deflexión de la luz al pasar por las proximidades del Sol. La corroboración de este valor, dentro de un margen de error de un 20%, aprovechando un eclipse solar de aquella época, catapultaría a Einstein a la fama universal.

Hoy, el principio de equivalencia de Einstein engloba tres afirmaciones:

  1. El principio de equivalencia débil (la caída libre de una partícula prueba, neutra, en un campo gravitatorio, desde una posición dada y con una velocidad inicial dada, es independiente de su estructura interna y composición).
  2. El principio de invariancia Lorentz local (el resultado de cualquier experimento no gravitacional con partículas prueba, de modo que sean ignorables las fuerzas de marea y las autoenergías gravitatorias, es independiente de la velocidad del inercial local).
  3. El principio de invariancia posicional local (el resultado de cualquier experimento prueba no gravitacional es independiente del lugar e instante en que se realice).

Hay diversas teorías de la gravitación compatibles con el principio de equivalencia de Einstein. Son las llamadas teorías métricas de la gravitación, entre las cuales se halla la Teoría General de la Relatividad de Einstein, que dicho sea de paso, es la única que hasta el momento ha pasado con éxito todas las pruebas a las que ha sido sometida (deflexión de la luz, avance de periastros, efecto Shapiro, ondas gravitatorias, etc., etc.), y se está a la espera del análisis de los datos sobre el efecto Lense-Thirring (arrastre de inerciales) obtenidos en 2.004 con la sonda Gravity Probe de la NASA.

Cuando se enriquece el principio de equivalencia de Einstein con partículas con alto contenido de autoenergía gravitatoria y experimentos gravitacionales, se pasa al principio de equivalencia fuerte. Se conjetura PEF → TGR.

Como los griegos y como Newton, Einstein creía en 1.917 en la inmutabilidad (a gran escala) de los cielos. También era defensor ardiente del principio de Mach (la inercia de los cuerpos es relativa a otras masas, y desaparece en ausencia de éstas). Para salvaguardar éste, se ve obligado a suponer un espacio finito, y sin borde. Pero entonces para evitar su colapso Einstein tiene que introducir su famoso término, llamado constante cosmológica, que simula una repulsión cósmica capaz de contrarrestar la atracción gravitatoria entre los astros de ese universo finito y supuestamente estático.

Este primer modelo cosmológico relativista se conoce como universo cilíndrico de Einstein, en el que las acciones espaciales son esferas S3. Al descubrirse la expansión del universo (Hubble, 1.929), Einstein se arrepintió de haber introducido ese término en su ecuación; “La mayor equivocación de mi vida”, dijo en una ocasión.

En 1.932, y en colaboración con el astrónomo Willem de Sitter, propone Einstein un sencillo modelo de universo de materia no relativista en expansión crítica, que emana de una gran explosión y es especialmente plano. En ese trabajo se habla por primera vez de la constante cosmológica. Pero bastante antes (1.923), Einstein ya estaba dispuesto a renunciar a su uso si no hubiera un universo cuasiestático, y los resultados teóricos de Friedmann y observacionales de Hubble le precipitan a ello. Su decepción tardía con el principio de Mach es también digna de mención, llegando a escribir en carta a Pirani (1.954), “Von dem Mach’schen Prinzip solten man eigentlich überhaupt nicht mehr sprechen”.

Irónicamente, en los últimos años parece haber renacido de sus cenizas la idea de constante cosmológica, como explicación más simple de la energía oscura responsable de la aceleración observada en la expansión del universo (palos de ciego a los que lleva la ignorancia, ya que ese misterio está escondido en fluctuaciones del vacío que se encuentra en la quinta dimensión – según creo – y que, desde allí, invisible, nos envía los gravitones que intermedian en esa aceleración gravitatoria).

No sería justo finalizar esta reseña de recuerdo a Einstein sin citar otras grandes aportaciones suyas* a la física. Probó que los conceptos cuánticos sirven para algo más que para explicar la radiación de cuerpo negro. Concierne al calor específico de los sólidos, y en particular, Einstein resuelve su anomalía a bajas temperaturas. Nerst, que confirmó brillantemente estos resultados de Einstein, hablaría de nuestro protagonista como de un Boltzmann redivivus, e intervino para que A. Einstein fuese invitado al primer congreso Solvay (1.911) para hablar de este tema.

Varios años después, Einstein vuelve a la física cuántica con dos trabajos sumamente importante sobre la teoría cuántica de la radiación. En ellos introdujo sus famosos coeficientes A (de emisión espontánea) y B (de absorción y de emisión inducida), tan importante muchos años más tarde en las teorías de láseres, y asignó a los cuantos de luz (fotones) de frecuencia v un momento hv/c (que sería puesto en evidencia por Compton en 1.932).

Habría que pasar otra década para que el genio de Einstein dejara nueva huella en el mundo cuántico. La lectura del trabajo fundamental de Bose sobre la luz como un gas de fotones sugirió a Einstein extender esta idea a un gas de átomos. Nacía así la estadística conocida desde entonces como de Bose-Einstein. Hoy los condensados atómicos Bose-Einstein ocupan un lugar central en la investigación física y en la tecnología de vanguardia.

La relación de Einstein con la física cuántica fue controvertida, ya que habiendo sido un importante creador de dicha teoría con sus trabajos y descubrimientos, litigó contra algunos aspectos de la misma en debates famosos con Niels Bohr, y se resistía a aceptar la mecánica cuántica como definitiva. El “malestar” (unbehagen) de Einstein con el protagonismo esencial del azar fue notorio, y su tardía pero afamada publicación con Boris Podolsky y Nathan Rosen ha propiciado, tras la extraordinaria entrada en escena de John Bell, centenares de trabajos en torno al realismo local.

Persiguió Einstein inútilmente durante los 33 últimos años de su vida la unificación de la gravitación con el electromagnetismo, buscando un campo total del que las partículas conocidas fuesen soluciones especiales y que incluso explicase las leyes cuánticas. Cuando empezó en 1.922 con este programa, se desconocían las otras fuerzas fundamentales, nuclear débil y fuerte, y se creía que las fuerzas en el interior de los átomos eran electromagnéticas.

Las cuatro interacciones hoy conocidas siguen resistiéndose a la total unificación, salvo si se rompe el esquema espaciotemporal ordinario y se pasa a un escenario de diez u once dimensiones con las teorías de supercuerdas que el genial E. Witten ha refundido en una teoría M.

¿Quién será en este nuevo milenio el genio encargado de pedir perdón a Albert Einstein? ¿Podría ser Witten?; ¿otro Ramanujan? ¡Ya veremos!

No me cabe la menor duda de que en un futuro más o menos cercano, ese genio estará aquí para finalizar el trabajo de esa teoría de unificación que haga posible la convivencia de la relatividad general y la mecánica cuántica. Ese día, la Humanidad habrá dado otro paso de gigante hacia su imparable viaje a las estrellas.

Si el comité del Nobel hubiera actuado con justicia, Einstein sería el poseedor de no menos de tres premios Nobel que, finalmente, se quedó sólo en el de física de 1.921, lo que, a pesar del reconocimiento mundial a su genio, no hizo justicia de manera proporcional a sus contribuciones a la fisica y a la cosmología.

emilio silvera

 

 


* En otros trabajos anteriores me ocupé más ampliamente del personaje y su obra.

Los Misterios de la Tierra X

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

El metabolismo heterótrofo

Los seres autótrofos siguen dos vías diferentes para transformar la biomasa que ingieren en los compuestos complejos de los que se componen sus tejidos. Esta transformación puede ser mediante fermentación anaeróbica o a través de respiración aeróbica. La primera vía se restringe a las células procariotas  simples, como las fermentadoras, las bacterias metanogénicas y los hongos Ascomycota responsables de la fermentación del etanol (alcohol etílico). La segunda vía se hizo posible a partir del momento en que la cantidad de oxígeno atmosférico, generado por los vegetales, alcanzó un nivel suficientemente alto como para que algunos seres procariotes pudieran utilizar la respiración aeróbica para generar trifosfato de adenosina más eficientemente que por fermentación. Desde un punto de vista energético, la oxidación es claramente ventajosa. Así, por cada mol de glucosa se liberan 197 KJ por fermentación en ácido láctico, 232 KJ por fermentación alcohólica y 2’87 MJ por la oxidación completa, lo que representa para esta última una ganancia que está comprendida entre 12 y 14 veces.

Los nutrientes necesarios para el metabolismo de tipo heterótrofo proceden de la digestión de los tejidos vegetales o de otros heterótrofos. En el metabolismo heterótrofo hay notables regularidades orgánicas. Entre ellas destaca claramente el hecho de que al representar en un gráfico logarítmico la tasa metabólica basal (TMB), – metabolismo mínimo cuando el animal se encuentra en reposo absoluto – frente al peso, los resultados relativos a los animales comprendidos entre el ratón y el elefante se dispongan a lo largo de una línea recta.

Esta dependencia lineal fue expuesta  en un gráfico logarítmico y fue descubierta por Kleiber en 1.932, y muestra que, si representamos las TMB en vatios y el peso, p, en kilogramos, la dependencia funcional entre ambas magnitudes es 3’52 p0’74. Si en vez del peso, se representa la TMB frente a la superficie corporal de los animales, el exponente de Kleiber es 0’67, que es el valor que se había supuesto anteriormente. Las medidas posteriores de la TMB en cientos de especies han confirmado la primera dependencia funcional que ha sido redondeada en 1.961 por el propio Kleiber, en 3’4 p0’75 (en W).

Aunque aún no se ha encontrado una explicación definitiva de la razón de esta ley de potencia con exponente ¾, el análisis de los requerimientos mecánicos de los cuerpos animales dan una buena pista. Con criterios elásticos se deduce que el cubo de la longitud crítica de rotura de los huesos varía linealmente con el cuadrado del diámetro (d) de la sección de los mismos, que a su vez, es proporcional a p3/8. La potencia muscular es proporcional al área de su sección transversal (esto es, proporcional a d2), y por tanto, la forma funcional de la potencia máxima se expresa como (p3/8)2, o lo que es lo mismo, p0’75.

Una explicación aún más fundamental se basa en la geometría y en la física de la red vascular necesaria para distribuir los nutrientes y eliminar los materiales de desecho del cuerpo de los animales. Estas redes que llenan el espacio, son fractales que determinan las propiedades estructurales y funcionales de los sistemas cardiovasculares y respiratorios, y de sus propiedades se deduce que el metabolismo total de los organismos escala con su masa elevada a la potencia ¾.

El exponente de Kleiber tiene una consecuencia importante para los organismos con TMB específica (la TMB dividida  por el peso corporal) decrecientes. Esta relación limita el tamaño mínimo de los animales homeotermos y facilita que las grandes criaturas puedan sobrevivir en condiciones ambientales adversas. La ingesta diaria de néctar de un pequeño colibrí es equivalente a la mitad del peso de su cuerpo (para los seres humanos, la comida diaria representa alrededor del 3% del peso corporal), y los animales de sangre caliente, de tamaño menor que un colibrí, tendrían que estar comiendo continuamente para poder compensar las rápidas pérdidas de calor.

En el otro extremo, los grandes mamíferos pueden pasar varios días sin alimentarse, recurriendo a las reservas de grasa acumuladas para mantener su bajo metabolismo durante periodos de hibernación relativamente largos.

Los casos de separación de la tendencia general ilustran varios modos de adaptación al medio. Para regular térmicamente su cuerpo en agua fría, la TMB de las focas y las ballenas es el doble de las de otros animales de su tamaño. Los mamíferos del desierto, con sus bajas TMB, se han adaptado a los periodos de carencia de alimentos y a la escasez recurrente o crónica de agua.

Naturalmente, la TMB representa sólo una parte de las necesidades energéticas. La digestión eleva las tasas metabólicas de todos los animales y la reproducción requiere aumentos periódicos de energía (como también ocurre con el cambio de plumaje o pelaje en los pájaros y mamíferos). La búsqueda de comida es una actividad ineludible para todos los animales que no estén hibernando. Simplemente por estar de pie, la tasa metabólica en los pájaros es un 15 por ciento superior a la tasa de reposo; y en los mamíferos, exceptuando al caballo, esta diferencia llega al 30 por ciento. El límite metabólico, múltiplo de la TMB durante el máximo esfuerzo, es mucho mayor durante la carrera, natación o el vuelo.

Tendría que mencionar ahora la reproducción y sus distintas formas, que varían de modo continuo entre los casos extremos de la cría generalizada generada de golpe y los nacimientos espaciados de un único neonato. El primer caso maximiza la producción de individuos que maduran con rapidez, y estas especies son más oportunistas. La mayoría de las bacterias, así como muchas especies de insectos, pertenecen a este grupo de seres que se reproducen de forma oportunista e intensa. En condiciones adecuadas llegan a invertir una parte tan importante de su metabolismo en la reproducción que acaban convirtiéndose en plagas indeseables. En unos pocos días de verano, pequeños insectos como los áfidos, dedican el 80% de su metabolismo a reproducirse, en una estrategia que reduce de forma importante la vida de los progenitores y también las posibilidades de reproducción repetida. Los endoparásitos, sin embargo, son una desafortunada excepción a esta restricción: la tenia, debido al fácil suministro de energía que recibe, se reproduce copiosamente y puede sobrevivir más de quince años.

En el otro extremo del rango reproductivo están las especies del tipo selección-k que se reproducen varias veces, espaciando los nacimientos y cada vez con crías poco numerosas, y que maduran lentamente. El resultado de esta forma de reproducción es una tasa baja de crecimiento y poca capacidad de colonización, que se compensa con la mayor longevidad, competitividad, adaptabilidad y frecuentemente por un comportamiento social altamente desarrollado.

Independientemente de su posición en el rango reproductivo, los rasgos comunes que presentan las transformaciones bioquímicas asociadas con la producción de los gametos y el crecimiento de los embriones permiten estimar la eficiencia de la reproducción heterótrofa. El máximo teórico de la eficiencia, para transformar los monómeros procedentes de la alimentación en los polímeros de la biomasa, está en torno a un impresionante 96%. Ineficiencias inevitables en la digestión de nutrientes y en la reproducción de recambio de tejidos reducen algo esta eficiencia, que siempre se mantiene por encima del 70%.

Los rendimientos se pueden medir fácilmente en los seres heterótrofos unicelulares que se reproducen rápidamente: los rendimientos más altos son los de las bacterias (50 – 65%) y se encuentra un valor medio en las levaduras y los protozoos. No es sorprendente que los poiquilotermos sedentarios sean, entre los heterótrofos superiores, los más eficientes en la transformación de nutrientes en zoomasa: sus tasas se aproximan frecuentemente al 70 – 80%, que es la máxima eficiencia posible.

Entre los vertebrados, los homeotermos presentan tasas de crecimiento fetal mucho más altas que las especies poiquilotermas. Los ornitólogos han sido los primeros en estudiar la energética de la reproducción debido a la importancia del huevo en la vida de las aves. La energía necesaria para el crecimiento testicular en los pájaros, durante el periodo de rápido desarrollo de las gónadas, está comprendido entre el 0’4 y el 2 por ciento del metabolismo basal. El crecimiento de las gónadas femeninas generalmente requiere aportes energéticos tres veces mayores que las masculinas pero, en cualquier caso, es una cantidad pequeña comparada con el coste energético de la producción e incubación de un huevo.

La cadena alimenticia, los herbívoros, los carnívoros, peces, natación, carreras y saltos, el vuelo, y tantos y tantos conceptos implicados me aconsejan reducir el presente trabajo que, en realidad, sólo quería limitarse a facilitar algunos conocimientos del planeta y que, por mi cuenta y riesgo, he unido a los seres que lo pueblan y cómo se mantienen y están relacionados. Pero no es eso lo que pretendía al empezar, así que, volveré a los temas de siempre con la Física y la Astronomía, debiendo considerar, esta parada en Los Misterios de la Tierra, como un simple descanso de los temas principales que aquí nos vienen ocupando.

emilio silvera

Los Misterios de la Tierra IX

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Comentario sobre los bosques

Los bosques almacenan la mayor parte de la fitomasa terrestre, entre tres cuartos y nueve décimos del total. La razón de tanta incertidumbre en esta estimación se debe a la rápida deforestación tropical, la falta de una clasificación uniforme de los bosques y a su alta variabilidad.

Los bosques cerrados (en contraste con los bosques abiertos) se pueden definir como ecosistemas cuya cubierta ocupa entre el 20 y el 40 por ciento del suelo. Nuestro escaso conocimiento de los bosques tropicales implica que tengamos que extrapolar almacenamientos típicos de un número inadecuado de terrenos bien estudiados. El mejor inventario disponible establece que, a principios de los noventa, el área total de bosques cerrados era de aproximadamente 25 millones de Km2, dos quintas partes de los cuales estaban situados en los trópicos. La superficie total de todos los bosques es aproximadamente el doble; almacenan cerca de nueve décimas partes de la fitomasa del planeta y están casi equitativamente repartidos entre los biomas tropicales, templaros y boreales.

En el bosque tropical se encuentra el máximo almacenamiento medio de fitomasa. Desde el aire, las copas de los árboles muestran una decepcionante uniformidad, vistas desde aviones a reacción y de un rojo intenso en las imágenes con falso color de los satélites. Desde el suelo umbrío, frecuentemente con escasa maleza, se elevan los troncos de los árboles, unos rectos, otros delgados, algunos enormes y también apuntalados; luego un revoltijo de ramas superpuestas, lianas y epifitos. Un claro del bosque o la orilla de una corriente muestran la estructura en capas de esta selva.

Los bosques tropicales más espesos de la Amazonia albergan en cada hectárea casi 100.000 plantas de más de seiscientas especies vegetales diferentes. Pero al menos tres cuartas partes de la fitomasa almacenada (unas 600 toneladas por hectárea) se encuentran en las copas de unos pocos cientos de árboles que sobresalen.

Debido a la alta biodiversidad de la selva, ningún árbol almacena más de un pequeño porcentaje de toda la fitomasa. Ésta es una estrategia evasiva que ha incrementado las posibilidades de supervivencia en un ambiente rebosante de predadores de semillas y agentes patógenos. Otras defensas activas son sus finas cortezas o la simbiosis con hormigas guardianas.

Por el contrario, en los bosques templados y en los boreales domina una sola especie de árbol, y sin embargo, su almacenamiento de fitomasa supera a los bosques tropicales más espesos. Los máximos del planeta se dan en las costas del noroeste del océano Pacífico, donde los bosques de secuoyas pueden llegar a almacenar, por encima del suelo, hasta 3.500 toneladas de fitomasa por hectárea, lo que representa una cantidad cinco veces mayor que en la Amazonia central. Estos árboles son los seres vivos más altos (más de 100 metros) y más pesados (más de 300 toneladas) del planeta (las ballenas azules adultas pesan alrededor de las 100 tonelas).

En todos los bosques, los tejidos leñosos por encima del nivel del suelo (tronco, corteza, ramas) contienen la mayor parte de la fitomasa (70 – 80 por ciento) del árbol; las raíces almacenan entre el 10 y el 35 por ciento, las acículas un 1’5 – 8 por ciento y las hojas sólo el 1 – 2 por ciento.

El tronco cortado en la forma tradicional para su comercialización contiene solamente la mitad de toda la fitomasa, mientras que los troncos demasiados delgados, el tocón, ramas, corteza, artículos y hojas suman la otra mitad.

En un buen bosque en crecimiento, templado o boreal, se obtienen entre 85 y 100 m3/ha (35 – 50 t/ha en seco, dependiendo de la clase de árbol); en los bosques tropicales pueden llegar hasta 180 m3/ha. Con los nuevos métodos de corta, para obtener pulpa se utiliza todo el árbol (a menudo hasta el tocón), recuperándose prácticamente toda la fitomasa.

Para producir un kilogramo de fitomasa nueva, los árboles tropicales requieren hasta 12 g de nitrógeno, mientras que un bosque de coníferas necesita menos de 4 g. Los bosques templados, con unas tasas relativamente altas de crecimiento y un uso económico de los nutrientes, son productores relativamente eficientes de fitomasa.

Todas la civilizaciones preindustriales cortaron madera, no sólo como material de construcción indispensable, sino también como combustible, bien quemado directamente o transformándolo previamente en carbón. La contribución de los bosques a la energía global primaria ha ido declinando según ha aumentado el consumo de combustibles fósiles, pero su presencia ha seguido creciendo, tanto como suministradores de madera y pulpa como por su función de albergues de alta biodiversidad y por sus servicios como ecosistemas insustituibles.

El ámbito de las praderas

La extensión global de las praderas ha cambiado profundamente desde la mitad del siglo XIX. El principal motivo de este cambio es el de transformar las praderas en tierras de cultivo, lo que ha provocado la disminución, en superficie, de este bioma, pero por otra parte, según avanza la deforestación han surgido praderas secundarias.

Aunque la extensión de las praderas es casi igual a la de los bosques cerrados, la diferencia entre sus respectivos promedios de fitomasa almacenada sobre el nivel del suelo por unidad de superficie (20 t/ha en hierba, 250 t/ha en fitomasa leñosa) es de un orden de magnitud. Hay, sin embargo, más fitomasa en las praderas de lo que parece a simple vista, porque salvo en las hierbas altas tropicales, la fitomasa subterránea es varias veces mayor que en los árboles en lo que se refiere a los brotes en su cubierta.

La cantidad de fitomasa contenida en los renuevos está comprendida entre menos de 1 t/ha, en regiones semidesérticas, hasta más de 20 t/ha en algunas praderas tropicales. Si se incluyen los tallos secos, la fitomasa aérea llega a alcanzar las 35 t/ha. En regiones con clima semihúmedo tropical, y en climas templados con irrigación natural, las mayores acumulaciones de fitomasa se encuentran en los renuevos. En general, es indiscutible la correlación entre la cantidad de fitomasa y la de lluvia, aunque esta relación pierde importancia en condiciones de humedad elevadas.

Los valores extremos de la cantidad de fitomasa subterránea global varía entre menos de 0’5 t/ha en los trópicos, hasta casi 50 t/ha en las praderas templadas (media de 20 t/ha). Con cerca de 10 t/ha al año, la productividad media de las praderas templadas iguala la de los bosques en latitudes medias.

Una gran cantidad de herbívoros se alimentan de las praderas. Solamente las hojas tiernas tienen un alto contenido en proteínas y son relativamente digestibles. Los tallos y los troncos son peores en ambos aspectos, pero componen la mayor parte de la dieta de algunas especies que comparten las praderas con otros animales. En la estación seca del Serengueti, la dieta de los ñus se compone aproximadamente de un 20 por ciento de hojas y un 30 por ciento de tallos, mientras que para las cebras los correspondientes valores son de menos del 1 por ciento y de más del 50 por ciento respectivamente.

Una sola especie numerosa de invertebrados puede consumir una pequeña fracción de la producción anual de fitomasa, y el consumo total de todos los invertebrados está comprendido entre el 10 y el 20 por ciento. Los ungulados consumen hasta el 60 por ciento de la producción de fitomasa aérea de las fértiles praderas del este de África. Algunas hierbas se adaptan para evitar su excesivo consumo incorporando a su composición sustancias que disminuyen su digestibilidad, y compuestos tóxicos; otras reaccionan con un rápido crecimiento cuando son dañadas por los animales que pastan.

En el Serengueti, donde las praderas sirven de alimento a la mayor concentración de grandes herbívoros del mundo, así como a muchos otros animales de menos tamaño y a numerosos invertebrados, un moderado consumo de hierba aumenta la producción de la misma hasta el doble de la que se produce en terrenos donde no se pace. El césped es la prueba más asequible de la productividad, no siempre deseada, de la pradera.

emilio silvera