martes, 16 de septiembre del 2025 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¡La Tierra! Nuestra casa

Autor por Emilio Silvera    ~    Archivo Clasificado en Naturaleza misteriosa    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

La atmósfera

 

La atmósfera terrestre (troposfera y estratosfera) es tan delgada que, dibujando el planeta con un diámetro de 10 cm, tendría un espesor de unos 0’4 milímetros, equivalente al grosor de una línea de lápiz. Sin embargo, esta delgada capa gaseosa posee una importancia crítica para mantener el balance energético de la Tierra.

El planeta es adecuado para el desarrollo de la vida debido a que su atmósfera el llamativamente diferente de la de sus vecinos más próximos. La atmósfera de Venus está compuesta en un 96 por ciento de CO2, con un 3’5 por ciento de nitrógeno y trazas de gases nobles. La atmósfera de Marte contiene un 95’3 por ciento de CO2, un 2’7 por ciento de nitrógeno, 1’6 por ciento de argón y también trazas de agua y O3. Una atmósfera parecida a la terrestre determinaría que en la superficie marciana la temperatura sería superior a los 200º C y la presión de unos pocos MPa. En tales condiciones no podría existir vida compleja basada en el carbono con tejidos húmedos.

 

Hay pocas dudas de que la primera atmósfera de la Tierra contuviera abundante CO2, pero no está claro si su posterior desaparición se debió exclusivamente a procesos geoquímicos inorgánicos (sobre todo a la pérdida de ácido carbónico), o si los primeros organismos fueron importantes en la posterior conversión de CO2 en sedimentos de CaCO3. Parece claro, por el contrario, que la fotosíntesis llevada a cabo inicialmente por bacterias fue la responsable de la transformación de la atmósfera sin oxígeno en el Arcaico.

                                   Tenemos una posición privilegiada dentro del Sistema solar

El aumento de oxígeno comenzó a acelerarse hace unos 2.100 millones de años y el actual nivel del 20 por ciento se alcanzó hace unos 300 millones de años. El aumento del oxígeno troposférico permitió la formación de ozono estratosférico, que protegió la biosfera de la energética radiación UV de longitudes de onda inferiores a 295 nm. Sin esta protección no hubiera sido posible la evolución de plantas y animales más complejos, ya que si la radiación UV de frecuencias menores ya mata los gérmenes y quema la piel, la de frecuencias altas es letal para la mayoría de los organismos.

Las actividades humanas pueden modificar poco las proporciones de los constituyentes atmosféricos. La cantidad de nitrógeno que se utiliza para sintetizar amoniaco representa una fracción despreciable de las enormes reservas troposféricas y la desnitrificación finalmente recicle todo el gas. Incluso el consumo de todas las reservas conocidas de combustibles fósiles (un hecho imposible debido a los costos prohibitivos de la extracción de algunas de estas fuentes de energía, sumergidas en las fosas abisales a miles de kilómetros de profundidad) reduciría la concentración de O2 en menos de un 2 por ciento.

 File:Air .pollution 1.jpg

                 Esta planta generadora de Nuevo México libera dióxido de azufre y otros contaminantes del aire.

Las emisiones locales y regionales de aire contaminado contienen muchos gases, pero los riesgos de un cambio climático global sólo pueden venir de mayores emisiones de compuestos en trazas. Algunos de esos gases (sobre todo CO2, N2O y CH4), así como el vapor de agua, absorben fuertemente la radiación en el espectro IR. Consecuentemente, la radiación IR emitida por la superficie de la Tierra tiene longitudes de onda comprendidas en distintas ventanas intercaladas entre bandas de absorción.

Las bandas de absorción más importantes del vapor de agua están comprendidas entre 2’5 y 3 μm y entre 5 y 7 μm, mientras que el CO2 tiene dos picos estrechos en 2’5 y 4 μm, y una banda más ancha cerca de los 15 μm. Como la radiación terrestre está completamente incluida en el espectro IR, esta absorción tiene un gran efecto en el balance de la radiación de la Tierra.

 

Para mantener la biosfera habitable hacen falta solamente concentraciones muy pequeñas de gases de “efecto invernadero”. El CO2 representa actualmente sólo unos 360 ppm* (menos del 0’04%) de la atmósfera terrestre, y los demás gases en traza miden en ppb o ppt. Esta composición hace que la temperatura media en la superficie del planeta sea de unos 16º C, la cual, combinada con una presión superficial de 101 KPa, asegura que el agua permanezca líquida y que sea posible la fotosíntesis y el metabolismo heterótrofo. Hay que procurar (hablando coloquialmente) que Gaia no se enfade, ya que el aumento de las concentraciones de gases en traza elevaría gradualmente la temperatura media de la troposfera.

La conversión de bosques y praderas en campos de cultivo y la utilización de combustibles sólidos han hecho aumentar las emisiones de CO2, mientras que el creciente uso de fertilizantes nitrogenados, la cada vez más numerosa cabaña vacuna y el aumento del cultivo de arroz emiten cantidades adicionales de N2O y CH4. Los fluorforocarbonados, además de sus destructivos efectos sobre el ozono troposférico, son gases con efecto invernadero muy potentes. Debido a la acción combinada de los gases invernaderos antropogénicos, el flujo medio de calor absorbido ha aumentado en 2’5 W/m2 en grandes áreas del hemisferio norte, pero no estamos seguros de hasta dónde llegará esta tendencia ni de su velocidad. Lo mejor sería no confiarse; mi padre, hombre no cultivado, decía a menudo que “más vale un por si acaso que un yo creí”.

 

La atmósfera también interviene en el balance energético del planeta redistribuyendo el calor sensible* y el calor latente del agua con los vientos y las lluvias, y de una manera completamente diferente pero más espectacular, con los rayos. La mayoría de esas descargas de elevadísima concentración de energía se originan en los cumulonimbos, y tienen una enorme potencia (duplicar el tamaño de la nube implica aumentar la potencia del rayo treinta veces). Un rayo normal descarga entre 20 y 50 MJ, la mayor parte de esa energía en 10 μs, produciendo la impresionante potencia de 1-10 GW. La luz visible emitida representa solamente el 0’2-2% de la energía disipada, invirtiéndose el resto en calentar la atmósfera a su alrededor y en la energía acústica del trueno. La observación de satélites indica que por término medio se producen unos cien mil relámpagos por segundo.

Sabemos que la atmósfera es la envoltura gaseosa que rodea a un cuerpo astronómico. Varios planetas (incluyendo la Tierra) poseen atmósferas considerables debido a su intensa gravedad. Los movimientos de los gases en las atmósferas planetarias en respuesta al calentamiento, junto con las fuerzas rotacionales, generan sistemas meteorológicos. Los satélites planetarios Titán y Tritón también poseen atmósferas.

Creo que la atmósfera es quizá el término más vago para identificar una parte de un cuerpo celeste. Está referido a su envoltura superficial, generalmente de un planeta o estrella. Parece fácil decirlo, pero los gases no son como un líquido o un trozo de roca, en los que puede determinarse exactamente dónde está la superficie que los separa del entorno circundante de una manera precisa. Es imposible indicar el nivel exacto donde acaba la atmósfera y comienza el plasma interplanetario. De hecho, los gases apenas están sometidos a la fuerza de la gravedad; se “esfuman” hacia el espacio y abandonan continuamente el cuerpo celeste. En el caso de la Tierra, por estar cerca del Sol, determinar dónde termina la atmósfera terrestre y dónde empieza la solar es un problema al que sólo puede responderse teóricamente, que dicho sea de paso, permite licencias literarias que prohíben las matemáticas.

Componentes de la atmósfera en los estratos bajos

(índices casi constantes)

Nitrógeno molecular 780’84
Oxígeno molecular 209’46
Anhídrido carbónico 430
Argón 9’34
Neón 0’0018
Helio 0’0005
Criptón 0’000114
Xenón 0’000009
Hidrógeno molecular 0’00005
Metano 0’00017
Vapor de agua 0 – 4

Componentes de la atmósfera en los estratos bajos

(cantidades variables; aire seco)

Compuesto

Origen

Cantidad

Ozono

Radiación ultravioleta

0 – 0’50 ppm

Anhídrido sulfuroso

Industrias y volcanes

0 – 1 ppm

Dióxido de nitrógeno

Industria

0 – 0’02 ppm

Nitrógeno molecular

Industria

104 g/m3

Cloruro sódico

Mar

104 g/m3

Amoniaco

Industria

Trazas

Óxido de carbono

Industria

Trazas

Resumiendo

Nitrógeno

78%

Oxígeno

20%

Argón

0’94%

CO2

0’046%

Otros

≈ 1%

Podríamos hablar aquí de:

  • Homosfera
  • Heterosfera
  • Troposfera
  • Estratosfera
  • Mesosfera
  • Termosfera
  • Ionosfera
  • Magnetosfera
  • Exosfera

Y otras divisiones y subdivisiones atmosféricas; sin embargo, antes de cerrar este capítulo, me pararé en lo que denominamos la biosfera.

La biosfera y la hidrosfera están estrechamente relacionadas: el agua es el elemento esencial de todas las formas de vida, y la distribución del agua en el planeta (es decir, los límites de la hidrosfera) condiciona directamente la distribución de los organismos (los límites de la biosfera). El término biosfera, de reciente creación, indica el conjunto de zonas de la Tierra donde hay vida, y se circunscribe a una estrecha región de unos 20 Km de altura comprendida entre las cimas montañosas más elevadas y los fondos oceánicos más profundos. Sólo pueden hallarse formas de vida en la biosfera, donde las condiciones de temperatura, presión y humedad son adecuadas para las más diversas formas orgánicas de la Tierra.

Obviamente, las fronteras de dicha “esfera” son elásticas y su extensión coincide con la de la hidrosfera; se superpone a las capas más bajas de la atmósfera y a las superficiales de la litosfera, donde se sumerge, como máximo, unos 2 Km. Sin embargo, si por biosfera se entiende la zona en la que hay vida así como la parte inorgánica indispensable para la vida, deberíamos incluir en este concepto toda la atmósfera, sin cuyo “escudo” contra las radiaciones más fuertes no existiría ningún tipo de vida; o la corteza terrestre entera y las zonas superiores del manto, sin las cuales no existiría la actividad volcánica, que resulta necesaria para enriquecer el suelo con nuevas sustancias minerales.

Por tanto, la biosfera es un ecosistema tan grande como el planeta Tierra y en continua modificación por causas naturales y (desgraciadamente) artificiales.

Las modificaciones naturales se producen a escalas temporales muy variables: en tiempos larguísimos determinados por la evolución astronómica y geológica, que influyen decididamente en las características climáticas de los distintos ambientes (por ejemplo, durante las glaciaciones), o en tiempos más breves, relacionados con cambios climáticos desencadenados por sucesos geológicos-atmosféricos imprevistos (por ejemplo, la erupción de un volcán, que expulsa a la atmósfera grandes cantidades de cenizas capaces de modificar el clima de extensas áreas durante periodos considerables).

En cambio, las modificaciones artificiales debidas a la actividad humana tienen efectos rápidos: la deforestación producida en África por las campañas de conquista romanas contribuyó a acelerar la desertificación del Sahara, como tampoco hay duda de que la actividad industrial de los últimos siglos determina modificaciones dramáticas y repentinas en los equilibrios biológicos.

La biosfera es el punto de encuentro entre las diversas “esferas” en las que se subdivide la Tierra: está surcada por un flujo continuo de energía procedente tanto del interior del planeta como del exterior, y se caracteriza por el intercambio continuo de materia, en un ciclo incesante que une todos los entornos.

Pero no por esta razón hay vida por todas partes, pues la vida requiere condiciones particulares e imprescindibles. Existen determinados elementos físicos y químicos que “limitan” el desarrollo de la vida. La presencia y disponibilidad de agua es el primero y el más importante. El agua es el disolvente universal para la química de la vida; es el componente primario de todos los organismos y sin agua la vida es inconcebible (Tales de Mileto fue el primero en darse cuenta de ello). Pero no sólo es eso: al pasar del estado sólido al líquido y al gaseoso y viceversa, el agua mantiene el “efecto invernadero natural”, capaz de conservar la temperatura del planeta dentro de los niveles compatibles con la vida (es decir, poco por debajo de los 0º C y poco por encima de los 40º C).

La presión, que no deberá superar mucho el kilogramo por centímetro cuadrado (como sucede alrededor de los 10 m de profundidad en el mar), así como una amplia disponibilidad de sales minerales y de luz solar (indispensable para la vida en general y de las de las plantas en particular) son también factores que marcan las posibilidades de vida.

M51: La Galaxia del Remolino

http://apod.nasa.gov/apod/image/0007/deepfield_hst_big.jpg

Sí, hemos tenido la suerte de venir a caer en un planeta óptimo para la presencia de la vida y que ésta, haya tenido tiempo de evolucionar para alcanzar la consciencia. Sin embargo, como nuestra Galaxia hay cien mil millones más en la inmensidad del Universo y, no podemos creer que nuestro planeta es único en toda esta grandeza. Estudiamos lo que tenemos más cercano y, de esa manera, también podemos saber sobre lo que está muy lejos perdido en el espacio “infinito”. Conociendo lo que pasa aquí, sabremos lo que ocurre “allí”. Como decía Einstein: “El Universo es igual en todas partes, por muy lejos que éstas se puedan encontrar.”

Publicado por emilio silvera

¡Nuestra curiosidad! ¿Nos pasará lo que le pasó al gato?

Autor por Emilio Silvera    ~    Archivo Clasificado en De lo pequeño a lo grande    ~    Comentarios Comments (3)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Hemos llegado a poder discernir la relación directa que vincula el tamaño, la energía de unión y la edad de las estructuras fundamentales de la Naturaleza. Ahora, hemos llegado a comprender muchas de las cosas que, hasta bien poco tiempo, eran auténticos secretos que, el Universo, celosamente se guardaba, y, esa comprensión, nos llevará más lejos y nos permitirá realizar un largo camino hacia el corazón mismo de la materia, donde según parece, pueden resider infinitesimales objetos más pequeños que los Quarks, en esa distancia inalcanzable ahora que hemos llamado, el Límite de Planck.

Una molécula es mayor y más fácil de desmembrar que un átomo; lo mismo podemos decir de un átomo respecto al núcleo atómico, y de un núcleo con respecto a los quarks que contiene. Sion embargo, nos queda la duda de: ¿qué podrá haber más allá de los Quarks?

¿estructura fundamental?… (¿)

La cosmología sugiere que esta relación resulta del curso de la historia cósmica, que los quarks se unieron primero, en la energía extrema del big bang original, y que a medida que el Universo se expandió, los protones y neutrones compuestos de quarks se unieron para formar núcleos de átomos, los cuales, cargados positivamente, atrajeron a los electrones cargados con electricidad negativa estableciéndose así como átomos completos, que al unirse formaron moléculas.

                                 Molécula H2O

Si es así, cuanto más íntimamente examinemos la Naturaleza, tanto más lejos hacia atrás vamos en el tiempo. Alguna vez he puesto el ejemplo de mirar algo que no es familiar, el dorso de la mano, por ejemplo, e imaginemos que podemos observarlo con cualquier aumento deseado.

Con un aumento relativamente pequeño, podemos ver las células de la piel, cada una con un aspecto tan grande y complejo como una ciudad, y con sus límites delineados por la pared celular. Si elevamos el aumento, veremos dentro de la célula una maraña de ribosomas serpenteando y mitocondrias ondulantes, lisosomas esféricos y centríolos, cuyos alrededores están llenos de complejos órganos dedicados a las funciones respiratorias, sanitarias y de producción de energía que mantienen a la célula.

Ya ahí tenemos pruebas de historia. Aunque esta célula particular solo tiene unos pocos años de antigüedad, su arquitectura se remonta a más de mil millones de años, a la época en que aparecieron en la Tierra las células eucariota o eucarióticas como la que hemos examinado.

Para determinar dónde obtuvo la célula es esquema que le indicó como formarse, pasemos al núcleo y contemplemos los delgados contornos de las macromoléculas de ADN segregadas dentro de sus genes. Cada una contiene una rica información genética acumulada en el curso de unos cuatro mil millones de años de evolución.

Macromolécula

Almacenado en un alfabeto de nucleótidos de cuatro “letras”- hecho de moléculas de azúcar y fosfatos, y llenos de signos de puntuación, reiteraciones para precaver contra el error, y cosas superfluas acumuladas en los callejones sin salida de la historia evolutiva-, su mensaje dice exactamente cómo hacer un ser humano, desde la piel y los huesos hasta las células cerebrales.

célula cerebral

Si elevamos más el aumento veremos que la molécula de ADN está compuesta de muchos átomos, con sus capas electrónicas externas entrelazadas y festoneadas en una milagrosa variedad de formas, desde relojes de arena hasta espirales ascendentes como largos muelles y elipses grandes como escudos y fibras delgadas como puros. Algunos de esos electrones son recién llegados, recientemente arrancados átomos vecinos; otros se incorporaron junto a sus núcleos atómicos hace más de cinco mil millones de años, en la nebulosa de la cual se formó la Tierra.

           Molécula de ADN

Si elevamos el aumento cien mil veces, el núcleo de un átomo de carbono se hinchará hasta llenar el campo de visión. Tales núcleos átomos se formaron dentro de una estrella que estalló mucho antes de que naciera el Sol. Si podemos aumentar aún más, veremos los tríos de quarks que constituyen protones y neutrones.

                                   Átomo de Carbono

Los quarks han estado unidos desde que el Universo sólo tenía unos pocos segundos de edad. Una vez que fueron eliminados los antiquarks, se unieron en tripletes para formar protones y neutrones que, al formar un núcleo cargado positivamente, atrayeron a los electrones que dieron lugar a formar los átomos que más tarde, conformaron la materia que podemos ver en nuestro unioverso.

Al llegar a escalas cada vez menores, también hemos entrado en ámbitos de energías de unión cada vez mayores. Un átomo puede ser desposeído de su electrón aplicando sólo unos miles de electrón-voltios de energía. Sin embargo, para dispersar los nucleones que forman el núcleo atómico se requieren varios millones de electrón-voltios, y para liberar los quarks que constituyen cada nucleón se necesitaría cientos de veces más energía aún.

Los Quarks dentro del núcleo están sometidos a la Interacción fuerte, es decir, la más potente de las cuatro fuerzas fundamentales del Universo, la que mantiene a los Quarks confinados dentro del núcleo atómico por medio de los Gluones.

Introduciendo el eje de la historia, esta relación da testimonio del pasado de las partículas: las estructuras más pequeñas, más fundamentales están ligadas por niveles de energía mayores porque las estructuras mismas fueron forjadas en el calor del big bang.

Esto implica que los aceleradores de partículas, como los telescopios, funcionen como máquinas del tiempo. Un telescopio penetra en el pasado en virtud del tiempo que tarda la luz en desplazarse entre las estrellas; un acelerador recrea, aunque sea fugazmente, las condiciones que prevalecían en el Universo primitivo.

El acelerador de 200 kev diseñado en los años veinte por Cockroft y Walton reproducía algunos de los sucesos que ocurrieron alrededor de un día después del comienzo del big bang.

foto

Aquel acelerador nada tenía que ver con el LHC de ahora, casi un siglo los separa

Los aceleradores construidos en los años cuarenta y cincuenta llegaron hasta la marca de un segundo. El Tevatrón del Fermilab llevó el límite a menos de una milmillonésima de segundo después del comienzo del Tiempo. El nuevo supercolisionador superconductor proporcionara un atisbo del medio cósmico cuando el Universo tenía menos de una billonésima de segundo de edad.

El Tevatrón del Fermilab ya estaba en el camino de la modernidad en los avances de la Física

Esta es una edad bastante temprana: una diez billonésima de segundo es menos que un pestañeo con los párpados en toda la historia humana registrada. A pesar de ello, extrañamente, la investigación de la evolución del Universo recién nacido indica que ocurrieron muchas cosas aún antes, durante la primera ínfima fracción de un segundo.

Todos los teóricos han tratado de elaborar una explicación coherente de los primeros momentos de la historia cósmica. Por supuesto, sus ideas fueron esquemáticas e incompletas, muchas de sus conjeturas, sin duda, se juzgaran deformadas o sencillamente erróneas, pero constituyeron una crónica mucho más aclaradora del Universo primitivo que la que teníamos antes.

                                    Recreación del Universo primitivo

 Bueno amigos, el trabajo era algo más extenso y entrábamos a explicar otros aspectos y parámetros implicados en todo este complejo laberinto que abarca desde lo muy grande hasta la muy pequeño, esos dos mundos que, no por ser tan dispares, resultan ser antagónicos, porque el uno sin el otro no podría exisitir. Otro día (quedan muchos por delante en este año que comienza), seguiremos abundando en el tema apasionante  que aquí tratamos.

emilio silvera

¿Será verdad todo lo que nos cuentan que es… el Universo?

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Como nos dice la filosofía, nada es como se ve a primera vista, todo depende del punto de vista desde el que miremos las cosas, de la perspectiva que nos permita nuestra posición física y, la intelectual también. No todos podemos ver las cosas de la misma manera. La imagen de abajo que es una Nebulosa como otras tantas, ¿qué te dice a tí? ¿qués es lo que ahí puedes ver? ¿qué deduces de los componentes de la nebulosa? ¿qué puede surgir de ahí y de otros lugares como este de abajo? ¿Cómo llegó a formarse tal conglomerado de gas y polvo?

La estabilidad del espacio-tiempo, de la materia y de la energía tal como los conocemos sería imposible y, a la postre, tampoco sería posible la belleza que esta estabilidad posibilita así como la propia inteligencia y armonía que, en cierta forma, subyace en todo el Universo.

“Lo primero que hay que comprender sobre los universos paralelos… es que no son paralelos. Es importante comprender que ni siquiera son, estrictamente hablando, universos, pero es más fácil si uno lo intenta y lo comprende un poco más tarde, después de haber comprendido que todo lo que he comprendido hasta ese momento no es verdadero.”

Douglas Adams

¿Qué vamos a hacer con esta idea antrópica fuerte? ¿Puede ser algo más que una nueva presentación del aserto de que nuestra forma de vida compleja es muy sensible a cambios pequeños en los valores de las constantes de la naturaleza? ¿Y cuáles son estos “cambios”? ¿Cuáles son estos “otros mundos” en donde las constantes son diferentes y la vida no puede existir?

Leer más

¡Qué tiempos! ¡Que personaje! Vesalio

Autor por Emilio Silvera    ~    Archivo Clasificado en Rumores del Saber    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

De los Animales al Hombre

Andreas Vesalio (1514-1564), sin ser un genio universal, no dejo que nada le hiciera olvidar su principal interés. Nació junto a las murallas de la ciudad de Bruselas, desde donde se divisaba el monte en el que los criminales condenados eran torturados y ejecutados. De niño seguramente vio con frecuencia los cuerpos, que permanecían colgados hasta que las aves de presa dejaban los huesos limpios. Su padre era boticario del emperador Carlos V y la familia era bien conocida entre la profesión médica. A diferencia de Paracelso, Vesalio recibió la mejor educación médica que se podía obtener en su época. Se matriculó en la universidad de Lovaina en 1530, luego fue a la universidad de París, donde estudió con el profesor Silvio, renombrado defensor de Galeno. Cuando estalló la guerra entre Francia y el Sacro Imperio Romano, Vesalio, un extranjero enemigo, fue expulsado de París y hubo de regresar a Lovaina. Allí se licenció en medicina en el año 1537; luego se marchó a Papua, donde estaba la escuela de medicina de más prestigio en Europa. En Papua se sometió a dos días de exámenes y recibió el título de doctor en medicina magna cum laude. Debía de ser muy versado en el saber convencional, pues, a los veintitrés años, dos días después de pasar el examen, trabajaba ya en la cátedra de cirugía de aquella universidad.

                          Vesalio en el examen de Padua

Cuando Vesalio tomó posesión de su cargo de profesión, dio un significado nuevo a la cirugía y la anatomía. Ya no consideraba que su principal deber era interpretar los textos de Galeno. Al dirigir la “anatomía“ (que  en griego significa “cortar“ ) de rigor, él se apartaba de la tradición. A diferencia de los profesores que le habían precedido, Vesalio no permanecía sentado en su alta cátedra profesional mientras el barbero-cirujano extraía los órganos del cadáver con manos ensangrentadas. El propio Vesalio manipulaba el cuerpo y disecaba los órganos. Para ayudar a sus discípulos, preparó elementos didácticos auxiliares en la forma de cuatro gráficos anatómicos, lo suficientemente detallados como para mostrar a los alumnos el cuerpo humano cuando no se disponía de un cadáver. Cada parte estaba señalada con su nombre técnico. Un glosario anexo contenía una lista alfabética de todos los nombres de las partes del cuerpo en griego, latín, árabe y hebreo.

La utilización de gráficos fue una gran novedad. Durante la Edad Media apenas habían existido en Europa dibujos que sirvieran para los fines de la anatomía. En el siglo XVI, cuando se redescubrieron los textos de Galeno y fueron escrupulosamente editados, traducidos de nuevo e impresos, todavía no iban acompañados de ilustraciones. Algunos de los principales profesores de anatomía, entre los cuales estaba el respetado maestro de Vesalio, Silvio, se declararon en contra del uso de figuras y diagramas. ¡Los alumnos sólo debían leer el texto auténtico!

Las seis tablas anatómicas de Vesalio (Tabulae Anatomicae Sex, Venecia, 1538) constituyeron el primer esfuerzo por otorgar un contenido visual total a las enseñanzas de Galeno. Si en aquel tiempo no hubiera existido la imprenta, quizá Vesalio no hubiera sentido la tentación de publicar los gráficos que había preparado para sus discípulos. Pero cuando le plagiaron un gráfico y pensó que los demás podían correr la misma suerte, los publicó todos. Tres de ellos eran dibujos de esqueletos realizados por el discípulo holandés de Ticiano, Juan Esteban de Calcar, “desde los tres aspectos normales“ conocidos por todos los estudiantes de arte de la Edad Media. Las otras tres “tablas“ eran totalmente distintas en concepto: eran dibujos del propio Vesalio de las venas, las arterias y el sistema nervioso. Su novedad no residía tanto en aquello que  representaban como en la forma en que lo hacían. Con estas “tablas “ anatómicas, Vesalio introdujo el método gráfico en anatomía. En la actualidad resulta sorprendente que hubiera que inventar algo tan evidente, pero si reflexionamos sobre ello no es tan sorprendente. Durante siglos, aunque los estudios de medicina de las mejores escuelas de Europa incluían algo de  anatomía, las oportunidades de ver el interior de un cuerpo humano habían sido pocas y espaciadas.

No sólo los dogmas  “humorales“, que eran el blanco especial de Paracelso, sino también la harto practicada astrología médica, pasaban por alto los detalles anatómicos. Los populares diagramas del “ hombre zodiacal “ simplemente mostraban la relación de cada parte del cuerpo con el correspondiente signo del zodíaco para indicar las temporadas mejores y las peores para determinadas curas. El término inglés influenza es una reliquia de esta relación. Cuando Vesalio estudió medicina, los doctores eruditos todavía usaban la palabra (tomada del italiano, que significa “influencia “ ) para describir los efectos médicos de una “influencia “ astral desafortunada. Al principio se refería a la declaración de una enfermedad epidémica y fue sinónimo de epidemia hasta que en el siglo XVIII comenzó a dársele el uso actual, es decir, para denominar un catarro o gripe y, en general, una afección respiratoria.

Después de las seis tablas anatómicas, a Vesalio todavía le quedaba mucho camino por recorrer, ya que en sus tablas, siguiendo a Galeno, una y otra vez saltaban en silencio de la anatomía animal a la humana. Por ejemplo, mostraban una rete mirabile, una “red maravillosa “, en la base del cerebro humano en la cual, según Galeno, el “espíritu vital “ del hombre se transformaba en “ espíritu animal “. Pero esta red, que se da en los animales ungulados. Sus dibujos de la forma del corazón, las ramificaciones del cayado de la aorta, la situación de los riñones y la forma del hígado, correspondían, como en el texto de Galeno, no a un hombre sino a un mono.

Sólo en raras ocasiones se examinaba el interior de un cuerpo Humano. Por ejemplo, el Emperador Federico II (1194-1250), famoso en toda Europa por sus variados talentos, quiso satisfacer su curiosidad respecto al proceso de la digestión humana. Un cronista informó que “dio una excelente comida a dos hombres, tras lo cual ordenó a uno que se echara a dormir y al otro que se fuera a  cazar. La noche siguiente ordenó que se vaciaran sus estómagos en su presencia para ver cual había diferido mejor la comida, los cirujanos decidieron que el que se había ido a dormir era el que había hecho una mejor digestión. En 1.238, el emperador ordenó a la escuela de Medicina de Salerno que realizara una disección pública cada cinco años.

Durante las cruzadas se presentó una macabra oportunidad para estudiar el esqueleto humano: los cuerpos de los que morían eran descuartizados y hervidos para que sus huesos fueran enviados a su país de origen y ser enterrados debidamente. Esta costumbre estaba tan extendida que el Papa Bonifacio VIII prohibió su práctica en 1299 mediante una bula. Aunque muchos clérigos se oponían a la disección del cuerpo humano, parece que el papa nunca manifestó tal oposición.

Las disecciones, sin embargo, todavía parecían contrarias a la naturaleza y a la voluntad de Dios. También se llamaba “anatomizar” el provocar un parto mediante cesárea. En ocasiones, los Tribunales de Justicia ordenaban una autopsia para determinar si las heridas del fallecido habían sido la causa real de su muerte.

Cuando estaba en juego la salud de la comunidad, se toleraban e incluso se exigían las autopsias. Después de la peste negra de 1348, del Departamento de Salud Pública de Papua determinó que cuando una persona muriera por causas desconocidas, el cuerpo no podía ser enterrado sin el certificado de un médico que hubiera examinado el cadáver y hubiera determinado que no había indicios de la peste. Para descubrir los ganglios linfáticos inflamados, que constituían los síntomas de la enfermedad, era preciso practicar la disección del cuerpo, y los estudiantes de medicina de Papua aprendían de estos casos.

En ocasiones, las autopsias practicadas a personalidades cuya muerte hubiera despertado una inquietud generalizada añadían nuevos datos a la ciencia médica

Dado que los cuerpos de criminales ejecutados constituían la principal fuente de las autopsias, los cadáveres femeninos eran particularmente escasos, lo cual añadía otro obstáculo más al estudio de los procesos de la procreación y la gestación.

Muy lentamente la anatomía dejó de significar  la abertura ocasional de un cuerpo para responder a alguna pregunta concreta y se fue convirtiendo en el estudio sistemático del cuerpo. Un compendio de anatomía elaborado por Mondito de Luzzi de Bolonia, 1316, que incorporaba algunas indicaciones de las autoridades árabes a Galeno, dominó la enseñanza de la anatomía galénica durante doscientos años. El orden de exposición de Mondito todavía era consecuencia de las urgencias de la época y describía primero los órganos de la cavidad abdominal, que eran los más perecederos y por tanto se dedicaban en primer lugar, continuando luego con los huesos, la espina dorsal y las extremidades. Mondito repitió los errores de siempre, ocasionados por la copia de la anatomía animal, y no añadió ningún elemento visual nuevo.

Como hemos visto, numerosos obstáculos prácticos se oponían al escrutinio sistemático del interior del cuerpo humano. La inexistencia de refrigeración hacía necesario que las anatomías se realizaran a toda prisa por motivos obvios. Incluso en las mejores Universidades sólo se llevaban a cabo estas operaciones una o dos veces al año, y, durante cuatro días y sus mal iluminadas noches que duraban estas raras operaciones, la muchedumbre de estudiantes de medicina, con los ojos hinchados, apenas tenían tiempo de hacer preguntas, de reflexionar o de mirar dos veces. Vesalio lo explicó de esa manera y repudiaba el sistema mediante el cual uno diseccionaba el cuerpo mientras otro explicaba.

La contribución de Vesalio al conocimiento del cuerpo humano no tiene precio

Durante siglos, los únicos cuerpos que eran diseccionados eran los pertenecientes a criminales, los cuales, en raras ocasiones estaban intactos. En Inglaterra con la horca, en  Venecia y otros lugares era corriente la decapitación.

Los profesores ingeniosos aprovechaban cualquier oportunidad para hacerse con pedazos y partes de cuerpos humanos, con las consecuencias más desagradables imaginables. El eminente maestro de Vesalio, Jacobo Silvio, según cuenta uno de sus alumnos, tenía métodos propios.

“Le he visto llevarse en la manga, ya que ha vivido toda la vida sin criado, ora el muslo, ora el brazo de alguien que hubiera muerto ahorcado para disecarlo y anatomizarlo. Olían tan mal que algunos de sus oyentes hubieran vomitado si se hubieran atrevido; pero el pendenciero individuo de la cabeza picarda se hubiera irritado tan violentamente que hubiera amenazado con no regresar en una semana, y por eso todos guardaban silencio.”

 

 

 

 

Vesalio aprovechaba la oportunidad que se le presentaba, legal o ilegal, para recoger especimenes. Así lo relata el mismo en una de sus cartas en 1.536 que, no reproduzco aquí para no hacerlo más pesado, toda vez que el motivo del presente comentario está centrado, principalmente, en que todos los lectores se hagan una idea fidedigna de lo que pasaron los estudiosos de la ciencia del cuerpo humano por aquellos tiempos.

Vesalio había observado tantos ejemplos, mientras enseñaba a partir del texto de Galeno, de descripciones hechas por éste que no pertenecían al cuerpo humano, que muy pronto se dio cuenta de que la anatomía supuestamente “humana” de Galeno no era más que un compendio de afirmaciones sobre los animales en general.

“Consideré cuidadosamente –señaló Vesalio como una revelación, en 1539- la posibilidad de que la disección anatómica se utilizara para comprobar la especulación”. Entonces decidió elaborar un nuevo manual de anatomía basado por completo en sus propias observaciones del cuerpo humano. Para la anatomía Pública que realizó en Bolonia en 1540, Vesalio había armado dos esqueletos, uno de un mono y otro de un hombre, a fin de demostrar que el apéndice que según Galeno se extendía desde las vértebras hasta la cadera sólo aparecía en el mono.

Consideró esa discrepancia tan significativa que la ilustró de un modo especial en su Fábrica. En sus demostraciones anatómicas Vesalio insistía en que sus estudiantes vieran, tocaran y decidieran por sí mismos. A los alumnos que preguntaban si las arterias seguían realmente el movimiento del corazón, Vesalio respondía: “No quiero dar mi opinión, toquen ustedes con sus propias manos y confíen en ellas.

Los estudios de anatomía de Vesalio culminaron con el libro que le valió la fama a medida que se difundía por Europa. La Estructura del Cuerpo Humano (De humanis corporis fabrica), llamado comúnmente la Fabrica, un volumen de tamaño folio de 663 páginas muy bien impreso que, apareció en el año 1.543, el mismo año de Revolutionibus de Copérnico. Destinado a ser en anatomía lo que la obra de Copérnico fue para la Astronomía, hubiera justificado el trabajo de toda una vida, pero su autor lo terminó en algún momento entre su vigésimo sexto y su vigésimo octavo cumpleaños.

Hasta aquí, un resumen de la pequeña historia que he recogido de Vesalio, un personaje que, como todos comprenderéis, no ha sido valorado en la justa medida de lo que hizo, y, la Ciencia en general y la anatomía en particular, está en deuda con él y, desde aquí, le rendimos este humilde homenaje a un trabajo difícil, bien hecho y en condiciones deplorables.

emilio silvera

El vacío superconductor – La máquina de Higgs-Kibble

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

                  ¿Los campos de Higgs? Hablemos un poco del tema Higgs.

Por su parte, el científico británico Peter Higgs, de 80 años, que dio su nombre a la llamada “partícula divina” (de Lederman), afirmó creer que su Bosón sería hallado gracias al Gran Colisionador. “Creo que es bastante probable” dijo pocas horas después de que entrara en funcionamiento el gigantesco acelerador. Y, según parece (al menos eso afirman algunos),  se está saliendo con la suya.

De todas las maneras,  estaría bien saber, a ciencia cierta, cómo es el campo de Higgs del que toman la masa todas las partículas, y conocer, mediante que sistema se transfieren la masa, o, si cuando las partículas entran en el campo de Higgs e interaccionan con él, es el efecto frenado el que les otorga la masa.

Claro que, esa, como otras conjeturas sobre los Océanos de Higgs y su dichosa Partícula “repartidora de masa”, no son más que conjeturas que, más adelante, debemos ir comprobando para poder escribirlas con letras de oro en el Libro de la Física, o, por el contrario, desecharlas como se ha hecho con tántas otras ideas y teorías frustradas que nunca llegaron a ninguna parte.

¡Los fotones de Yang-Mills adquieren su masa y el proncipio gauge se sigue cimpliendo! Al principio esta visión no mereció la atención que merecía. Por una parte, la gente penso que el modelo era feo. El principio gauge estaba ahí, pero ya no era el tema central. El “Campo de Higgs había sido puesto ahí “a propósito” y la “partícula de Higgs, en sí misma, no era una “partícula gauge”. Si se admitía esto, ¿por qué no introducir más partículas y campos arbitrarios? Estas ideas se consideraron como simples modelos con los que jugart, sin mucho significado fundamental al que ahora se quiere llegar con el LHC pretendiendo hacer bueno todo aquello y, al menos los físicos, insisten en que, el campo y la partícula están ahí…¡ya veremos en qué queda todo esto! Son muchos los cabos sueltos y las cosas sin explicar.

En segundo lugar estaba lo que se llamó “teorema de Goldstone”. Ya se habían priducido antes modelos de partículas con “rotura espontánea de simetría”, pero para la mayoría de esos modelos, Jeoffrey Goldstone habia probado que siempre contenían partículas sin masa y sin espín. Muchos investigadores, por lo tanto, pensaron que la teoría de Higgs también debía contener esa partícula de Goldstone, sin masa y que esto era un inconveniente porque entre las partículas conocidas no había ninguna partícula de Goldstone. Incluso el propio Goldstone había advertido que el Modelo de Higgs no satisfaccía las condiciones para su demostración, así que no tenía que ser válido para este caso, pero todo el mundo estaba tan impresionado con las matemáticas del teorema que el Modelo de Huggs-Kibble no tuvo éxito durante mucho tiempo.

El bosón de Higgs pretende ser una parte integral de nuestra comprensión de la Naturaleza. Se trata de una partícula que es una excitación de lo que se llama el campo de Higgs. El campo de Higgs impregna todo el espacio y cuando algunas de las partículas fundamentales que viajan a través de este campo adquieren masa (al interaccionar con el Campo dónde, probablemente, ve frenada su marcha y su desplazamiento es más lento debido al medio por el que discurre su viaje). La cantidad de masa que adquieren depende de la fuerza en que interactúan con el campo de Higgs. Algunas particulas, como el electrón adquieren una pequeña masa, mientras que otras adquieren una masa mucho mayor.

Y así, el teorema de Goldstone se utilizó como un “teorema de imposibilidad”: si el espacio vacío no es simétrico, entonces no se puede evitar la presencia de partículas sin masa y sin espín. Ahora sabemos que, en nuestro caso, la letra pequeña invalida el teorema; las partículas de Goldstone se hacen incisibles debido a la invariancia gauge y no son más que las “partículas fantasmas” que encontró Feynman en sus cáculos. Además, debemos recordar que el Mecanismo Higgs no es una auténtica rotura de simetría.

AccComplex0700829

        Ingenios que quieren entrar en los campos de Higgs

Un aspecto peculiar de esto es que este campo de Higgs que impregna en todo el espacio es parte de lo que llamamos espacio vacío o el vacío. Es sólo su impacto sobre las partículas que viajan a través de él y el bosón de Higgs que podemos observar en el laboratorio. El bosón de Higgs vive por un lapso muy corto de tiempo, así que no lo observan directamente, sino que más bien se observa que las partículas se descompone en y tienen que inferir su existencia a partir de eso. En la teoría actual que tenemos para comprender la naturaleza podemos hacer afirmaciones precisas acerca de qué fracción del tiempo que se desintegra en dos fotones en comparación con dos quarks abajo.

Claro que, algunos, me piden más profundidad en las explicaciones y, no se conforman con pasar por encima de las cuestiones, hay que entrar más en materia y dejar sentados algunos de los parámetros maemáticos que en todo esto están presente, y, para ellos…

Los físicos han buscado al bosón de Higgs por cerca de 50 años porque su descubrimiento completaría el Modelo Estándar de la física de partículas. El bosón de Higgs y su campo asociado explican cómo la simetría electrodébil se rompió justo después del Big Bang, lo que le dio a ciertas partículas elementales la propiedad de la masa. Sin embargo del Modelo Estándar no predice la masa de Higgs, y varios programas experimentales en el LEP del CERN, en el Tevatron de Fermilab y ahora el LHC del CERN habían intentado medir la masa de la partícula.

 

 

 

En el seminario llevado a cabo hoy en CERN como preludio a la mayor conferencia de física de partículas de este año, el ICHEP2012 en Melbourne, los experimentos ATLAS y CMS presentaron sus resultados preliminares en la búsqueda del Bosón de Higgs. Ambos experimentos observaron una nueva partícula en la región de masa entre 125-126 GeV.

“Observamos en nuestros datos claras señales de una nueva partícula, al nivel de 5 sigma, en la región de masa alrededor de 126 GeV. El impresionante rendimiento del LHC y ATLAS y el gran esfuerzo de mucha gente nos trajo a esta excitante etapa”, dijo la presentadora del experimento ATLAS Fabiola Gianotti, “pero se necesita más tiempo para preparar estos resultados para su publicación”

“Los resultados son preliminares pero la señal 5 sigma alrededor de 125 Gev que estamos viendo es dramática. Ésta es de hecho una nueva partícula. Sabemos que tiene que ser un bosón y es el bosón más pesado que hemos encontrado hasta ahora,” dijo el presentador del experimento CMS Joe Incandela. “Las implicaciones son muy significantes y es precisamente por esta razón que debemos ser extremadamente diligentes en todos nuestros estudios.”

                                            ¿Donde aparece el Higgs en todo esto?

Pues pasemos a hablar de teoría cuántica de campos, en ese tendremos unas densidades lagrangianas que dependerán del campo de cada partícula, dependiendo de su spin será un lagrangiano o otro, por ejemplo para N (a = 1,….N) campos escalares \int \mathrm{d}^3 x\left(-\frac{1}{2}\partial_\mu \psi_a * \partial^\mu \psi_a - V(\psi_a, \psi_a * )\right). Al buscar el mínimo del potencial (en realidad un extremal de la acción, pero para lo que nos interesa a nosotros serán mínimos) resulta que hay varios posibles (con el mismo valor) pero para que la energía se minimice hace falta fijar un vacío (debido a que el Hamiltoniano depende del potencial y de unos términos positivos que van con las derivadas del campo). Ahora bien, inicialmente nuestra acción podría tener una simetría gauge global, es decir que al efectuar una transformación de un grupo G=SU(n) sobre los campos la acción no cambia, al fijar el vacío la simetría se reduce a un subgrupo H y algunos campos obtienen masa (originalmente ninguno tiene masa), pues bien el teorema de Goldstone lo que dice es que dim(G) -dim(H) campos se quedan sin masa, estos son los bosones de Goldstone.

                                                                    ¿Y el higgs? ¬¬

Ya llegamos, en el apartado anterior hemos considerado transformaciones globales, pero por ejemplo en electromagnetismo tenemos transformaciones U(1) locales, así que hay que mirar lo que pasa en las transformaciones locales. Lo primero que pasa es que la derivada parcial no preserva los vectores (lo que hemos llamado antes  \psi_a) igual que pasa en relatividad general, al hacer una transformación que depende de las coordenadas la derivada ya no es covariante, así que hay que buscar una covariante para seguir con lo que sabemos (en este caso la transformación se debe a un grupo gauge arbitrario, que no tiene porque ser el de difeomorfismos como en relatividad general. En este contexto aparecen los campos gauge que jugaran un papel similar al de la conexión en relatividad general y en el caso del electromagnetismo el campo gauge es el potencial electromagnético). Ahora al ser transformaciones locales, aparecen campos gauge que por similitud con el electromagnetismo escribiremos el lagrangiano de Yang-Mills \int \mathrm{d}^3 x -\frac{1}{4} F^{\mu\nu a}F_{\mu\nu}^a igual que en el electromagnetismo F depende de los campos gauge, pero debido a que  SU(n) no es abeliano hay un termino extra que tiene que ver con las constantes de estructura del álgebra de Lie, F_{\mu \nu}^a = \partial_\mu A_\mu - \partial_\nu A_\mu +g f^{ajk} A_\mu^j A_\mu^k. Ahora ya vien lo bueno, aparte del lagrangiano de la partícula también tenemos el de Yang-Mills, resulta que debido a la simetría local:

  1. Los bosones de Goldstone desaparecen, es decir no son partículas físicas.
  2. dim(G)-dim(H) campos gauge obtienen masa

Pues eso es el efecto Higgs. Ahora para llegar ya al famoso bosón, en el modelo estandar no se pueden construir terminos de masa para las partículas debido a que no se pueden acoplar adecuadamente para ese propósito los campos de Yang-Mills y las partículas, debido a las simetrías que deben satisfacer (en general el famoso SU(3)\times SU(2) \times U(1) aunque cada campo tendrá una simetría concreta) y ahí es donde entra el bosón de Higgs, ya que el modelo más sencillo para añadir masa es justamente ese, añadir un doblete de campos escalares complejos y al romper la simetría …….. Higgs !!!!

Dos prestigiosos investigadores habían sugerido de forma independiente que se podían construir modelos realistas dde partículas en los cuales, el sistema de Yang-Mills fuera responsable de la interacción débil y el mecanismo de Higgs-Kibble la causa de su corto alcance. Uno de ellos era el paquistaní Abdus Salam que estaba buscando modelos estéticos de partículas y pensó que la belleza de la idea de Yan-Mills era razón suficiente para intentar construir con ella un modelo de interacción débil. La partícula mediadora de la interacción débil tenía que ser un fotón de Yang-Mills y el mecanismo de Higgs-Kibble la única explicación aceptable para que esta partícula tuviera una cierta cantidad de masa en reposo.

Una simetría puede ser perfecta en el plano de las ecuaciones y resultar rota en el plano de las soluciones. Como decía Weinberg: «Aunque una teoría postule un alto grado de simetría, no es necesario que los estados de las partículas muestren la simetría. Nada me parece tan halagüeño en física como la idea de que una teoría puede tener un alto grado de simetría que se nos oculta en la vida ordinaria».

La teoría que unifica las interacciones electromagnéticas y débil se debe a Glashow, Salam y Weinberg que obtuvieron por ella el Premio Nobel de física de 1979. La dificultad esencial de esta teoría es que los bosones del estado inicial simétrico debían ser de masa nula (masa nula de los bosones de interacción origina una fuerza a gran distancia), mientras que se necesitan bosones intermedios (partículas que originan la fuerza) muy masivos para justificar la interacción débil (corto alcance) . El mecanismo de Higgs, permite resolver esa dificultad, mediante la ruptura espontánea de simetría hace masivos los bosones W y Z (interacción débil) y mantiene nula la masa del fotón (interacción electromagnética).

 

Los famosos diagramas de Feynaman, nos explican algunos mecanismos de los que se pueden producir (de hecho se producen) en ese misterioso campo de las partículas elementales cuando están presentes en cuertos lugares y se juntas con otros individuos de la especie.

Salam que estaba muy cerca de poder alcanzar la gloria…no llegaba a poder explicar y aplicar las reglas de Feynman y tuvo quer admitir que la teoría parecía estar llena de partículas fantasmas que estaban a punto de estropearlo todo. En estas, llegó el otro investigador, Steven Weinberg, que supo dar un paso más al formular con mucho más detalle un modelo sencillo en el cual indicaba con precisión los campos que existían y cómo podían interactuar. Pero se limitó a los leptones. Weinberg comprendió que, junto al fotón ordinario tenía que haber tres fotones de Yang-Mills pesados::

– Uno cargado positivamente.

– Otro cargado negativamente.

– Otro Neutro.

    La carga de la  W+ se nos puerde a la derecha de la imagen pero, como rodos habeis supuesto, es carga + 1

En lo que se refiere a los fotones cargados, todo el mundo estaba de acuerdo en que estos se necesitarían para describir la interacción débil: serían los famoso bosones vectoriales intermediarios, W+ y W. De acuierdo con Weinberg, sus masas tenían que ser mayores de 60.000 MeV. Pero solos, estos bosones, vectoriales cargados eran suficientes para explicar todos los procesos de interacción débil que conocían en aquella época.  Que aparte de ellos y del fotón ordinario, y, también se necesita otro componente neutro (Weinberg le llamó Zº) no era evidente en absoluto. Se encontró que la masa del Zº tenía que ser un poco mayor que la de los bosones cargados.

De todo aquello surgió una tería para las interacciones débiles en las cuales jugaban un papel dominante distintos diagramas de Feynman, de los que se podían plasmar un número infinito para mostrar, de manera gráfica, los sucesos que acontecían en aquellos fenómenos de la radiación producida en la interacción débil. Pasado el tiempo y mirado con una mejor perspectiva, es fácil comprender todo aquello pero, en aquellos momentos en que se estaba gestando, las cosas no resultaban tan fáciles.

Monografias.com

Después de todo aquello, se prestó más atención al mecanismo Higgs-Kibble y, algunos, como Veltman fueron muy escépticos con aquellas ideas, y, desde luego, no fue fácil converlo de que pudiéramos llamar vacío a algo lleno de partículas invisibles. ¿No delatarían dijo, su presencia por sus campos gravitatorios? La teoría puede ser formulada de tal manera que esos campos gravitatorios se compensen exactamente con otras partículas invibles o por una contribución misteriosa del propio espacio vacío.

Cómo consigue la Naturaleza enmascarar tan exacta y eficientemente esos factores de la gravedad que no podemos notar nada, es un misterio que continua siendo muy debatido hoy en día. Claro que, todo esto dejará de ser un misterio cuando un día (lejos aún en el futuro), podamos comprender la Gravedad Cuántica.

Miehntras todo esto sucede… ¡Dejémos volar nuestra imaginación! con ideas y teorías como la de los ¡Campos de Higgs! ¡Bosones que, generosos ellos, regalan masas a otras partículas! ¡Materia que no podemos ver pero que, dem manera acérrima, nos empeñamos en que sí está! ¡Fluctiaciones de vacío que rasgan el espacio-tiempo, y, que de vez en cuando, hace surgir nuevos universos! ¡Universos paralelos que nacieron sin vida! ¡Ciclos eternos en el que las cosas se repetin una y otra vez hasta el infinito! ¡Nuevos Big Bangs después del nuestro! ¡Agujeros negros en nuestro universo y, blancos al otro lado, en otro universo. Aquí recoge materia y, allú, la expulsa por el contrario, un Agujero Blanco! ¡Agujeros de Gusano que nos podrían llevar a otras galaxias! ¡El sueño de vencer (mejor burlar) a la velocidad de la luz, ese muro que nos tiene confinados en nuestro pequeño mundo, el Sistema Solar!

Después de leer todo esto, ¿por qué no dedicais aunque sólo sea una hora para pensar sobre ello?

emilio silvera