miércoles, 18 de octubre del 2017 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¡Qué bonito es saber! A mi me gustaría

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Treinta de los 42 discos protoplanetarios descubiertos en la Nebulosa de Orión.

  

                     Nebulosa de Orión, M42 que está creando nuevos sistemas planetarios

“Al principio todo era opacidad, las estrellas no llegaron al universo hasta después de pasados 200 millones de años desde el Big Bang, y, hasta que no se liberaron los fotones, no se hizo la luz.”

 

Al principio, cuando el universo era simétrico, sólo existía una sola fuerza que unificaba a todas las que ahora conocemos, la gravedad, las fuerzas electromagnéticas y las nucleares débil y fuerte, todas emergían de aquel plasma opaco de alta energía que lo inundaba todo. Más tarde, cuando el universo comenzó a enfriarse, se hizo transparente y apareció la luz, las fuerzas se separaron en las cuatro conocidas, emergieron los primeros quarks para unirse y formar protones y neutrones, los primeros núcleos aparecieron para atraer a los electrones que formaron aquellos primeros átomos.  Doscientos millones de años más tarde, se formaron las primeras estrellas y y las  galaxias. Con el paso del tiempo, las estrellas sintetizaron los elementos pesados de nuestros cuerpos, fabricados en supernovas que estallaron, incluso antes de que se formase el Sol. Podemos decir, sin temor a equivocarnos, que una supernova anónima explotó hace miles de millones de años y sembró la nube de gas que dio lugar a nuestro sistema solar, poniendo allí los materiales complejos y necesarios para que algunos miles de millones de años más tarde, tras la evolución, apareciéramos nosotros.

Las estrellas evolucionan desde que en su núcleo se comienza a fusionar hidrógeno en helio, de los elementos más ligeros a los más pesados.  Avanza creando en el horno termonuclear, cada vez, metales y elementos más pesados. Cuando llega al hierro y explosiona en la forma explosiva de  una supernova. Luego, cuando este material estelar es otra vez recogido en una nueva estrella rica en hidrógeno, al ser de segunda generación (como nuestro Sol), comienza de nuevo el proceso de fusión llevando consigo materiales complejos de aquella supernova.

Archivo:Ngc604 hst.jpg

Una región H II es una nube de gas y plasma brillante que puede alcanzar un tamaño de varios cientos de años-luz y en la cual se forman estrellas masivas. Dichas estrellas emiten copiosas cantidades de ultravioleta extremo (con longitudes de onda inferiores a 912 Ångströms) que ionizan la nebulosa a su alrededor.

Puesto que el peso promedio de los protones en los productos de fisión, como el cesio y el kriptón, es menor que el peso promedio de los protones de uranio, el exceso de masa se ha transformado en energía mediante  E = mc2. Esta es la fuente de energía que subyace en las explosiones  atómica.

Así pues, la curva de energía de enlace no sólo explica el nacimiento y muerte de las estrellas y la creación de elementos complejos que también hicieron posible que nosotros estemos ahora aquí y, muy posiblemente, será también el factor determinante para que, lejos de aquí, en otros sistemas solares a muchos años luz de distancia, puedan florecer otras especies inteligentes que, al igual que la especie humana, se pregunten por su origen y estudien los fenómenos de las fuerzas fundamentales del universo, los componentes de la materia y, como nosotros, se interesen por el destino que nos espera en el futuro.

Cuando alguien oye por vez primera la historia de la vida de las estrellas, generalmente, no dice nada, pero su rostro refleja escepticismo. ¿Cómo puede vivir una estrella 10.000 millones de años? Después de todo, nadie ha vivido tanto tiempo como para ser testigo de su evolución.

Sin embargo, tenemos los medios técnicos y científicos para saber la edad que tiene, por ejemplo, el Sol.

Sí, hemos podido llegar a conocer lo que ocurre en el Sol, y sabemos de sus procesos y de qué está compuesto. También sabemos el motivo por el que no se deja contraer bajo el peso de la fuerza de Gravedad que genera su propio peso y en qué se convertirá cuando llegue el final de su vida.

Nuestro Sol, la estrella alrededor de la que giran todos los planetas de nuestro Sistema Solar (hay que eliminar a Plutón de la lista, ya que en el último Congreso Internacional han decidido, después de más de 20 años, que no tiene categoría para ser un planeta), la estrella más cercana a la Tierra (150 millones de Km = UA), con un diámetro de 1.392.530 Km, tiene una edad de 4.500 millones de años.

Es tal su densidad, es tal su enormidad que, como se explicó en otro pasaje anterior de este mismo trabajo, cada segundo transforma por medio de fusión nuclear, 4.654.000 toneladas de hidrógeno en 4.650.000 toneladas de helio; las 4.000 toneladas restantes son lanzadas al espacio exterior en forma de luz y calor, de la que una parte nos llega a la Tierra y hace posible la vida. Se calcula que al Sol le queda material de fusión para otros 4.500 millones de años. Cuando transcurra dicho periodo de tiempo, se convertirá en una gigante roja, explotará como nova y se transformará finalmente en una estrella enana blanca. Para entonces, ya no podremos estar aquí.

Cuando mentalmente me sumerjo en las profundidades inmensas del universo que nos acoge, al ser consciente de su enormidad, veo con claridad meridiana lo insignificante que somos, en realidad, en relación al universo, Como una colonia de bacterias que habitan en una manzana, allí tienen su mundo, lo más importante para ellas, y no se paran a pensar que puede llegar un niño que, de un simple puntapié, las envíe al infierno.

vista de la tierra y el sol de la órbita (la imagen de la tierra tomada de http://visibleearth.nasa.gov) Foto de archivo - 4911867

                          Vista de la Tierra y el Sol

Igualmente, nosotros nos creemos importantes dentro de nuestro cerrado y limitado mundo en el que, de momento, estamos confinados. Podemos decir que hemos dado los primeros pasos para dar el salto hacia otros mundos, pero aún nos queda un largo recorrido por delante pero… ¡Todo se andará!

Tendremos que dominar la energía del Sol, ser capaces de fabricar naves espaciales que sean impenetrables a las partículas que a cientos de miles de trillones circulan por el espacio a la velocidad de la luz, poder inventar una manera de imitar la gravedad terrestre dentro de las naves para poder hacer la vida diaria y cotidiana sin estar flotando todo el tiempo y, desde luego, buscar un combustible que procure altas  velocidades que, si no relativistas ni cercanas a c, si que hagan los viajes a los mundos cercanos de una duración aceptable y soportable a los viajeros, ya que, de otra manera, el traslado por la periferia de nuestro propio Sistema solar se haría interminable. Finalmente, y para escapar del sistema solar, habría que buscar la manera de burlar  la barrera de la velocidad de la luz.

Imagen relacionada

El Hiperespacio podría ser el camino para burlar la velocidad de la luz. Es decir, ya que el Universo, en su espacio tradicional, nos impide viajar más rápido que la luz, busquemos ese otro camino situado en dimensiones extra que, ¡sí lo permitiría! De manera tal que podríamos viajar a otras galaxias en tiempos soportables para nuestras efímeras vidas. Si algún día en el futuro podemos abrir esas puertas que permitan a modernas naves alcanzar las estrellas en un tiempo razonable.

“Si pudiéramos encontrar el camino hacia dimensiones más altas… ¿Cuántas respuestas encontraríamos allí?”

 

emilio silvera

Para seguir desvelando secretos de la Naturaleza

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Un ‘superacelerador’ de protones para ver a través de la materia

Noticia de Prensa.

 

 

 

Recreación del centro de investigación cuando esté completado, en 2025. ESS

IRENE FDEZ. JUBITERO

 

 

Entre otras aplicaciones, permitirá desarrollar nuevas terapias y materiales

España fabricará componentes clave, pero aún no ha firmado el acuerdo para convertirse en país miembro

Antes de que acabe 2017 el Gobierno español y el Gobierno vasco deben inyectar más dinero para seguir con los trabajos

El túnel se encuentra a pocos metros bajo tierra, mide 537 metros de longitud y, aunque ahora está totalmente vacío, a principios de la próxima década circularán por aquí protones casi a la velocidad de la luz. Esas partículas viajarán dentro del acelerador que será instalado en esta galería subterránea, que recorremos con botas, chaleco, casco, gafas y guantes protectores.

Estamos en Lund, la ciudad sueca que ha sido elegida para albergar la Fuente Europea de Neutrones por Espalación (ESS, por sus siglas en inglés), una gran instalación científica europea que también Bilbao y Debrecen (en Hungría) aspiraban a acoger y que cuenta con un presupuesto de 1.843 millones de euros.

Los protones (generados a partir de hidrógeno) que viajen dentro del acelerador lineal impactarán sobre un componente de tungsteno (denominado blanco o target) dando lugar a una reacción nuclear que producirá los deseados neutrones, que serán guiados hacia 16 instrumentos donde, a partir de 2023, se empezarán a hacer experimentos sobre el estudio de la estructura atómica de todo tipo de materiales.

 

 

Vista área del ‘target’ o blanco donde chocarán los protones ESS

 

“Cuando su construcción esté completada, en 2025, será la fuente de neutrones de más intensidad del mundo. El neutrón es la única partícula que no tiene carga y también la más difícil de conseguir”, explica el ingeniero nuclear español Antonio Vergara, adjunto al director técnico del ESS.

Hay dos formas de producir neutrones a gran escala. Una de ellas es por fisión en un reactor nuclear y la otra, por espalación, que consiste en astillar el núcleo de un átomo pesado para que éste emita pulsos de neutrones, como harán en Suecia. El blanco o target donde tendrá lugar este proceso, que se ubicará dentro de un edificio de 30 metros de altura, es ya claramente distinguible durante la visita a las obras, que comenzaron en 2014 y avanzan a buen ritmo. “Hemos completado ya el 35%. Nuestro principal objetivo es cumplir el calendario, no salirnos del presupuesto y buscar el compromiso de los países”, explica John Haines, el jefe de royecto del ESS.

John Womersley, director general de este gran proyecto europeo, admite que llevan tres meses de retraso respecto al plan inicial, pero espera que esta demora no afecte al calendario previsto. “En diciembre trabajamos con nieve y ahora lo hacemos con calor”, afirma mientras dirige la vista a la ventana. Es lunes y los obreros trabajan bajo un cielo azul y casi 30ºC, una temperatura inusual para esta localidad sueca de 87.000 habitantes, famosa por albergar la mejor universidad de Escandinavia y conocida como ‘La ciudad de las ideas’.

 

 

 

 

 

No siempre hablamos de lo que comprendemos

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Experimentos sencillos de f�sica

 

¡La Física! Lo que busca la física fundamental es reducir las leyes de la naturaleza a una teoría final sencilla que lo explique todo. El físico y premio Nobel Steven Weinberg señala que las reglas fundamentales son lo más satisfactorio (al menos él). Las leyes básicas de Isaac Newton, que predicen el comportamiento de los planetas, son más satisfactorias, por ejemplo, que un almanaque en el que se indique la posición de todos los planetas en cada . Weinberg nos dice que la Física no puede explicarlo todo, matizando que sólo puede explicar los sucesos relacionándolos con otros sucesos y con las reglas existentes.

http://salonkritik.net/08-09/planets.jpg

Por ejemplo, las órbitas de los planetas son el resultado de unas reglas, pero las distancias de los planetas al Sol son accidentales, y no son consecuencia de ley fundamental alguna. Claro que, las leyes podrían ser fruto de casualidades. Lo que sí es cierto es que los físicos están más interesados por descubrir las reglas que por los sucesos que dichas reglas determinan, y más por los hechos que son independientes del tiempo; por ejemplo, les interesa más la masa del electrón que un tornado que se pueda producir en un lugar determinado.

La ciencia, como nos dice Weinberg, no puede explicarlo todo y, sin embargo, algunos físicos tienen la sensación de que nos estamos acercando a “una explicación del mundo” y, algún día, aunando todos los esfuerzos de muchos, las ideas de las mejores mentes que han sido, y las nuevas que llegarán, podremos, al fín, construir esa Teoría final tan largamente soñada que, para que sea convincente, deberá también, incluirnos a nosotros. Pero, paradógicamente y a pesar de estos pensamientos, existen hechos que los contradicen, por ejemplo, conocemos toda la física fundamental de la molécula de agua desde hace 7 decenas de años, pero todavía no hay nadie que pueda explicar por qué el agua hierve a los 100 ºC. ¿Qué ocurre? ¿Somos acaso demasiado tontos? Bueno, me atrevería a pronosticar que seguiremos siendo “demasiado tontos” incluso los físicos consigan (por fin) esa teoría final que nos pueda dar una “explicación del mundo”. Siempre seguiremos siendo aprendices de la naturaleza que, sabia ella, nos esconde sus secretos para que persista el misterio.

¿Qué sería de nosotros si lo supiéramos todo?

La explicación que dan los físicos actualmente  sobre la subestructura de la materia se llama “el modelo estándar”. En este modelo están incluídas las doce partículas elementales y las tres fuerzas que, cuando se mezclan y se encajan, sirven para construir todo lo que hay en el universo, desde un redondo pan de pueblo hecho en un horno de leña,  hasta las más complejas galaxias, y puede explicar todos los mecanismos de acción, es decir, la mecánica del mundo.

Entre las partículas figuran los seis Quarks famosos: arriba, abajo, extraño, encanto, fondo y . Las otras seis partículas son Leptones: el electrón y sus dos parientes más pesados, el muón y el tau y los tres neutrinos a ellos asociados. Las tres fuerzas son la electromagnética, la fuerza nuclear fuerte (que mantiene unidos a los quarks) y la fuerza nuclear débil (responsable de la radioactividasd). Hay una cuarta fuerza: la Gravedad que, aunque tan importante como las demás, nadie ha sabido como encajarla en el modelo estándar. Todas las partículas y fuerzas de este modelo son cuánticas; es decir, siguen las reglas de la mecánica cuántica. Aún no existe una teoría de la gravedad cuántica.

 

En realidad, la región que denominamos Gravedad cuántica nos lleva y comprende preguntas sobre el origen del universo observable que nadie ha sabido contestar. Nos lleva a complejos procesos cuánticos situados en las épocas más cercanas imaginables en un espacio-tiempo clásico, es decir, en lo que se conoce como Tiempo de Planck a 10-43 segundos del supuesto big bang, cuando reinaba una temperatura del orden de 10 x 1031 K. Pero, como hemos dicho, al no existir una teoría autoconsistente de la Gravedad cuántica, lo único que podemos hacer (como en tantas otras áreas de la Ciencia)  es especular.

El Modelo Estándar no es, ni mucho , satisfactorio. Los científicos piensan que no sólo es incompleto, sino que es demasiado complicado y, desde hace mucho tiempo, buscan, incansables, otro modelo más sencillo y completo que explique mejor las cosas y que, además, no tenga (como tiene el modelo actual) una veintena de parámetros aleatorios y necesarios para que cuadren las cuentas…, un ejemplo: el bosón de Higgs necesario para dar masa a las partículas.

¡La masa! ese gran problema. Todas las partículas masa diferentes pero nadie sabe de donde salen sus valores. No existe fórmula alguna que diga, por ejemplo,  que el quark extraño debería pesar el (o lo que sea) del quark arriba, o que el electrón deba tener 1/200 (u otra proporción) de la masa del muón. Las masas son de todo tipo y es preciso “ponerlas a mano”, como se suele decir: cada una ha de ser medida experimental e individualmente. En realidad, ¿por qué han de tener masa las partículas? ¿de dónde viene la masa?

Norma Materia Oscura

No puedo evitarlo ni tampoco me puedo quedar callado, he asistido a alguna conferencia sobre la materia y, el ponente de turno se agarra a la “materia oscura” para justificar lo que no sabe, si al final hay debate, entro en escena para discutir sobre la existencia de esa “materia fantasma” que quiere tapar nuestra enorme ignorancia.

Pero, sigamos con el de la masa. Para resolverlo, muchos expertos en física de partículas creen actualmente en algo que llaman “campo de Higgs”. Se trata de un campo misterioso, invisible y etéreo que está permeando todo el espacio (¿habrán vuelto al antiguo éter pero cambiándole el nombre?). que la materia parezca pesada, como cuando tratamos de correr por el fondo de la piscina llena de agua pero que el agua no se pudiera ver. Si pudiéramos encontrar ese campo, o más bien la partícula la partícula que se cree es la manifestación de ese campo (llamada el bosón de Higgs), avanzaríamos un largo trecho hacia el conocimiento del universo.

Resultado de imagen de El Gran Colisionador de Hadrones

            El Gran Colisionador de Hadrones

Aquí, en este imponente artilugio inventiva de nuestras mentes, se quiere dar respuesta a una serie de interrogantes que se espera solucionar con este experimento:

• Qué es la masa.
• El origen de la masa de las partículas
• El origen de la masa para los bariones.
• El número exacto de partículas del átomo.

Claro que, si no fuera tan largo de contar, os diría que, en realidad, el de Higgs se descubrió hace ya muchos siglos en la antigua India, con el nopmbre de maya, que sugiere la idea de un velo de ilusión para dar peso a los objetos del mundo material. Pocos conocen que, los hindúes fueron los que más se acercaron a las modernas sobre el átomo, la física cuántica y otras teorías actuales. Ellos desarrollaron muy temprano sólidas teorías atomistas sobre la materia. Posiblemente, el pensamiento atomista griega recibió las influencias del pensamiento de los hindúes a través de las civilizaciones persas. El Rig-Veda, que data de alguna fecha situada entre el 2000 y el 1500 a. C., es el primer texto hindú en el que se exponen unas ideas que pueden considerarse leyes naturales universales. La ley cósmica está realcionada con la luz cósmica.

 Resultado de imagen de en la India la creación de los Vedas

                     Los Vedas: Textos míticos

Anteriores a los primeros Upanishads tenemos en la India la creación de los Vedas, visiones poéticas y espirituales en las que la imaginación humana ve la Naturaleza y la expresa en creación poética, y después va avanzando unidades más intensamente reales que espirituales hasta llegar al Brahmán único de los Upanishads.

la época de Buda (500 a, C.), los Upanishad, escritos durante un período de varios siglos, mencionaban el concepto  de svabhava, definido “la naturaleza inherente de los distintos materiales”; es decir, su eficacia causal única, , tal como la combustión en el caso del fuego, o el hecho de fluir hacia abajo en el caso dela agua. El pensador Jainí Bunaratna nos dijo: “Todo lo que existe ha llegado a existir por acción de la svabhava. Así… la tierra se transforma en una vasija y no en paño… A partir de los hilos se produce el paño y no la vasija”.

       El pensamiento Hindú tendrçia que ser mejor estudiado

También aquellos pensadores, manejaron el concepto de yadrccha, o azar desde tiempos muy remotos. Implicaba la falta de orden y la aleatoriedad de la causalidad. Ambos conceptos se sumaron a la afirmación del griego Demócrito medio siglo más tarde: “Todo lo que hay en el universo es fruto del azar y la necesidad”. El ejemplo que que dio Demócrito -similar al de los hilos del paño- fue que, toda la materia que existe, está formada por a-tomos o átomos.

Bueno, no lo puedo evitar, mi imaginación se desboca y corre rápida por los diversos pensamientos que por la mente pasan, de uno se traslada a otros y, al final, todo resulta un conglomerado de ideas que, en realidad, quieren explicar, dentro de esa diversidad, la misma cosa.

emilio silvera

La Física de Partículas al Servicio de la Salud

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 

En realidad, en el CERN, se trabaja en algo más que en las partículas subatómicas y se buscan nuevas respuestas y remedios para paliar el dolor en el mundo. También, se ha contribuido de manera notable a las comunicaciones y, el mundo es tal como lo conocemos hoy gracias a Ingenios como el LHC que, por desconocimiento de muchos, en su mpomento, fue tan denostado.

 

Transferencias tecnológicas del CERN a la Biomedicina.

 

 

                                                                                                           

                                                                        Partículas y mucho más

Seguramente la mayoría de los lectores de la Revista Española de Física han oído más de una vez hablar del CERN. Fundado en 1954, constituye el mayor laboratorio de física de partículas del mundo, con veinte países miembros y un personal de unas 3.000 personas entre físicos, ingenieros y personal técnico y administrativo de todo tipo. Seguramente están también al tanto de los grandes experimentos que se están preparando en este centro como el Large Hadron Collider (LHC), situado en un túnel circular de 27 km de longitud, destinado a elucidar el origen de la llamada ruptura de la simetría electrodébil y en última instancia el origen de las masas de las partículas elementales (no de la masa del protón o del neutrón como erróneamente se dice a veces en los medios de comunicación), o del proyecto CERN Neutrino Gran Sasso (CNGS), que consiste en enviar un haz de neutrinos de alta energía desde el CERN al laboratorio subterráneo italiano del Gran Sasso que se encuentra a 730 km, para estudiar las oscilaciones de estas huidizas partículas.

También es muy probable que muchos lectores asocien de manera natural la palabra acelerador de partículas  a los instrumentos que utilizan los físicos modernos para estudiar y comprender mejor la estructura y el comportamiento de la materia a pequeñas escalas. Sin embargo, de los 17.000 aceleradores de partículas que se estima existen en la actualidad en todo el mundo, aproximadamente la mitad de ellos se usan en medicina y sólo una parte muy pequeña se usan para investigación fundamental. Por este y otros motivos que se discutirán más adelante, en este número especial de la Revista Española de Física dedicado a la física y las ciencias de la vida, ha parecido conveniente incluir un artículo en el que, al menos brevemente, se describieran algunas de las transferencias tecnológicas (spinoffs) importantes que la actividad del CERN aporta a dichas ciencias.

         Mucho de lo que aquí se descubre, se aplica a nuestra Salud

Es bastante razonable que, como ocurre con las ciencias del espacio, mucha gente se pregunte cuál es la utilidad social de la física de partículas más allá  de la adquisición de conocimientos fundamentales de la naturaleza. Sin embargo, es preciso señalar que los aceleradores y detectores de partículas del CERN y otros laboratorios similares requieren el uso, y muchas veces el desarrollo, de tecnologías de punta que obligan a una estrecha colaboración con la industria  que redunda en beneficio de ambas partes. Las transferencias tecnológicas que se producen en este proceso se incorporan inmediatamente a nuestra vida diaria en áreas tales como la electrónica, procesamiento industrial y médico de imágenes, manejo y usos de la radiación , metrología, nuevos materiales, tecnologías de la computación y la información, tratamiento del cáncer, etc. En este artículo se pondrá el énfasis en aquellas actividades del CERN que han redundado de una forma más clara en beneficio de las ciencias biomédicas.

                    PET/TC o más allá de los rayos X

En el ámbito de la medicina los aceleradores de partículas se utilizan con dos finalidades; una para la formación de imágenes con propósitos diagnósticos y otra, para terapia, principalmente oncológica. Desde el descubrimiento de los rayos X por Röntgen en 1895, este tipo de radiación electromagnética ha proporcionado una información de valor incalculable y aún sigue proporcionándola. Sin embargo, mucho más recientemente, se han desarrollado otras técnicas complementarias de diagnóstico basadas en los llamados radiofármacos. Estas sustancias radiactivas presentan idealmente la propiedad de poder ser inyectadas en el organismo humano de forma segura y de fijarse exclusivamente a determinados tejidos. Posteriormente, a medida que van desintegrándose, emiten ciertas partículas que pueden ser detectadas y analizadas produciendo de esta forma imágenes estáticas o incluso dinámicas de los órganos en los que se depositaron los radiofármacos y, en definitiva, proporcionando información no solamente sobre la morfología de aquellos, sino también, en muchos casos, sobre su función y metabolismo.Los radiofármacos se producen utilizando haces de protones de alta intensidad y, como tienen una vida media muy baja, deben utilizarse cerca de donde se han creado. Se calcula que unos 20 millones de personas son diagnosticadas cada año mediante el uso de este tipo de sustancias.

Son técnicas no invasivas que dejan al descubierto lo que interesa ver y eliminar.

Una de las técnicas de este tipo más utilizada en la actualidad es la Positron Emission Tomography (PET). En su aplicación se utiliza normalmente un ciclotrón para irradiar alguna sustancia que se convierte en radiactiva por desintegración beta positiva (emisora de positrones). Esta sustancia se une por ejemplo a la glucosa y se inyecta al paciente. Los positrones producidos se aniquilan con los electrones circundantes dando lugar a dos fotones de energía muy bien definida, emitidos en direcciones opuestas. Estos fotones interaccionan con un material escintilador dando lugar a la emisión de otros fotones que pueden ser detectados por fotomultiplicadores o fotodiodos para formar la imagen de los tejidos que se pretenden estudiar en función de la distribución de la glucosa radiactiva. Por ejemplo, en el caso del diagnóstico del cáncer las células cancerosas suelen consumir más glucosa que las células sanas debido a su mayor vascularización y a su mayor actividad metabólica y reproductiva, produciendo por tanto una mayor emisión de fotones. Por el contrario, las zonas donde el tejido presente mayor número de células muertas brillarán menos debido a la menor concentración de glucosa radioactiva, lo cual puede ser muy útil para el diagnóstico de infartos y otras lesiones.

         Tecnológias que llegan más allá

De acuerdo con David Townsend, uno de los pioneros en el desarrollo de la tecnología PET, aunque ésta no fue inventada en el CERN, una cantidad esencial e inicial de trabajo desarrollado en el CERN  a partir de 1977 contribuyó de forma significativa al desarrollo del PET 3D. La tecnología PET alcanza su grado más alto de utilidad diagnóstica cuando se combina con la Computed Tomography (CT). La CT es un método de formación de imágenes tridimensionales a partir del procesamiento digital de un gran número de imágenes bidimensionales de rayos X. Inicialmente, las diferentes imágenes se obtenían alrededor de un solo eje de rotación y de ahí su nombre original de Computed Axial Tomography (CAT).

Resultado de imagen de La técnica combinada PET/CT es uno de los desarrollos más excitantes de la medicina nuclear

La técnica combinada PET/CT es uno de los desarrollos más excitantes de la medicina nuclear y la radiología modernas. Las reconstrucciones de imágenes CT permiten el diagnóstico precoz de tumores basándose en sus características morfológicas, mientras que la tecnología PET es capaz de diferenciar con grane eficiencia los tejidos malignos de los benignos. La fusión PET/CT permite ahora integrar las imágenes morfológica y fisiológica en una única imagen. El prototipo del scanner ART, el Partial Ring Tomograph (PRT), fue desarrollado en el CERN en 1980 y 1990 por David Townsend, Martín Wensveen y Henri Tochon-Danguy, y evaluado clínicamente en el departamento de medicina nuclear del Hospital Cantonal de Ginebra. ART puede considerarse como el precursor de la parte PET del moderno scanner PET/CT, que ha producido un impacto extraordinario en la tecnología de imágenes con fines médicos. Además, el CERN continua hoy en día contribuyendo a este campo fundamental de la medicina moderna mediante proyectos como Clear PET, Clear PEM, HPD PET etc.

Sin embargo, la importancia del CERN en el desarrollo de las tecnologías PET o CT, y en general de todo tipo de scanner, va mucho más allá. En efecto, todo este tipo de dispositivos se basa, de una forma u otra, en los detectores desarrollados a finales de los  sesenta en el CERN por George Charpak. Su trabajo fue reconocido en 1992 con la concesión del Premio Nobel de Física por su invención y desarrollo de detectores de partículas, en particular de la cámara proporcional multihilos, que produjo una revolución en la técnica de exploración de las partes más íntimas de la materia. Los detectores desarrollados por Charpak se usan aún para todo tipo de investigaciones médicas y biológicas y podrían eventualmente sustituir completamente a las placas fotográficas en la radio-biología aplicada. La velocidad creciente con la que permiten registrar las imágenes en radio medicina conducen a una menor tiempo de exposición y a menores dosis de radiación indeseada recibida por los pacientes.

Hadronterapia, o las partículas contra el cáncer

Como es bien sabido, una de las herramientas terapéuticas esenciales en el campo de la oncología es la radioterapia. Dicho tratamiento se aplica hoy en día aproximadamente a la mitad de los pacientes de cáncer. En cierto modo se puede considerar como una forma sutil de cirugía donde el bisturí es reemplazado por un haz colimado de partículas capaz de esterilizar las células malignas mediante la inactivación de su ADN, impidiendo así su reproducción. Tradicionalmente, la radioterapia se ha basado en el uso de rayos X (fotones), electrones y, más recientemente, hadrones, es decir, partículas capaces de interaccionar fuerte o nuclearmente, si bien no es ésta la propiedad más interesante de estas partículas para las aplicaciones radioterapeúticas. Los haces de rayos X y los electrones se obtienen normalmente a partir de aceleradores lineales como los del CERN, aunque mucho más pequeños, y se apuntan hacia los tumores con la energía, dirección y colimación apropiadas para optimizar su efecto destructivo sobre los mismos. Por su parte, los neutrones pierden energía en el interior del organismo de una forma diferente, lo cual les hace más indicados para el tratamiento de ciertos tipos especiales de tumores. Se obtienen a partir de las colisiones de protones, previamente acelerados en un ciclotrón, con núcleos de berilio. Este hecho hace que esta terapia sea bastante más cara que las anteriores, pero a cambio el ciclotrón puede ser usado también para la producción de radiofármacos.

                                            Cintíficos del CERN aplican antimateria contra el Cáncer

El estudio de las posibilidades de utilización de haces de hadrones en la terapia del cáncer tuvo su origen en el trabajo seminal de R.R Wilson titulado Radiological Use of Fast Protons (Radiology 47, 1946). En dicho artículo se ponía de manifiesto que los protones, así como otras partículas cargadas pesadas, presentan la propiedad única de que al penetrar en el cuerpo humano depositan la mayor parte de su energía a una preofundidad que depende de su energía inicial. Este hecho permite seleccionar cuidadosamente el área que se quiere irradiar, preservando de dicha radiación al tejido sano que pudiera encontrarse a menor profundidad. Además, como las partículas se detienen a una distancia de la superficie bien definida por la energía del haz, tampoco resultarían dañadas las células situadas detrás del blanco seleccionado.

Resultado de imagen de La técnica combinada PET/CT es uno de los desarrollos más excitantes de la medicina nuclear y la radiología modernas

La técnica combinada PET/CT es uno de los desarrollos más excitantes de la medicina nuclear y la radiología modernas.

En contraste, la energía depositada por los rayos X alcanza su máximo cerca de la superficie de entrada y decae exponencialmente hasta que abandona el cuerpo humano en el lado opuesto, haciendo por tanto muy difícil seleccionar la zona que quiere irradiarse sin dañar otras áreas de células sanas. El trabajo de Wilson de 1946 condujo a toda una nueva línea de investigación experimental, principalmente en el Lawrence Berkeley Laboratory, que ha dado lugar al desarrollo de una nueva clase de terapias antitumorales basadas en la irradiación con protones y más recientemente con iones de carbono. Estas técnicas han sido aplicadas en más de 40 centros de todo el mundo, y de ellas se han beneficiado hasta la fecha más de 50.000 pacientes. No obstante, continúan investigándose nuevas formas de intentar mejorar el ratio entre la energía depositada en las células tumorales y en el tejido sano.

En la actualidad, el CERN se encuentra involucrado en diversos proyectos relacionados con la hadronterapia. Por ejemplo, en el diseño de un acelerador de protones e iones de carbono dedicado exclusivamente a usos médicos conocido como Proton Ion Medical Machine Study (PIMMS). Otro proyecto interesante es la realización de las pruebas del Linear Booster ( LIBO), capaz de acelerar una haz de protones hasta 200 Mev (los hospitales habiualmente utilizan energías en torno a los 65 MeV) y que estaría especializado en el tartamiento de tumores profundos.

Resultado de imagen de Antiproton Cell Experiment (ACE)

Finalmente, y situándonos en un plano de investigación a un nivel más básico, es interesante señalar que en octubre de 2006 se presentaron los primeros resultados de un experimento llevado a cabo en el CERN con potencial para futuras aplicaciones en la terapia del cáncer. Se trataba del Antiproton Cell Experiment (ACE), que constituye la primera investigación realizada hasta la fecha sobre efectos biológicos de los antiprotones. Los antiprotones se comportan como los protones cuando entran en el organismo, pero generan mucha más energía en el blanco seleccionado debido a du aniquilación con los protones existentes en los núcleos de los átomos de las células, y además depositan esta energía de una forma biológicamente más efectiva.

 Se busca antimateria contra el Cáncer. Los resultados muestran que los antiprotones son cuatro veces más efectivos que los protones para destruir células vivas. (Foto: Especial CERN )

Evaluando la fracción de células supervivientes después de la irradiación con el haz de antiprotones, el experimento ACE ha encontrado que a eficiencia de éstos es unas cuatro veces mayor que la de los protones, mientras que el daño producido a las células situadas antes del blanco era básicamente el mismo. De acuerdo con Michael Holzscheiter, portavoz del experimento ACE, este hecho podría ser extremadamente importante para el tratamiento de casos de cáncer recurrente, donde este tipo de propiedad es vital. La tecnología desarrollada previamente en el CERN para la obtención de haces de antiprotones de buena calidad a la energía apropiada es esencial para este prometedor experimento, que difícilmente podría haberse realizado en ningún otro laboratorio. Éste es por tanto un magnífico ejemplo de cómo la investigación en física de partículas desarrollada en el CERN puede generar soluciones innovadores con excelentes beneficios médicos potenciales.

Resultado de imagen de Antiproton Cell Experiment (ACE)

Los investigadores de ACE, en colaboración con otras instituciones de todo el mundo, están realizando en la actualidad nuevos tests para comprobar la eficacia de este método en el caso de tumores situados a mayor profundidad, y comparando sus resultados con los de otros métodos más convencionales como la irradiación mediante iones de carbono. Si todo sale como se espera, los beneficios clínicos de esta nueva técnica podrían empezar a producirse dentro de la próxima década.

Otro ejemplo importante de tecnología creada en el CERN con aplicaciones a la terapia del cáncer es el Neutron Driven Element Trasmuter. Se trata de un sistema de producción de radioisótopos específicos específicos a partir de un acelerador de protones cuyo desarrollo fue liderado por Carlo Rubbia, Premio Nobel de Física en 1984 por el descubrimiento de los bosones W y Z y ex director general del CERN. La idea es utilizar el haz de protones para producir neutrones los cuales provocan reacciones en un ambiente apropiado donde ciertos elementos son convertidos en los isótopos deseados.

Resultado de imagen de Otro ejemplo importante de tecnología creada en el CERN con aplicaciones a la terapia del cáncer es el Neutron Driven Element Trasmuter.

La diferencia principal entre este método, seguro y barato, y el método más tradicional de utilizar los neutrones provenientes de un reactor nuclear, es que no requiere el uso de material fisionable ni funciona críticamente, es decir las reacciones se detienen en el momento en el que el acelerador es apagado. Más aún, el método tiene la ventaja de que sólo se producen los isótopos requeridos, lo que redunda en una importante reducción de impacto ambiental. Normalmente, el blanco utilizado es plomo, elemento idóneo por presentar el menor ritmo de captura de neutrones. Los neutrones se producen por espalación a partir del haz de protones y permanecen en el interior del blanco de plomo, que está rodeado  de un deflector de grafito, hasta que su espectro se suaviza suficientemente para cubrir un gran rango de energías que permiten su utilización para la transmutación de los elementos necesarios para la obtención de los isótopos deseados.

Resultado de imagen de Ciclotrón para la producción de isótopos para usos médico

Estos aceleradores se suelen utilizar en la producción de isótopos para usos médicos, tratamientos especiales y funciones relacionadas con el campo de la Bioquímica. Incluso se utiliza en ocasiones en el campo de los alimentos.

El Neutron Driven Element Trasmuter ha permitido, entre otras cosas, la producción de radioisótopos beta emisores como el 166Ho, 186 Re o el 188Re que son de gran importancia en braquiterapia. Dicha técnica, muy utilizada en el tratamiento de cánceres ginecológicos y en el de cáncer de próstata, es un tipo de radioterapia de proximidad donde la fuente radiactiva se sitúa dentro o muy cerca de los tejidos que requieren irradiación. Típicamente, la fuente radiactiva, de alta actividad y corta vida media, se encapsula en una semilla, filamento o tubo y se implanta en quirófano en la zona deseada. Las diferentes dosis requeridas en cada caso hacen que sea fundamental disponer del mayor muestrario posible de radioisótopos con la actividad y vida media apropiadas, lo cual convierte al Neutron Driven Element Trasmuter en una herramienta valiosísima para el futuro de este tipo de técnica terapéutica.

                            Información y computación sin fronteras

CERN, … where the web was born; éste es uno de los reclamos publicitarios que suelen utilizarse  para hacer ver al público la importancia de los retornos tecnológicos que en este laboratorio tienen lugar. Y en efecto, fue a finales de los ochenta cuando Tim Berners-Lee desarrolló estándar de Hyper Text Transfer Protocol (HTTP)  e implementó los primeros servidores web en el CERN. Su esfuerzo permitió la comunicación fácil y segura y el intercambio de todo tipo de información entre todos los ordenadores del mundo conectados a internet, dando lugar de esta forma a una de las revoluciones tecnológicas más importantes de las últimas décadas. Las repercusiones científicas, tecnológicas, culturales, comerciales y de ocio de la web son ya tan conocidas que apenas merecen comentario alguno.

Resultado de imagen de las tecnologías Grid

El término Grid fue acuñado por Ian Foster and Carl Kesselman en su libro The Grid, Blueprint for new Computing Infraestructure (Morgan Kaufman, 1998), aunque las ideas básicas habían sido consideradas con anterioridad. No existe un acuerdo general sobre cual debería ser la definición precisa de las tecnologías Grid, pero hay un amplio concenso en que esta debería contener elementos tales como recursos compartidos, virtualización, abstracción del acceso a los recursos y estandarización. La filosofía Grid consistería, no sólo en compartir información entre diferentes usuarios, sino también recursos, como por ejemplo, procesadores, tiempo de CPU, unidades de almacenamiento, así como otros aparatos e instrumentos, de tal forma que eventualmente cada usuario tendría acceso virtual, por ejemplo, a la capacidad de cálculo de todos los demás usuarios de esa Grid. En los primeros tiempos de esta tecnología de la información se llegó a hablar de la Grid, refiriéndose a la posibilidad  de existencia de una única World  Wide Grid.

                                                                                                      Todo surgió del CERN

Hasta el momento, sin embargo, este concepto no es una realidad y más bien lo que se encuentra es que diferentes grupos de proyectos crean su propia Grid usando sus propias implementaciones, estándares y protocolos y dando acceso restringido solamente a una cierta comunidad de usuarios autorizados. Así, aunque se siguen realizando importantes esfuerzos en cuanto a la estandarización de los protocolos, no está claro cual será el camino que este tipo de tecnología seguirá en el futuro en lo que se refiere a la futura existencia de un única Grid.

En cualquier caso es importante resaltar que una vez más el CERN ha sido pionero en este tipo de tecnología. Los detectores que se están instalando (a estas alturas, todos instalados y en marcha) en el LHC (ATLAS, CMS, ALICE, LHCb, SUSY, etc.), son tan complejos, que han requerido cada uno de ellos el concurso de muchas instituciones de todo el mundo para su construcción, y lo seguirán requiriendo para su mantenimiento cuando el acelerador empiece a funcionar (ya está en marcha), y, como no, para el análisis de los datos que se obtengan. Para hacerse una idea de la dimensión y complejidad de estos análisis baste mencionar que el compact Muon Selenoid (CMS), una vez pasado su primer filtro, deberá almacenar información sobre el resultado de las colisiones producidas en su interior a un ritmo del orden de 100 a 200 MB por segundo durante un tiempo esperado de unos cien días por año. Resulta obvio que sólo una tecnología tipo Grid puede afrontar con posibilidades de éxito un reto semejante y de hecho el CERN ha inspirado varios proyectos Grid multinacionales por este motivo. Posiblemente, el más grande de ellos hasta la fecha sea el EGEE (Enablinbg Grids for E-Science), que conecta más de 150 paises y ofrece 20 000 CPUs y más de 10 Petabytes de memoria.

Resultado de imagen de biología celularResultado de imagen de biología celular

mucho es lo que hemos podido avanzar en el mundo de la biología molecular gracias a las nuevas técnicas

De manera análoga a como ocurrió con las tecnologías de la detección y aceleración, las tecnologías Grid tendrán, y de hecho ya empiezan a tener, un fuerte impacto en las ciencias de la vida y de la salud. En este sentido, uno de los campos obvios de aplicación es la bioinformática. Gracias a los espectaculares avances llevados a cabo en los últimos años en el campo de la biología molecular, se dispone hoy en día de cantidades crecientes de información genética de diferentes especies e individuos. Dicha información codificada en el ADN en forma de secuencia de tripletes o codones de ácidos nucleicos, que constituyen los genes que contienen la estructura primaria de las diferentes proteínas, ha sido y está siendo obtenida por centenares de grupos diferentes distribuidos por todo el mundo y debe almacenarse en gigantescas bases de datos de forma eficiente para su compartición, contrastación y análisis.

http://3.bp.blogspot.com/-Ou6mofJ1Jlo/UPcP2-6wZ4I/AAAAAAAAQh0/Omcgo29_lAY/s640/biologia%2Bcelular,%2Bciencias%2Bde%2Bjoseleg.jpg

La biología celular se centra en la comprensión del funcionamiento de los sistemas celulares, de cómo estas células se regulan y la comprensión del funcionamiento de sus estructuras. Una disciplina afín es la biología molecular.

Ejemplos típicos serían la búsqueda de determinadas secuencias, comparaciones, búsqueda de determinadas mutaciones o alelos, etc. Resulta evidente que esta ingente labor puede verse enormemente beneficiada por el uso de tecnologías Grid. De hecho, la Bioinformática, y en particular sus aplicaciones biomédicas, han sido una parte importante del proyecto EGEE desde el comienzo del mismo.

Finalmente, y como última muestra de cómo puede revertir en la sociedad las tecnologías de la información y la computación provenientes de la física de partículas, es interesante mencionar el Proyecto Mammogrid y su continuación Mammogrid Plus. Liderado por el CERN, dicho proyecto de la UE utiliza la tecnología Grid para crear una base de datos de mamografías que pueda ser usada para investigar un gran conjunto de datos e imágenes que, aparte de otras aplicaciones sanitarias, sea útil para estudiar el potencial de esta tecnología para servir de soporte a la colaboración entre los profesionales de la salud de la  UE.

      Ciencia, Tecnología y Sociedad

A estas alturas debería haber quedado claro que los centros científicos de élite internacionales como el CERN, no sólo nos proporcionan un conocimiento más profundo de la naturaleza, sino que las tecnologías de punta que en ellos se desarrollan acaban permeando a la Sociedad y se incorporan a nuestras vidas cotidianas. El autor del artículo, Antonio Dobado, del Departamento de Física Teórica I de la Universidad Complutense de Madrid, ha pretendido ilustrar el hecho innegable de la conexión existente entre temas tan aparentemente dispares como el de la Física de Partículas y la Biomedicina, pero ejemplos semejantes podrían haberse encontrado en prácticamente cualquier área de la actividad humana.

Resultado de imagen de La Física y la Medicina

Gracias a la Física, la medicina ha dado un paso de gigante

La Sociedad no puede permanecer por más tiempo ajena a la Ciencia y a todo lo que trae consigo. Precisamente por eso la RSEF dedica un gran esfuerzo a la difícil tarea de convencer al público de la importancia de la Física como valor científico, cultural y social, como una forma rigurosa y profunda del acercamiento al conocimiento de la naturaleza, y a la vez como generadora de nuevas tecnologías. En este sentido, es una espléndida noticia la inminente creación de un nuevo Grupo especializado en el seno de la RSEF denominado Física Médica. Y, desde aquí, aprovechamos la oportunidad para darles la bienvenida y desearles el mayor éxito en sus futuras andaduras en la búsqueda de la verdad científica.

Fuente: Revista Española de FÍSICA.

Publicada por la RSEF con el Nº 3 Volumen 21 de 2007

La presente transcripción es de:  Emilio Silvera

Miembro numerario de la RSEF y adscrito a los Grupos Especializados de Física Teórica y Astrofísica.

Gravedad cuántica, fluctuaciones de vacío…

Autor por Emilio Silvera    ~    Archivo Clasificado en Física, Física... ¡Y mucho más!    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 «

 

Las partículas recorren todos los caminos posibles para ir de un punto a otro. Así lo dice la hipótesis de múltiples historias. Dos partículas alejadas por miles de años luz pueden estar conectadas, otras se trasladan de un punto a otro del espacio sin recorrer las distancias que separan esos dos puntos (Efecto túnel) y, así, podríamos contar jistorias cuánticas alucinantes.

  Por otra parte, existen hipótesis de todo tipo sobre lo que pudo pasar en aquellos primeros momentos.

“La hipótesis de la dimensión transicional que explica la gravitación y la materia oscura no conceptúa la hipótesis del Big-Bang en el sentido que el universo se crea a través de la explosión de un super-átomo, que crea la materia y el tiempo a partir de un punto único en el Universo. Y que ésta materia y tiempo se expanden en el espacio a partir de éste punto, en todas direcciones.

Esta hipótesis sólo puede conceptuar el Big-Bang como un evento simultáneo de creación de materia y tiempo en todo el Universo. Es decir, que no hubo ninguna explosión focal y dispersión de materia y energía en todas direcciones, sino que la materia y energía se creó instantáneamente en infinitos puntos del Universo. ( Un Big-Bang Multiple y simultaneo.).

Casi inmediatamente, por la acción de las fuerzas de la gravedad y el tiempo, se crearon los elementos y la materia como tal, así como la formación de Galaxias, Soles, Planetas y otros cuerpos celestes.

Todos los fenómenos que se dieron en ese momento y que aún se dan, obedecen a las Leyes de la Física Clásica, incluyendo la Expansión o Contracción de sectores del Universo, y no están directamente relacionados con el Big-Bang.”

Resultado de imagen de fascinante mecánica cuçanticaResultado de imagen de fascinante mecánica cuçantica

Hay aspectos de la física que me dejan totalmente sin habla y quedan fuera de nuestra realidad inmersa en lo cotidiano de un mundo macroscópico que nos aleja de ese otro mundo misterioso e invisible donde residen los cuantos que, con su comportamiento, me obligan a pensar y me transportan de

 

      En el mundo cuántico se pueden contemplar cosas más extrañas

Hay magnitudes asociadas con las leyes de la gravedad cuántica. La longitud de Planck-Wheeler, = 1’62 × 10-33 cm, es la escala de longitud por debajo de la cual es espacio, tal tiempo de Planck-Wheeler (1/c veces la longitud de Planck-Wheeler, o aproximadamente 10-43 segundos), es el intervalo de tiempo más corto que longitud de Planck-Wheeler, es decir, 2’61 × 10-66 cm2) juega un papel clave en la entropía de un agujero negro.

De todas las maneras, en este

 

Como nos dicen en este anuncio del Kybalion, nada es estático en el Universo y, todo está en continuo movimiento o vibración. Habreis oido hablar de la energía de punto cero que permanerce en una sustancia en el cero absoluto (cero K). Está de acuerdo con la teoría cuántica, según la cual, una partícula oscilando con un movimiento armónico simple no tiene

 

                         Efecto Casimir

Me llama poderosamente la atención lo que conocemos

 

Algunos han postulado que el Universo pudo surgir de una fluctuación del vacío que rasgó el espacio tiempo de otro universo.

Ordinariamente, definimos el vacío como el espacio en el que hay una baja presión de un gas, es decir, relativamente pocos átomos o moléculas. En ese sentido, un vacío perfecto no contendría ningún átomo o molécula, pero no se vacío theta (vacío θ), que es el gauge no abeliano (en ausencia de campos fermiónicos y campos de Higgs). En el vacío theta hay un vacío theta es análogo a una función de Bloch* en un cristal. Cuando hay un fermión sin masa, el efecto túnel fermiónicos con masa pequeña, el efecto túnel es mucho menor que gauge puros, pero no está completamente suprimido. El vacío theta es el punto de partida para comprender el estado de vacío de las teoría gauge fuertemente interaccionantes, como la cromodinámica cuántica.

 

En astronomía, el vacío está referido a regiones del espacio con

 

El primer gran vacío en ser detectado fue el de Boötes en 1.981; tiene un radio de Sabemos referirnos al producto o cociente de las unidades físicas básicas, elevadas a las potencias adecuadas, en una cantidad física derivada. Las cantidades físicas básicas de un sistema mecánico son habitualmente la masa (m), la longitud (l) y el tiempo (t). Utilizando estas dimensiones, la velocidad, que es una unidad física derivada, tendrá dimensiones l/t, y la aceleración tendrá dimensiones l/t2. SI, la corriente, I, Pero volvamos de

 http://francisthemulenews.files.wordpress.com/2008/02/dibujo26ene2008a.jpg

Las ondas fluctúan de forma aleatoria e impredecible, con energía positiva momentáneamente aquí, energía negativa momentáneamente allí, y energía cero en promedio. El aspecto de partícula está incorporado en el concepto de partículas virtuales, es decir, partículas que pueden nacer en pares (dos partículas a un tiempo), viviendo temporalmente de la energía fluctuacional tomada prestada de regiones “vecinas” del espacio, y que luego se aniquilan y desaparecen, devolviendo la energía a esas regiones “vecinas”. Si hablamos de fluctuaciones electromagnéticas del vacío, las partículas virtuales son fotones virtuales; en el caso de fluctuaciones de la gravedad en el vacío, son gravitones virtuales.

Claro que, en realidad, sabemos poco de esas regiones vecinas de las que tales fluctuaciones toman la energía. ¿Qué es lo que hay allí? ¿Está en esa región la tan buscada partícula de Higgs? Sabemos que las fluctuaciones de vacío son, para las ondas electromagnéticas y gravitatorias, lo que los movimientos de degeneración claustrofóbicos son para los electrones. Si confinamos un electrón a una pequeña región del espacio, entonces, por mucho que uno trate de frenarlo y detenerlo, el electrón está obligado por las leyes de la mecánica cuántica a continuar moviéndose aleatoriamente, de forma impredecible. Este movimiento de degeneración claustrofóbico que produce la presión mediante la que una estrella enana blanca se mantiene contra su propia compresión gravitatoria o, en el mismo caso, la degeneración de neutrones mantiene estable a la estrella de neutrones, que obligada por la fuerza que se genera de la degeneración de los neutrones, es posible frenar la enorme fuerza de gravedad que está comprimiendo la estrella.

 

La degeneración de los electrones impide que la gravedad continúe comprimiendo a una estrella electrones se degeneran y, “protestan” porque no quieren estar tan juntos (son fermiones), y, es la fuerza de esa degeneración la única que frena la implosión de la estrella y queda convertida en una enana blanca que, en el centro de la nueva Nebulosa radia con fuerza

De manera similar ocurre cuando la estrella es más masiva que nuestro Sol. Entonces, llegado el final de su vida y quedando a merced de la fuerza de Gravedad, ésta trata de comprimir la masa estelar al máximo. protones y electrones se  fusionan neutrones que, al verse tan comprimidos “protestan” y se degeneran para neutrones estable. Si la estrella es demasiado masivo, ni el Principio de exclusión de Pauli para los fermiones, puede frenar la inmensa gravedad que genera y, el final del proceso es un Agujero Negro.

De la misma

 

Hace tiempo que sabemos (Einstein y así se desprende de L/V2 que podríamos expresar como m = E/c2. Si despejamos la energía, adquiere una Decir lo que pueda haber en ese “espacio vacío, no será nada fácil, sin embargo, parece que no sería un disparate pensar en la existencia allí de alguna clase de materia que, desde luego, al igual que la bariónica que sí podemos ver, genera energía y ondas gravitacionales que, de alguna manera que aún se nos oculta, escapa a nuestra vista y sólo podemos constatar sus efectos al medir las velocidades a las que se alejan las galaxias unas de otras: velocidad de expansión del universo, que no se corresponde en absoluto con la masa y la energía que podemos ver.

Hay que seguir atando cabos sueltos, uniendo piezas y buscando algunas que están perdidas de tal manera que, 

 

¡Quién sabe! Quizá sea el LHC el que, con sus resultados, nos pueda dar una respuesta de lo que realmente existe en ese mal llamado vacío y que, según parece, está lleno a rebosar. Sí, pero ¿de qué está lleno? Ya veremos. De Higgs, ese Bosón que le da la masa a las partículas y que fue prsentado a bombo y platillo a todos los medios en 2012. Ahora, el LHC con más potencia energética, tratará de descubrir las partículas supersimétricas que supuestamente son las componentes de la “materia oscur” y también, intentará otras cosas que los físicos intuyen están ahí.

Estamos en un momento crucial de la física, las matemáticas y la cosmología, y debemos, para poder materia oscura o a una teoría cuántica de la gravedad, que también está implícita en la teoría M. Estamos anclados; necesitamos nuevas y audaces ideas que puedan romper las cadenas virtuales que atan nuestras mentes a ideas del pasado. En su momento, esas ideas eran perfectas y cumplieron su misión. Sin embargo, ahora no nos dejan continuar y debemos preparar nuestras mentes emilio silvera