sábado, 07 de marzo del 2026 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¿La Física? ¡Una maravilla! Nos dice cómo funciona la Naturaleza

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Imagen relacionada

En su Libro Partículas, Gerard ´t Hofft, Premio Nobel de Física, nos cuenta:

“En el mundo de los seres vivos, la escala o tamaño crea importantes diferencias. En muchos aspectos, la anatomía de un ratón es una copia de la de un elefante, pero mientras que un ratón trepar por una pared prácticamente vertical sin mucha dificultad (y se puede caer desde una altura varias veces mayor que su propio tamaño sin hacerse daño), un elefante no sería capaz de realizar tal hazaña. Con bastante generalidad se puede afirmar que los efectos de la gravedad son menos importantes cuanto menores sean los objetos que consideremos (sean vivos o inanimados).”

 

 

Cuando llegamos a los seres unicelulares, se ve que ellos no hay distinción entre arriba y abajo. Para ellos, la tensión superficial del agua es mucho más importante que la fuerza de la gravedad a esa escala. Tranquilamente se pueden mover y desplazar por encima de una superficie acuática. Los pluricelulares no pueden hacer tal cosa.

Resultado de imagen de La tensión superficial permite a los insectos andar por el aguaResultado de imagen de La tensión superficial permite a los insectos andar por el agua

             Estas imágenes la hemos visto muchas veces en fuentes y charcos formados por la de la lluvia

La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos de Van der Waals. fuerza tiene un alcance muy corto; para ser precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente 1/r7. Esto significa que si se reduce la distancia dos átomos a la mitad de la fuerza de Van der Waals con la que se atraen uno a otro se hace 2 × 2 × 2 × 2 × 2 × 2 × 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza. El conocimiento de esta fuerza se debe a Johannes Diderik Van der Waals (1837 – 1923) con su tesis sobre la continuidad del líquido y gaseoso que le haría famoso, ya que en esa época (1873), la existencia de las moléculas y los átomos no estaba completamente aceptado.

La tensión superficial del agua, es el efecto físico (energía de atracción entre las moléculas) que “endurece” la capa superficial del agua en reposo y permite a algunos insectos, como el mosquito y otros desplazarse por la superficie del agua sin hundirse.

El famoso físico inglés James Clerk Maxwell, que formuló la teoría del electromagnetismo de Faraday, quedó muy impresionado por este de Van der Waals.

Los tamaños de los seres unicelulares, animales y vegetales, se miden en micrómetros o “micras”, donde 1 micra es 1/1.000 de milímetro, aproximadamente el tamaño de los detalles más pequeños que se pueden observar con un microscopio ordinario. El mundo de los microbios es fascinante, pero no es el objeto de este trabajo, y continuaremos el viaje emprendido las partículas elementales que forman núcleos, átomos, células y materia, así como las fuerzas que intervienen en las interacciones fundamentales del universo y que afecta a todo lo que existe.

Hemos hablado del electrón que rodea el núcleo, de su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; una masa de solamente 1/1.836 de la del núcleo más ligero (el del hidrógeno). La importancia del electrón es vital en el universo.

Pero busquemos los “cuantos”. La física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menor intensidad, por los objetos más fríos (radiación de cuerpo negro).

Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si utilizamos las leyes de la termodinámica para calcular la intensidad de una radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano y, luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para menores. Esta longitud de onda característica es inversamente proporcional a la temperatura absoluta de objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273º bajo cero). Cuando a 1.000º C un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.

Radiación de Cuerpo Negro

Un cuerpo negro es un objeto teórico o ideal que absorbe toda la luz y toda la energía radiante que incide sobre él. Nada de la radiación incidente se refleja o pasa a través del cuerpo negro. A pesar de su , el cuerpo negro emite luz y constituye un modelo ideal físico para el estudio de la emisión de radiación electromagnética. El nombre Cuerpo negro fue introducido por Gustav Kirchhoff en 1862.

La luz emitida por un cuerpo negro se denomina radiación de cuerpo negro. Todo cuerpo emite energía en de ondas electromagnéticas, siendo esta radiación, que se emite incluso en el vacío, tanto más intensa cuando más elevada es la temperatura del emisor. La energía radiante emitida por un cuerpo a temperatura ambiente es escasa y corresponde a longitudes de onda superiores a las de la luz visible (es decir, de menor frecuencia). Al elevar la temperatura no sólo aumenta la energía emitida sino que lo hace a longitudes de onda más cortas; a esto se debe el cambio de color de un cuerpo cuando se calienta. Los cuerpos no emiten con igual intensidad a todas las frecuencias o longitudes de onda, sino que siguen la ley de Planck.

Resultado de imagen de La radiación se emite en paquetes llamados cuantos

La onda electromagnética se puede entender como un grupo de “paquetes” ( cuantos) de muy poca energía que, juntos determinan la energía de la onda.

Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda, y por tanto, proporcional a la frecuencia de radiación emitida. La fórmula es E = h?, donde E es la energía del paquete, ? es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo nueva condición, el resultado coincidió perfectamente con las observaciones.

Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: él sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene energía, sino que cualquier cosa con energía se debe comportar una “onda” que se extiende en una cierta región del espacio, y que la frecuencia ? de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilantes de campos de fuerza, esto lo veremos más adelante.

El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de de Broglie. Poco después, en 1926, Edwin Schrödinger descubrió cómo escribir la teoría ondulatoria de de Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de ondas cuánticas”.

Está bien comprobado que la mecánica cuántica funciona de maravilla…, pero, sin embargo, surge una pregunta muy formal: ¿qué significan realmente estas ecuaciones?, ¿qué es lo que están describiendo? Isaac Newton, allá en 1867 formuló cómo debían moverse los planetas alrededor del Sol, estaba claro todo el mundo qué significaban sus ecuaciones: que los planetas estaban siempre en una posición bien definida des espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades en el tiempo.

Pero los electrones todo es diferente. Su comportamiento parece estar envuelto en misterio. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?

Niels Bohr consiguió responder a esta pregunta de tal que con su explicación se pudo seguir trabajando, y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la interpretación de Copenhague de la mecánica cuántica.

Si la mecánica cuántica tiene cosas extrañas y el espín es una de ellas. Y si uno piensa que la intuición le ayudará a comprender todo esto, pues no lo hará, o es poco probable que lo haga. Las partículas tienen un espín fundamental. Al igual que la carga eléctrica o la masa, el espín ayuda a definir que de partícula es cada una.

Las leyes de la mecánica cuántica han sido establecidas con mucha precisión; permite cómo calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas de manera simultánea. Por ejemplo, podemos determinar la velocidad de una partícula con mucha precisión, pero entonces no sabremos exactamente dónde se encuentra; o a la inversa, podemos determinar la posición con precisión, pero entonces su velocidad queda mal definida. Si una partícula tiene espín (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.

La posición y el momento de una partícula nunca lo podremos saber con precisión ilimitada.

No es fácil explicar de forma sencilla de dónde viene esta incertidumbre, pero existen ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar. Para afinar un instrumento se debe escuchar una nota durante un cierto intervalo de tiempo y compararla, por ejemplo, con un diapasón que debe vibrar también durante un tiempo. Notas muy breves no tienen bien definido el tono.

Para que las reglas de la mecánica cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuando más grande y más pesado es un objeto, más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica. Me gustaría referirme a exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por holismo, y que podría definir como “el todo es más que la suma de sus partes”. Si la física nos ha enseñado algo es justo lo contrario. Un objeto compuesto de un gran de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (partículas); basta que sepamos sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes. Por ejemplo, la constante de Planckh, que es igual a 6’626075… × 10-34 Julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.

La mecánica cuántica es muy extraña a nuestro “sentido común”, sabemos que se desenvuelve en ese “universo” de lo muy pequeño, alejado de nuestra vida cotidiana en el macrocosmos tetradimensional que, no siempre coincide con lo que, en aquel otro infinitesimal acontece.

Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisemberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros como Erwin Schrödinger siempre presentaron serias objeciones a interpretación. Quizá funcione bien, pero ¿dónde está exactamente el electrón?, ¿en el punto x o en el punto y? En pocas palabras, ¿dónde está en realidad?, y ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.

Es cierto que, existe otro universo dentro de nuestro del que, aún, nos queda mucho por aprender.

La mecánica cuántica puede ser definida o resumida así: en principio, con las leyes de la naturaleza que conocemos se puede predecir el resultado de cualquier experimento, en el sentido que la predicción consiste en dos factores: el primer factor es un cálculo definido con exactitud del efecto de las fuerzas y estructuras, tan riguroso como las leyes de Isaac Newton para el movimiento de los planetas en el Sistema Solar; el segundo factor es una arbitrariedad estadística e incontrolable definida matemáticamente de estricta. Las partículas seguirán una distribución de probabilidades dadas, primero de una forma y luego de otra. Las probabilidades se pueden calcular utilizando la ecuación de Schrödinger de función de onda (?) que, con muchas probabilidades nos indicará el lugar probable donde se encuentra una partícula en un dado.

Muchos estiman que esta teoría de las probabilidades desaparecerá cuando se consiga la teoría que explique, de forma completa, todas las fuerzas; la buscada teoría del todo, lo que implica que nuestra descripción actual incluye variables y fuerzas que (aún) no conocemos o no entendemos. Esta interpretación se conoce como hipótesis de las variables ocultas.”

También Gerard ‘t Hooft es el autor de lo que han dado en llamar principio holográfico es una conjetura especulativa acerca de las teorías de la Gravedad Cuántica propuesta en 1993 por este autor, y mejorada y promovida por Leonard Susskin en 1995. Postula que toda la información contenida en cierto volumen de un espacio concreto se puede conocer a partir de la información codificable sobre la frontera de dicha región. Una importante consecuencia es que la cantidad máxima de información que puede contener una determinada región de espacio rodeada por una superficie diferenciable está limitada por el área total de dicha superficie.

Por ejemplo, se pueden modelar todos los eventos que ocurran en un cuarto o una habitación creando una teoría en la que sólo tome en cuenta lo que suceda en sus paredes. En el principio holográfico también se afirma que por cada cuatro Unidades de Planck existe al menos un grado de libertad (o una unidad constante de Bolttzmann k de máxima entropía). Esto se conoce como frontera de Bekenstein:

S\le\frac{A}{4}

 

 

donde S es la entropía y A es la unidad de mensura considerada. En unidades convencionales la fórmula anterior se escribe:

S\le \left( \frac{kc^3}{G\hbar} \right) \frac{A}{4} = k \frac{A}{4\ell_P^2}

 

donde:

Claro que esta… ¡Es otra Historia!

emilio silvera

Viajando al Corazón de la Materia

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen de LHC

Física
Un gigante para viajar al interior de la materia (El LHC, el mayor Acelerador de partículas del Mundo). Con la Potencia de 14 Tev se halló el Bosón de Higgs, ahora quieren ir más lejos para saber de las partículas que conforman la “materia oscura” o qué hay, más allá de los Quarks.

Resultado de imagen de la Fuente Europea de Neutrones por Espalación (ESS)

Después del Gran Colisionador de Hadrones (LHC) del CERN, situado en Suiza, otro gran experimento internacional promete sacudir la ciencia y nuestro conocimiento de la naturaleza. Hablamos de la Fuente Europea de Neutrones por Espalación (ESS, por sus siglas en inglés) un gran acelerador lineal de partículas que, como un poderoso microscopio, permitirá observar el interior de los materiales que componen nuestro mundo para así ser capaces de estudiar cómo se mueven e interactúan sus átomos por dentro y conocer los más variados fenómenos y propiedades donde nuestros ojos no llegan.

Resultado de imagen de la Fuente Europea de Neutrones por Espalación (ESS)

Tras un arduo período de selección del lugar de instalación del proyecto –en la que compitieron las ciudades de Bilbao y Debrecen (Hungría)–, la construcción comenzó en 2014. Las primeras pruebas están previstas para 2019 y, si todo sale como se espera, se empezará a trabajar a pleno rendimiento en 2025.

“Nuestra vida tecnológica cada vez depende más de la ciencia básica –señala a Sinc la bioquímica sueca Sindra Petersson Arsköld, que forma parte de los 400 investigadores del proyecto–. La ESS funcionará como un gran microscopio. Pero a diferencia de los microscopios convencionales no utilizará luz o lentes. Usaremos neutrones, partículas presentes en el núcleo del átomo, para ver a través de las cosas. Los neutrones atraviesan el metal como la luz atraviesa el cristal”.

 Resultado de imagen de Resultado de imagen de la Fuente Europea de Neutrones por Espalación (ESS)

             Resultado de la imagen de la fuente europea de neutrones por Espalación (ESS)

Petersson comenta que “al poder estudiar como nunca las propiedades estructurales de la materia  y sus dinámicos procesos internos, como los intercambios de energía, con este nuevo experimento podremos desarrollar baterías de litio más eficientes para los coches eléctricos. Además, se podrá mejorar el desarrollo de medicamentos y el funcionamiento de los trenes magnéticos. Y también podremos penetrar la piedra y ver dentro de huevos fosilizados de titanosaurios hallados en Mongolia sin necesidad de romperlos”, subraya.

Las instalaciones de la ESS ocuparán unas 10 hectáreas (equivalente a 14 canchas de fútbol). Actualmente, la construcción –cuyas obras ha tenido la oportunidad de visitar Sinc– está al 30%.

[Img #45912]

Vista aérea del pasado mes de julio del estado de las obras de construcción de la Fuente Europea de Neutrones por Espalación en Lund (Suecia). (Foto: Perry Nordeng / ESS)

Caminar por su interior –con chaleco, casco, gafas y guantes protectores, después de haber suministrado datos personales y firmado una planilla por si sucede algún accidente– implica prestar atención a cada paso.

Por ejemplo, a lo largo del silencioso y por ahora vacío túnel subterráneo de 537 metros de largo por el que dentro de unos años circularán miles millones de protones generados por dos fuentes de iones. Acelerados por campos magnéticos al 96% de la velocidad de la luz, los pulsos de protones impactarán al final de su viaje por este túnel sobre un blanco, una rueda giratoria de tungsteno.

Imagen relacionada

Será en estas colisiones en las que se producirá el proceso de espalación que le da el nombre a este proyecto: tras una reacción nuclear, por cada protón se generarán 30 neutrones, los verdaderos protagonistas de esta nueva ‘catedral’ de la ciencia moderna, que serán luego distribuidos en 16 instrumentos donde se analizarán las muestras.

“La tecnología necesaria para realizar estos experimentos es tan cara que varios países han tenido que unirse –detalla Petersson–. Suecia podría haberlo hecho sola pero hubiéramos tardado mucho más”.

A un coste de 1.843 millones de euros, no se trata de un proyecto de la UE sino de varios países europeos: 17 hasta el momento. Suecia y Dinamarca –los países anfitriones– pagan el 47,5 % de la construcción mientras que el resto de países que integran este consorcio –entre ellos Francia, Alemania, Italia, Reino Unido– se hace cargo del 52,5% restante. España fue el primer país socio de la ESS que firmó la carta oficial de intenciones en la que asumió un compromiso de aportar el 5% para su construcción.

La elección de Suecia como sede de la construcción de la ESS en mayo de 2009 significó una gran decepción para Bilbao, que desde 2006 anhelaba convertirse en un lugar de referencia en el mapa de la investigación y la ciencia.

Resultado de imagen de la Fuente Europea de Neutrones por Espalación (ESS)

Aun así, desempeña un rol importante: pese a una serie de recortes presupuestarios, en el centro estratégico de tecnologías neutrónicas ESS Bilbao (en Zamudio, Vizcaya), su plantilla de 60 trabajadores se encuentra diseñando y fabricando siete piezas clave de este proyecto: entre ellas una sección del acelerador (Medium Beam Energy Transport o MEBT), un gran espectrómetro llamado Miracles y en especial el ‘corazón’ de la ESS, el target o blanco de choque contra el que se dispararán los protones.

“El diseño desarrollado por ESS Bilbao consiste en unas 7.000 piezas de un material conocido como Wolframio colocados dentro de una rueda de 2,5 metros de diámetro, comenta a Sinc Sira Cordón, responsable de comunicación de este centro de investigación.

Imagen relacionada

“La refrigeración del circuito será por gas helio. Los desarrollos de los trabajos evolucionan favorablemente –añade Cordón–. La comunidad científica española se verá beneficiada por las múltiples aplicaciones que la Fuente Europea de Neutrones por Espalación va a ofrecer para sus investigaciones con materiales en los más diversos sectores: desde el estudio de la eficacia de un detergente a la resistencia de materiales por ejemplo en transportes, la eficacia de las baterías, nuevas terapias contra el cáncer o dosificadores de medicamentos”.

Se espera además la visita de unos 2.000 científicos al año por lo que se está construyendo la Science Village Scandinavia, un pequeño pueblo de 17 hectáreas justo al lado de los límites de la instalación.

“Irónicamente, para visualizar los objetos más pequeños de la naturaleza necesitamos construir las instalaciones científicas más grandes del mundo, dice en un vídeo promocional el actor Patrick Stewart, el recordado capitán Picard de Star Trek y una de las caras famosas que buscan darle visibilidad al proyecto.

“ESS es el Hubble de la física de neutrones. Así como el telescopio espacial nos permite ver en las profundidades del espacio, con la ESS podremos explorar el espacio interior, abriendo una nueva frontera científica y tecnológica y conduciéndonos a descubrimientos que cambiarán la manera en que vemos nuestro mundo y que aún no somos capaces de imaginarnos”.

Aún sin haber comenzado a funcionar esta instalación ya ha deparado la primera gran sorpresa: el descubrimiento inesperado de un antiguo asentamiento de la Edad de Piedra, evidencia de que la gente ha estado viviendo en esta zona de Escandinavia más tiempo de lo que se creía anteriormente.

Durante el otoño de 2013, unos meses antes de la colocación de la primera piedra, 40 arqueólogos rastrillaron el amplio terreno deshabitado de unos 100.000 metros cuadrados, al noreste de Lund. Con paciencia, los investigadores del Museo de Historia Sueca inspeccionaron cada afloramiento que llamaba su atención.

El pasado no tardó en resurgir: como cuenta el director del proyecto, Magnus Andersson, encontraron restos de los primeros granjeros que habitaron el sur de Suecia entre los años 4000 y 3300 a.C. “Durante la excavación, pudimos discernir las huellas de dos casas de unos 13 metros de largo por seis de ancho –señala el arqueólogo–. Una sobre la otra, indicación de que no existieron al mismo tiempo”.

Los investigadores sospechan que varias generaciones habitaron en estas granjas. Cerca de estas cabañas redondas u ovaladas con una chimenea en el centro se encontraron también restos de unas 14 pequeñas chozas, miles de granos carbonizados –en especial cebada–, huesos de ganado, ovejas, cerdos y ciervos, un cementerio y fragmentos de cerámica con trazas de productos lácteos.

Resultado de imagen de Asentamiento de la Edad del Hierro

En este sitio, los arqueólogos hallaron también huellas de personas que vivieron en otro período posterior, durante la Edad de Hierro: restos de casas de madera, pozos y unos diez hornos. El asentamiento al parecer tuvo varios ocupantes porque hay indicaciones de que estuvo ocupado entre los años 500 a.C. hasta la era de los Vikingos, alrededor del 1050.

También encontraron unas 12 tumbas pero debido a las duras condiciones de conservación del suelo no se pudo recuperar mucho salvo dientes, anillos de oro y collares con cuentas de ámbar.

Los arqueólogos cuentan los días. Están ansiosos: desean que la construcción de la ESS termine lo antes posible para que todos estos tesoros recolectados y prolijamente catalogados, en especial los granos de hace casi 6.000 años, sean analizados por este súpermicroscopio nórdico, el futuro gigante de la ciencia europea. (Fuente: SINC)

Todos podemos opinar

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Relativista    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

ELEFANTE MISTERIOSO

Resultado de imagen de Tiempo radial

Para empezar, recordemos estos postulados referentes al tiempo:

Imagen relacionadaImagen relacionada

  • Un reloj atómico en el piso 20 corre más rápido que un reloj en la planta baja
  • Dos gemelos: donde uno de ellos entrara a un agujero negro a la velocidad de la luz, este no envejecería relativamente, a diferencia de su hermano que estando fuera del agujero el tiempo corre más rápido y por ende envejecería.

Resultado de imagen de Paradoja de los gemelos

“Diagrama espacio-tiempo que muestra al gemelo alejarse (primer tramo línea negra) y regresar a la Tierra. En este diagrama la posición de la Tierra en cada instante se mueve a lo largo del eje vertical. La distancia entre la última línea azul y la primera roja representa no envejecido el tiempo ganado por el viajero.”

Estas afirmaciones se basan en la idea donde el espacio y el tiempo es uno mismo y que la materia curva al espacio. Y la idea tal cual de unificar el espacio y el tiempo en una sola cosa es la clave para entender porque el tiempo desde nuestro ángulo pareciera dilatarse.

La realidad es que el espacio-tiempo es más simple que pensar en entender cosas que se dilatan y efectos fuera de una lógica sencilla como envejecer, geométricamente el Espacio-tiempo debe ser una misma cosa y fácil de expresar.

Para comprender el espacio-tiempo Imaginemos que nuestro universo es la cascara de una manzana, donde en sus inicios en tiempo cero, cuando ocurrió el big bang teníamos entonces una mini manzana de tamaño infinitesimal; y ahora, en el tiempo actual, el universo es representado por solo la cascara de la manzana a tamaño normal y que en el futuro simplemente será una manzana mucho más grande que la manzana del tiempo actual, y donde nuestro universo solo radica en la cascara de la manzana.

Y viendo ahora al tiempo como ejes o vectores que salen del big bang hacia todos lados, (no es un eje lineal único y aislado sino infinitos ejes, que forman una especie de asterisco 3D) y estos ejes nos ayuda para una referencia de medición para ver cuánto ha viajado  la cáscara de la manzana, en cada determinado tiempo, y en cada punto del espacio. (el tiempo ahora se vuelve como la distancia de un punto del universo hacia su origen)

Y así como se infla un globo y alguna zona del globo se topa con algún objeto o materia que impida que se infle dicho globo de forma constante, entonces podemos deducir que en nuestro universo (de cáscara de manzana) donde exista mayor materia acumulada, ésta actuará como impedimento para que los vectores del tiempo no crezcan de forma uniforme y constante.

tiempo1

Figura 1: El tiempo (líneas negras) ahora se podría decir que es tan simple como la distancia de un punto del universo hacia su origen…   con un principio claro,  y creciendo al infinito, donde en algunos puntos del espacio el tiempo no ha avanzado tanto en comparación a otros puntos.

En la imagen las líneas negras describen el tiempo donde unas crecen más que otras, y esto se traduce a por ejemplo que varios vectores están llegando a un tiempo X, mientras los vectores del tiempo que se topan con grandes cantidades de materia como un sol, o agujeros negros, el tiempo no será X; Sino X menos un valor Y, todo en relación a la oposición de materia que se encuentre a su paso.

Entonces:

Donde exista mayor acumulación de masa, el tiempo no crece lo que debiera de crecer.

A diferencia donde casi no hay masa y el tiempo continúa sin impedimentos avanzando, de forma radial y constante.

Con esto, podríamos pensar ahora en este ejemplo de como funciona el tiempo:

Poniendo valores arbitrarios: en la cáscara-universo donde no existe un hoyo negro, el tiempo es digamos: t60 y donde existe el hoyo negro el tiempo mide t50. Y si los medimos con los relojes atómicos los resultados son exactamente t60 y t50 respectivamente.

Entonces…Viajar en el tiempo y regresar al mismo lugar de origen ¿será factible?

Pensando como los gemelos que viajan en el tiempo ¿qué ocurre realmente?

Un gemelo que nace en el hoyo negro definitivamente si es más joven con respecto al gemelo que no está en el agujero; pero si el gemelo se avienta en un t60 al hoyo, y dejamos pasar t10 tiempos.  Entonces el gemelo de afuera tendría t70 sin controversias por su edad; pero el gemelo dentro del hoyo si en pocos segundos cae a la misma velocidad de expansión del universo (en sentido contrario), ahora podría tener  t60 años teóricos-constantes, y  sus mediciones estarían en t60 de forma correcta, esto daría una percepción que el tiempo se detuvo para él, y más que viajar en el tiempo solo se está pausando el vector de tiempo en un cierto punto del universo para dicho gemelo; pero seamos más aventurados … si cae más allá del radio del tiempo t60, (viaja más profundo) estaría ahora regresando en el tiempo, emulando un viaje al pasado y chance podrá estar posicionado más al fondo del universo ahora en un tiempo con radio t50).

Lamentablemente, este viaje al pasado primeramente no puede ser en el mismo espacio origen donde vivió nuestro gemelo, sino solo en un hoyo negro… Siempre sería en otra coordenada del espacio-tiempo cuando se hace este viaje.  Y también hay que tomar en cuenta que: si su alrededor es un universo más joven, el mismo debería ser afectado por esta juventud. Por ende, esto genera una paradoja de rejuvenecer que aparte es distinto a parar el tiempo, ya que el problema ahora es, que el tiempo sería menor para el gemelo, y no cero; quisiera pensar que detener el tiempo se asemeja más a la temperatura de la materia y el cero absoluto, donde no se puede traspasar el ir más allá del cero y por ende no debería haber tiempos negativos.

Y en segundo punto, para que esta problemática o paradoja de tiempos restados o negativos ocurra, primero debería haber más materia o energía que comprima el globo o cáscara en solo una porción del espacio, a la misma o mayor velocidad de expansión del universo, cosa que en nuestro universo ni acumulando toda la materia en un punto ocurriría, haciendo que se no se cumpla tener tiempos negativos.  (al final los hoyos negros son como hormiguitas tratando de frenar una expansión y sin saber que siguen siendo arrastrados en sentido contrario, aunque den su mayor esfuerzo por frenar la expansión)

Entonces: un viaje en el tiempo, al final implica a lo mucho solo detener el tiempo, supongo que para algunas personas suena genial ser inmortal; pero al menos que migremos nuestra casa, nuestros amigos y nuestra ciudad al hoyo negro no tendría sentido ser materia que no envejece tan lejos del hogar.

Por otro lado, si hipotéticamente encontramos energía suficiente (más energía y materia de lo que existe en nuestro universo) para rebasar ese umbral de la velocidad de expansión del universo no  sabríamos si corremos el riesgo de desgarrar nuestro universo, así como una aguja trata de frenar la inflación de un globo. (generar tanta energía en tan poco espacio pudiera desestabilizar el orden de dicho universo).

tiempo2

Figura 2: Comprimir el tiempo en un solo punto del universo requiere más energía-materia de la que existe en nuestro universo, el cual hace que en nuestro universo sea probablemente imposible comprimir o parar el tiempo.

Reflexionando… Si esta geometría del espacio-tiempo llegara a ser correcta, entoces nos abre a más ideas, como por ejemplo, ahora tampoco habría impedimento para encontrar zonas del universo que avanzan, envejecen más rápido que el tiempo constante-radial actual. (como en una llanta radial donde se ha abombado y roto sus hilos radiales, generando una burbuja, esto por falta de materia que funja como red o freno a la presión del tiempo)

tiempo3

Figura 3: Donde no exista concentración de materia (abombamiento hipotético) en el espacio, el tiempo sería mayor. (el tiempo se extiende más) ya que la distancian desde el big bang será mayor en relación a otros puntos del universo donde exista mas materia.

Si estas zonas existen, deberían ser zonas de vacíos extremos, de vacíos de materia dentro de nuestro universo… Y si pudiéramos, en vez de enfocarnos en hoyos negros, enfocarnos en estas protuberancias para experimentar viajar al futuro, sin el riesgo de ser desgarrados por tanta gravedad dentro de un hoyo negro… Ahora nuestro problema para viajar es emular la gravedad y presión constante en un vacio, y esto con una simple aceleración radial de cuerpos se pudiera emular.

Hagamos este otro experimento mental:

Supongamos que el tiempo actual es t60 y viajamos en unos segundos en una máquina tipo odisea 2000 con rotación gravitatoria hacia un tiempo t70 abombado, internamente al haber gravedad o masa emulada podríamos envejecer a velocidad similar a la tierra (salvándonos de no envejecer los t10 tiempos), y seríamos casi igual de jóvenes; pero ahora en un espacio t70 , aunque solo dentro de la nave girando el tiempo es t60, emulando que fuimos al futuro; pero en un espacio o coordenada distinta a nuestro origen.

Y si ahora pretendemos regresar al espacio-tiempo t60 origen, desplazándonos a nuestro espacio t60 en unos segundos.  Realmente lo que conseguiríamos (óptimamente) es solo ser más viejos por unos segundos con respecto a los que dejamos en tierra (más segundos de ida  y segundos de regreso)…pero si nuestro sueño es el viaje en el tiempo para ser jóvenes y ver el futuro como en las películas, implicaría mejor mandar a toda la tierra sin nosotros a este viaje y esperar unos segundos a que la tierra regrese. (simplemente al revés que el los viajes dentro de un agujero negro)

Nota: obviamente no podemos viajar en pocos segundos a una zona del universo donde detectemos este vacio o tiempo abombado: y hacer el viaje  costaría un tiempo de ida y otro de regreso más de vejez a nuestros viajeros o a nuestros objetos que enviemos a este viaje. (simplemente no son solo segundos como el ejemplo anterior)

 Resultado de imagen de Paradoja de los gemelos

Para finalizar remontando a Einstein y para entender mejor el espacio-tiempo pareciera que:

Viajando a la velocidad cercana de la luz; y regresar al punto de partida, la teoría dice que el gemelo viajero es más joven que el gemelo de la tierra…. Pareciera que envejecer no depende tanto de la velocidad de la luz; sino de la concentración de masa que existe a esa velocidad, la cual se vuelve infinita la masa, y que hace que el vector tiempo no crezca en comparación a otros vectores, y por ende éste tiempo no avance, similar a lo que ocurre en un hoyo negro, y de la misma forma, pero a la inversa, el tiempo avanzará mas, si algo o alguien viaja hacia un abombamiento radial hipotético y regresa después a su punto de origen.

visto de otra forma, tendríamos que:

E = mc2 (Energía es igual a Masa por la velocidad de la luz al cuadrado)
Hoy entendemos que viajar a la velocidad de c = frenar el tiempo
viajar a la cercana velocidad de c = desacelerar el tiempo
¿Pero será “c”  o sera “m” quien provoca este freno? al final  la masa que tiende a infinito es quien impide que siga el vector tiempo a su velocidad normal.

Hacer viajar un fotón a la velocidad de la luz no genera más gravedad o masa, los fotones no tienen masa; pero hacer viajar una partícula con masa a la velocidad de la luz efectivamente la masa aparenta volverse infinita…además que para que exista masa se requieren de bosones Higs, y no de bosones de tipo fotón,  y entonces la masa es la responsable de frenar el avance del tiempo en un cierto punto del espacio. ( y así llegamos a entender que el espacio es curvo y que el tiempo no es constante en todo el espacio)

Lo que Einstein encontró como espacio-tiempo y su deformación por la gravedad,  también se puede explicar con peras o simplemente con manzanas.

Curioso, Newton usó una manzana para explicar la gravedad, y ahora una manzana sirve para explicar como la gravedad y el espacio se relaciona con lo que hoy llamamos el tiempo.

Autor: Luis Palau

La Física es la llave del futuro

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (4)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Resultado de imagen de Makoto Kobayashi (1944). Japón, que descubrió el origen de la ruptura de simetría que predice la existencia de, al menos tres familias de Quarks en la Naturaleza.Resultado de imagen de el origen de la ruptura de simetría que predice la existencia de, al menos tres familias de Quarks en la Naturaleza.

Makoto Kobayashi (1944). Japón, que descubrió el origen de la ruptura de simetría que predice la existencia de, al menos tres familias de Quarks en la Naturaleza.


Resultado de imagen de el origen de la ruptura de simetría que predice la existencia de, al menos tres familias de Quarks en la Naturaleza.

“Se entregó este año la mitad del premio Nobel de Física a: Yoichiro Nambu (Universidad Chicago, USA) por descubrir el “mecanismo del quiebre espontaneo de la simetría en la física subatómica”. La otra mitad del premio fue entregada a los científicos japoneses Makoto Kobayashi (KEK) y Toshihide Maskawa (YITP) por su contribución en el descubrimiento del “origen del quiebre de simetria el cual predice la existencia de al menos tres familias de quarks en la naturaleza”

Resultado de imagen de Mecanismo de Higgs

¿Por qué hay algo en vez de nada? ¿Por qué hay tantas partículas elementales diferentes? Estos laureados con el Premio Nobel de Física de presentaron ideas teóricas que nos suministran una comprensión más profunda de lo que sucede en el interior de los bloques más pequeños que forman la materia.


Resultado de imagen de Las leyes de simetría


La naturaleza de las leyes de simetría se encuentran en el corazón de este tema. O más bien, la ruptura de las simetrías, tanto las que parecen haber existido en nuestro universo desde el principio como aquellas que han perdido su simetría original en alguna parte del camino. De hecho, todos somos hijos de la simetría rota. Ello debió ocurrir inmediatamente después del Big Bang, hace unos 14.000 millones de años cuando fueron creadas la materia y la anti-materia. El contacto de materia y antimateria es fatal para ambas, se aniquilan mutuamente y se transforman en radiación. Es evidente que la materia, al final, ganó la partida a la antimateria, de otra manera nosotros no estaríamos aquí. Pero estamos, y una pequeña desviación de la simetría perfecta parece que ha sido suficiente –un exceso de una partícula de materia por cada diez mil millones de partículas de antimateria fueron suficientes para hacer que nuestro mundo exista-. Este exceso de la materia fue la semilla de nuestro universo, lleno de galaxias, estrellas y planetas y, eventualmente, de vida. Pero lo que hay detrás de esta violación de la simetría en el cosmos es aún un gran misterio y un activo para seguir buscando lo que no sabemos.

Resultado de imagen de Mecanismo de Higgs

La mayoría de los físicos piensa que el llamado mecanismo de Higgs es el responsable de que la simetría original entre fuerzas fuera destruido dando a las partículas sus masas en las primeras etapas del universo. El camino hacia ese descubrimiento fue trazado por Yoichiro Nambu quien, en 1960, fue el primero en introducir la violación espontánea de la simetría en la física de partículas. Es por este descubrimiento por el que se le concede el Premio Nobel de Física.

Tenemos algunos ejemplos banales de violación espontánea de la simetría en la vida diaria. Un lápiz en equilibrio sobre su punta lleva una existencia totalmente simétrica en la cual todas las direcciones son equivalentes. Pero esta simetría se pierde cuando cae -ahora sólo una dirección cuenta-. Por otro lado su condición es ahora más estable, el lápiz no puede volver a caer, ha llegado a su nivel más bajo de energía.


El modelo que tenenos de la física de partículas se llama Modelo Estándar y, nos habla de las interacciones entre partículas y las fuerzas o interrelaciones que están presentes, las leyes que rigen el Universo físico y que, no hemos podido completar al no poder incluir una de las fuerzas: La Gravedad. Claro que, no es esa la única carencia del Modelo, tiene algunas más y, a estas alturas, se va necesitando un nuevo Modelo, más completo y audaz, que incluya a todas las fuerzas y que no tengá parámetros aleatorios allí donde nuestros conocimientos no llegan.

La fealdad del Modelo Estándar puede contrastarse con la simplicidad de las ecuaciones de Einstein, en las que todo se deducía de primeros principios. Para comprender el contraste estético entre el Modelo Estándar y la teoría de la relatividad general de Einstein debemos comprender que, cuando los físicos hablan de “belleza” en sus teorías, realmente quieren decir que estas “bellas” teorías deben poseer al menos dos características esenciales:

  1. Una simetría unificadora.
  2. La capacidad de explicar grandes cantidades de datos experimentales con las expresiones matemáticas más económicas.

E = mc2 . Esta es la mejor prueba de lo que decimos arriba.

Resultado de imagen de Las ecuaciones de campo de la relatividad general

El Modelo Estándar falla en ambos aspectos, mientras que la relatividad general los exhibe, ambos, de manera bien patente. Nunca una teoría dijo tanto con tan poco; su sencillez es asombrosa y su profundidad increíble.De hecho, desde que se publicó en 1.915, no ha dejado de dar frutas, y aún no se han obtenido de ella todos los mensajes que contiene.

El principio director del modelo estándar dicta que sus ecuaciones son simétricas. De igual modo que una esfera ofrece el mismo aspecto desde cualquier punto de vista, las ecuaciones del modelo estándar subsisten sin variación al cambiar la perspectiva desde la que son definidas. Las ecuaciones permanecen invariables, además, cuando esta perspectiva se desplaza en distinta magnitud a diferentes puntos del espacio y el tiempo.

Al contrario de la relatividad general, la simetría del Modelo Estándar, está realmente formada empalmando tres simetrías más pequeñas, una por cada una de las fuerzas; el modelo es espeso e incómodo en su forma. Ciertamente no es económica en modo alguno. Por ejemplo, las ecuaciones de Einstein, escritas en su totalidad, sólo ocupan unos centímetros y ni siquiera llenaría una línea de esta página. A partir de esta escasa línea de ecuaciones, podemos ir más allá de las leyes de Newton y derivar la distorsión del espacio, el Big Bang y otros fenómenos astronómicos importantes como los agujeros negros. Por el contrario, sólo escribir el Modelo Estándar en su totalidad requeriría, siendo escueto, un par de páginas  y parecería un galimatías de símbolos complejos sólo entendibles por expertos.

Los científicos quieren creer que la naturaleza prefiere la economía en sus creaciones y que siempre parece evitar redundancias innecesarias al crear estructuras físicas, biológicas y químicas.

 

La luz antigua absorbida por átomos de hidrógeno neutro podría usarse para probar ciertas predicciones de la Teoría de Cuerdas, dicen los cosmólogos de la Universidad de Illinois. Realizar tales medidas, sin embargo, requeriría que se construyese un gigantesco conjunto de radio telescopios en la Tierra, el espacio, o la Luna.

El matemático francés Henri Poincaré lo expresó de forma aún más franca cuando escribió: “El científico no estudia la Naturaleza porque es útil; la estudia porque disfruta con ello, y disfruta con ello porque es bella

E. Rutherford, quien descubrió el núcleo del átomo (entre otras muchas cosas), dijo una vez: “Toda ciencia es o física o coleccionar sello”.Se refería a la enorme importancia que tiene la física para la ciencia, aunque se le olvidó mencionar que la física está sostenida por las matemáticas que la explica.

Pero, a pesar de todos sus inconvenientes, el Modelo Estándar, desde su implantación, ha cosechado un éxito tras otro, con sus inconvenientes y sus diecinueve parámetros aleatorios, lo cierto es que es lo mejor que tenemos por el momento para explicar las familias de partículas que conforman la materia y cómo actúan las fuerzas de la naturaleza, todas las fuerzas menos la gravedad; esa nos la explica a la perfección y sin fisuras las ecuaciones de Einstein de la relatividad general.

Hace tiempo que los físicos tratan de mejorar el Modelo Estándar con otras teorías más avanzadas y modernas que puedan explicar la materia y el espacio-tiempo con mayor amplitud y, sobre todo, incluyendo la gravedad.Así que retomando la teoría de Kaluza de la quinta dimensión, se propuso la teoría de supergravedad en 1.976 por los físicos Daniel Freedman, Sergio Ferrara y Peter van Nieuwenhuizen, de la Universidad del Estado de Nueva York en Stoney Brook que desarrollaron esta nueva teoría en un espacio de once dimensiones.

Para desarrollar la superteoría de Kaluza-Klein en once dimensiones, uno tiene que incrementarenormemente las componentes del interior del Tensor métrico de Riemann (que Einsteinutilizó en cuatro dimensiones, tres de espacio y una de tiempo para su relatividad general y más tarde, Kaluza, añadiendo otra dimensión de espacio, la llevó hasta la quinta dimensión haciendo así posible unir la teoría de Einstein de la gravedad, con la teoría de Maxwell del electromagnetismo), que ahora se convierte en el supertensor métrico de Riemann.

Hasta hoy, no se ha logrado, ni mucho menos, inventar una teoría de campo consistente totalmente unificadora que incluya la gravedad. Se han dado grandes pasos, pero las brechas «científicounificantes» siguen siendo amplias. El punto de partida ha sido siempre la teoría de la relatividad general y conceptos con ella relacionados, por la excelencia que manifiesta esa teoría para explicar la física gravitatoria macrocósmica. El problema que se presenta surge de la necesidad de modificar esta teoría sin perder por ello las predicciones ya probadas de la gravedad a gran escala y resolver al mismo tiempo los problemas de la gravedad cuántica en distancias cortas y de la unificación de la gravedad con las otras fuerzas de la naturaleza.

Su tensor métrico es un tensor de rango 2 que se utiliza para definir … Sin embargo, en otras teorías se ha elevado el rango y se pueden definir múltiples universos de dimensiones más altas.

El tensor métrico se podría adaptar a las necesidades de la búsqueda estableciendo la multiplicidad de dimensiones que la teoría exigía para su desarrollo.

 

Más allá de lo que nos permiten captar nuestros sentidos físicos, hay que tener nuestra mente abierta a la posibilidad de que puedan existir otras realidades diferentes a lo que nos dicta nuestra experiencia, realidades capaces de ser descubiertas por la fuerza del intelecto cuando nos atrevemos a cuestionar aquello que creíamos como absoluto.

Esta nueva teoría de supergravedad pretendía la unificación de todas las fuerzas conocidas con la materia, y, como en un rompecabezas, encajarlas en el Tensor de Riemann tan solo con elevar el número de dimensiones que exigía más componentes y nos daba el espacio necesario para poder ubicar en sus apartados correspondientes, todas las fuerzas fundamentales y también la materia, la que podía satisfacer, casi en su totalidad, el sueño de Einstein.

Cuando los físicos hablan de ecuaciones bellas, se refieren a ecuaciones como ésta que, con tan pocos signos y guarismos pueden decir… ¡tantas cosas!

A partir de aquí, de estas ecuaciones, surgió todo. Este fue el puerto de donde salió el bajel de la teoría de Kaluza-Gleim, la supergravedad y supersimetría, la cuerda heterótica y la Teoría de cuerdas, todo ello, rematado con la finalmente expuesta, teoría M. También, con el nacimiento de esta ecuación que es la imagen que mejor refleja hasta dónde puede3 llegar el intelecto humano, comenzó la verdadera cosmología.

La supergravedad casi consigue satisfacer el sueño de Einstein de dar una derivación puramente geométrica de todas las fuerzas y partículas del universo. Al añadir la supersimetría al Tensor métrico de Riemann, la métrica se duplica en tamaño, dándonos la supersimetría de Riemann. Las nuevas componentes del súper tensor de Riemann corresponden a quarks y leptones, casi todas las partículas y fuerzas fundamentales de la naturaleza: la teoría de la gravedad de Einstein, los campos de Yang-Mills y de Maxwell y los quarks y leptones. Pero el hecho de que ciertas partículas no estén en esta imagen nos obliga a buscar un formalismo más potente:

La materia con todas las fuerzas fundamentales de la naturaleza. Los bosones intermediarios o partículas portadoras de las fuerzas como el fotón para el electromagnetismo, los gluones para la fuerza nuclear fuerte, las partículas W y Z para la nuclear débil y, en la partícula portadora de la gravedad, el gravitón, ponemos el signo de interrogación, ya que se sabe que esta ahí en algún sitio pero hasta la fecha no ha sido detectado.

Antes de continuar con la teoría de súper cuerdas, o con su versión más avanzada la teoría M, parece conveniente recordar que hasta el momento los ladrillos del universo eran los quarks, las partículas más pequeñas detectadas en los aceleradores del CERN y FERMILAB. Pero ¿están hechos de cosas más pequeñas?, eso no lo sabemos. El Modelo Estándar, menos avanzado que las otras teorías, nos dice que los quarks son las partículas más pequeñas y forman protones y neutrones constituyendo la formación interna del átomo, el núcleo. En la actualidad, nuestros aceleradores de partículas no tienen capacidad para ahondar más allá de los quarks y averiguar si a su vez, éstos están formados por partículas aún más pequeñas.

 

No podemos saber (aún) que es lo que pueda haber (si es que lo hay) más allá de los Quarks, los constituyentes de la materia más pequeños conocidos hasta el momento actual. Sin embargo, no se descarta que puedan existir partículas más simples dentro de los Quarks que, al fin y al cabo, no serían tan elementales.

Por otro lado, los físicos están casi seguros de que los leptones no están compuestos de partículas más pequeñas. Sin embargo, esta sospecha no se tiene en el caso de los quarks; no se sabe qué puede haber detrás de ellos. Tan sólo se ha llegado a desconfinarlos junto con los gluones y por un breve periodo de tiempo de los protones y neutrones que los mantenían aprisionados, formando – en esos breves instantes – una materia plasmosa. No es raro oir dentro de la comunidad científica a los físicos teóricos hablando de prequarks.

Como antes hemos comentado de pasada, el Modelo Estándar agrupa las partículas en familias:

Claro, son muchos más. Además de los Bariones, también forman parte de la familia hadrónica los mesones y la lista de unos y otros es larga y cada individuo, como es natural, tiene sus propias características que lo hacen único.

Hadrones: Bariones: protónneutrón , Lambda, omega, etc.
Mesones: piónkaón, psí, etc.
Quarks: up, down, charmed, strange, top y botton
Leptones: electrónmuón y tau (y sus neutrinos asociados), neutrinoelectrónico, muónico y tauónico

Y describe las interacciones que estas partículas tienen con las cuatro fuerzas fundamentales de la naturaleza, sobre todo con las nucleares fuerte y débil y la electromagnética; la gravedad se queda aparte del Modelo Estándar, ya que su incidencia con las partículas elementales es inapreciable como consecuencia de las infinitesimales masas de éstas, y ya sabemos que la gravedad se deja sentir y se hace presente cuando aparecen las grandes masas como planetas, estrellas y galaxias.

Grandes estructuras que vienen a ser como pequeños ”universos islas” en los que podemos estudiar, a menos tamaño, todo lo que en el Gran Universo puede pasar. Partiendo de la base de que las leyes del universo son las mismas en todas partes, podemos tomar cualquier región del mismo y ver que, allí está ocurriendo lo mismo que aquí ocurre, es decir, están presentes las fuerzas fundamentales: nucleares débiles y fuertes, electromagnetismo y Gravedad y, todo, absolutamente todo, funciona al ritmo que dichas leyes nos marcan.

Como el Modelo Estándar es limitado, los físicos buscan desesperadamente nuevas teorías que puedan corregir y perfeccionar este modelo. Así aparecieron las teorías de súper simetría, súper gravedad, súper cuerdas, y ahora por último, la teoría M propuesta por Edward Witten en 1.995 y que nos quiere explicar, de manera más perfecta, el universo desde su origen, cómo y por qué está conformado ese universo, las fuerzas que lo rigen, las constantes de la naturaleza que establecen las reglas, y todo ello, a partir de pequeños objetos infinitesimales, las cuerdas, que sustituyen a las partículas del modelo estándar que creíamos elementales.

Esas partículas súper simétricas que pronostican algunas teorías, aún no han sido observadas y se espera que en el LHC puedan aparecer algunas que, desde luego, si así ocurre, sería un buen adelanto para conocer el mundo que nos acoge y la Naturaleza del Universo.

Esta nueva teoría, permite además, unificar o incluir la gravedad con las otras fuerzas, como teoría cuántica de la gravedad, todo ello mediante una teoría estructurada y fundamentada con originalidad y compactificación de las cuatro fuerzas de la naturaleza y dejando un gran espacio matemático para eliminar anomalías o perturbaciones, y se propugna con coherencia quela cuerda es el elemento más básico de la estructura de la materia; lo que estaría bajo los quarks serían unas diminutos círculos semejantes a una membrana vibrante circular y de diferentes conformaciones.

Universos Paralelos, Teorías de Cuerdas, Súper gravedad, La Teoría M, y ¿Los pensamientos de la Mente, podrán dar para tanto?

Una vez se escucha sobre los fundamentos de la teoría cuántica uno no puede mas que sobrecogerse, ampliar la mente y galopar entre las múltiples posibilidades acerca de lo real e imaginario que por momentos y depende que conceptos se entrelazan intercambiables. Lo que llama la atención es que por mucho que hayan sido los físicos cuánticos más prestigiosos entre la sociedad científica los que hayan puesto sobre la mesa conceptos cuanto menos rimbombantes e inverosímiles como las multi-dimensiones, los universos paralelos, los efectos túneles y demás, sean los propios miembros  de la academia los que grandilocuentemente se ofenden cuando se hace alusión al paralelismo evidente del comportamiento y extensión de la energía  en referencia al universo preconizado por los místicos de muchas culturas. No tenemos los conocimientos necesarios para poder decir que no a esto o aquello, cada cosa tiene su lugar y tendremos que analizarlas muy a fondo y adentrarnos en esos mundos de misterio para poder decidir lo que es y lo que no puede ser.

Aquí hemos llegado a una región de la Física de las partículas donde la energía (por partícula) es mucho mayor de la que actualmente podemos estudiar en nuestros laboratorios. Claro que especulamos, pero con los datos de los que disponemos, la realidad estará muy cerca de la expuesta en el gráfico, y, en él se señalan energía que no están a nuestro alcance para conseguir lo que se quiere saber.

Ed Witten, en su trabajo, presentó amplias evidencias matemáticas de que las cinco teorías obtenidas de la primera revolución, junto con la más reciente conocida como la súper gravedad (súper cuerda después), en 11 dimensiones, eran de hecho parte de una teoría inherentemente cuántica y no perturbativa conocida como teoría M. Las seis teorías están conectadas entre sí por una serie de simetrías de dualidad T, S, y U. Además, de la teoría propuesta por Witten se encuentran implícitas muchas evidencias de que la teoría M no es sólo la suma de las partes, sino que se vislumbra un alentador horizonte que podría concluir como la teoría definitiva tan largamente buscada.

 

Los resultados de la segunda revolución de las súper cuerdas han demostrado que las cinco teorías de cuerdas forman parte de un solo marco unificado, llamado Teoría M.

Las súper cuerdas, en realidad, sólo es otra manera utilizada por los científicos a la búsqueda de la verdad que la Humanidad necesita y reclama para continuar con su propia evolución que, sin esos conocimientos, quedaría estancada.

Como se puede ver, las partículas implicadas en el Modelo Estándar están en un mundo microscópico de 10-17cm que sí dominan nuestros aceleradores, mientras que la cuerda está en una distancia de 10-33 cm que les está prohibida, allí no podemos llegar, no disponemos de la energía suficiente para ello.

 

Igual que con la energía disponible por el momento, nos pasa con las distancias, que también nos tiene paralizados en nuestros deseos de visitar mundos lejanos, no podemos, al no disponer de los medios necesarios para poder soslayar las distancias de tantos años-luz como tendríamos que recorrer. ¿Habrá otro camino?

Está muy claro para los físicos que, aunque teóricamente, en la Teoría de Súper cuerdas se pueden unir todas las fuerzas, todavía tenemos que seguir sosteniendo que la gravedad resulta una fuerza solitaria para todos los efectos, ya que ha resistido todos los intentos para saber, con certeza, si finalmente se podrá unir a las otras fuerzas de la Naturaleza. La gravedad está descrita por la teoría de la relatividadgeneral de Einstein y tiene una naturaleza esencialmente geométrica. Se entiende como la curvatura del espacio-tiempo alrededor de un objeto masivo. En los gráficos, generalmente, se representa como un objeto pesado sobre una superficie fina y tensa (una pelota o bola pesada de jugar a los bolos que dejamos encima de una sábana extendida tirando de las cuatro esquinas). El peso de la bola (materia) hundirá la sábana (espacio-tiempo) con mayor intensidad en la distancia más cercana a donde se encuentre masa.

 Resultado de imagen de Las ecuaciones de campo de la relatividad general

El espacio tiempo se distorsiona allí donde residen objetos pesados como los planetas, las estrellas, galaxias y cualesquiera otros cuerpos masivos.

La teoría de Einstein goza de una amplia aceptación debido a los aciertos macroscópicos que han sido verificados de manera experimental. Los más recientes están referidos a los cambios de frecuencia de radiación en púlsares binarios debido a la emisión de ondas gravitacionales, que actualmente estudia Kip S. Thorne, en relación a los agujeros negros. Entre las predicciones que Einstein propugna en su teoría se encuentran, por ejemplo, la existencia de ondas gravitacionales, que el universo está en constante expansión y que, por lo tanto, tuvo un inicio: el Big Bang o los agujeros negros.

 

Se trata de regiones donde la gravedad es tan intensa que ni siquiera la luz puede escapar de su atracción. Estas regiones se forman por el colapso gravitatorio de estrellas masivas en la etapa final de su existencia como estrella, acabado el combustible nuclear y no pudiendo fusionar hidrógeno en helio, fusiona helio en carbono, después carbono en neón, más tarde neón en magnesio y así sucesivamente hasta llegar a elementos más complejos que no se fusionan, lo que produce la última resistencia de la estrella contra la fuerza de gravedad que trata de comprimirla, se degeneran los neutrones como último recurso hasta que, finalmente, la estrella explota en supernova lanzando al espacio las capaz exteriores de su material en un inmenso fogonazo de luz; el equilibrio queda roto, la fuerza de expansión que contrarrestaba a la fuerza de gravedad no existe, así que, sin nada que se oponga la enorme masa de la estrella supermasiva, se contrae bajo su propio peso, implosiona hacia el núcleo, se reduce más y más, su densidad aumenta hasta lo inimaginable, su fuerza gravitatoria crece y crece, hasta que se convierte en una singularidad, un lugar en el que dejan de existir el tiempo y el espacio.

Allí no queda nada, ha nacido un agujero negro y a su alrededor nace lo que se ha dado en llamar el Horizonte de Sucesos, que es una región del espacio, alrededor del agujero negro que una vez traspasada no se podrá regresar; cualquier objeto que pase esta línea mortal, será literalmente engullida por la singularidad del agujero negro. De hecho, el telescopio espacial Hubble, ha enviado imágenes captadas cerca de Sagitario X-1, en el centro de nuestra galaxia, donde reside un descomunal agujero negro que, en las fotos enviadas por el telescopio, aparece como atrapa la materia de una estrella cercana y se la engulle.

 

.Ondas gravitacionales que se forman a partir de los agujeros negros que, en su dinámica cotidiana y que, actualmente, estamos tratando de captar para saber de un njhuevo Universo que nos diría muchas cosas de las que ocurren a partir de fenómenos que sabemos existen pero, que hasta el momento no hemos podido “leer”.

Esta es la fuerza que se pretende unir a la Mecánica Cuántica en la teoría de supercuerdas, es decir, que Einstein con su relatividad general que nos describe el cosmos macroscópico, se pueda reunir con Max Planck y su cuanto infinitesimal del universo atómico, lo muy grande con lo muy pequeño.

 Relatividad y Gravedad Cuántica. Universidad de Cambridge.
Relatividad y Gravedad Cuántica. Universidad de Cambridge.

La llamada gravedad cuántica trata de fundir en una sola las dos teorías físicas más soberbias con las que contamos, la relatividad general y la mecánica cuántica, que en el estado actual de nuestro conocimiento parecen incompatibles. Su estudio, ahora mismo, es en algunos aspectos análogo a la física de hace cien años, cuando se creía en los átomos, pero se ignaraban los detalles de su estructura.

Hasta el momento, Einstein se ha negado a esta reunión y parece que desea caminar solo. Las otras fuerzas están presentes en el Modelo Estándar, la gravedad no quiere estar en él, se resiste.

De hecho, cuando se ha tratadode unir la mecánica cuántica con la gravedad, aunque el planteamiento estaba muy bien formulado, el resultado siempre fue desalentador; las respuestas eran irreconocibles, sin sentido, como una explosión entre materia y antimateria, un desastre.

Sin embargo, es preciso destacar que las nuevas teorías de súper-simetría, súper-gravedad, súper-cuerdas o la versión mas avanzada de la teoría M de Ed Witten, tienen algo en común: todas parten de la idea expuesta en la teoría de Kaluza-Klein de la quinta dimensión que, en realidad, se limitaba a exponer la teoría de Einstein de la relatividad general añadiendo otra dimensión en la que se incluían las ecuaciones de Maxwell del electromagnetismo.

Hasta hoy no se ha logrado, ni mucho menos, inventar una teoría de campo que incluya la gravedad. Se han dado grandes pasos, pero la brecha “científicounificante” es aún muy grande. El punto de partida, la base, ha sido siempre la relatividad y conceptos en ella y con ella relacionados, por la excelencia que manifiesta esa teoría para explicar la física gravitatoria cósmica. El problema que se plantea surge de la necesidad de modificar esta teoría de Einstein sin perder por ello las predicciones ya probadas de la gravedad a gran escala y resolver al mismo tiempo el problema de la gravedad cuántica en distancias cortas y de la unificación de la gravedad con las otras fuerzas de la naturaleza. Desde la primera década del siglo XX se han realizado intentos que buscan la solución a este problema, y que han despertado gran interés.

Después de la explosión científica que supuso la teoría de la relatividad general de Einstein que asombró al mundo, surgieron a partir e inspiradas por ella, todas esas otras teorías que antes he mencionado desde la teoría Kaluza-Klein a la teoría M.

 

                                      Esas complejas teorías cuánticas nos quieren acercar al misterio que encierra la materia: ¡El Espíritu de la Luz!

Es de enorme interés el postulado que dichas teorías expone. Es de una riqueza incalculable el grado de complejidad que se ha llegado a conseguir para desarrollar y formular matemáticamente estas nuevas teorías que, como la de Kaluza-Klein o la de supercuerdas (la una en cinco dimensiones y la otra en 10 ó 26 dimensiones) surgen de otra generalización de la relatividad general tetradimensional einsteniana que se plantea en cuatro dimensiones, tres espaciales y una temporal, y para formular las nuevas teorías se añaden más dimensiones de espacio que, aunque están enrolladas en una distancia de Planck, facilitan el espacio suficiente para incluir todas las fuerzas y todos los componentes de la materia, tratando de postularse como la Teoría de Todo.

   Dimensiones enrolladas ¿En un espacio-tiempo fractal? La Naturaleza sabe de eso

La Gran Teoría Unificada que todo lo explique es un largo sueño acariciado y buscado por muchos. El mismo Einstein se pasó los últimos treinta años de su vida buscando el Santo Grial de la teoría del todoen la física, unificadora de las fuerzas y de la materia. Desgraciadamente, en aquellos tiempos no se conocían elementos y datos descubiertos más tarde y, en tales condiciones, sin las herramientas necesarias, Einstein no podría alcanzar su sueño tan largamente buscado. Si aún viviera entre nosotros, seguro que disfrutaría con la teoría de súper-cuerdas o la teoría M, al ver como de ellas, sin que nadie las llame, surgen, como por encanto, sus ecuaciones de campo de la relatividad general.

La fuerza de la Naturaleza, en el universo primitivo del Big Bang, era una sola fuerza y el estado de la materia es hoy conocido como “plasma”; las enormes temperaturas que regían no permitía la existencia de protones o neutrones, todo era como una sopa de quarks. El universo era opaco y estaba presente una simetría unificadora.

Más tarde, con la expansión, se produjo el enfriamiento gradual que finalmente produjo la rotura de la simetría reinante. Lo que era una sola fuerza se dividió en cuatro. El plasma, al perder la temperatura necesaria para conservar su estado, se trocó en quarks que formaron protones y neutrones que se unieron para formar núcleos. De la fuerza electromagnética, surgieron los electrones cargados negativamente y que, de inmediato, fueron atraídos por los protones de los núcleos, cargados positivamente; así surgieron los átomos que, a su vez, se juntaron para formar células y éstas para formar los elementos que hoy conocemos. Después se formaron las estrellas y las galaxias que sirvieron de fábrica para elementos más complejos surgidos de sus hornos nucleares hasta completar los 92 elementos naturales que conforma toda la materia conocida. Existen otros elementos que podríamos añadir a la Tabla, pero estos son artificiales como el plutonio o el einstenio.

                                  La materia ha evolucionado hasta límites increíbles: ¡la vida! y, aún no sabemos, lo que más allá pueda esperar.

                            ¿Quizás hablar sin palabras, o, Incluso algo más?

Estos conocimientos y otros muchos que hoy posee la ciencia es el fruto de mucho trabajo, de la curiosidad innata al ser humano, del talento de algunos y del ingenio de unos pocos, todo ello después de años y años de evolución pasando los descubrimientos obtenidos de generación en generación.

¿Cómo habría podido Einstein formular su teoría de la relatividad general sin haber encontrado el Tensor métrico del matemático alemán Riemann?

¿Qué formulación del electromagnetismo habría podido hacer James C. Maxwell sin el conocimiento de los experimentos de Faraday?

La relatividad especial de Einstein, ¿habría sido posible sin Maxwell y Lorentz?

¿Qué unidades habría expuesto Planck sin los números de Stoney?

 

En realidad… ¿Cómo comenzaría todo? Mientras encontramos la respuesta, observamos como el Universo se expande y se vuelve viejo y frío.

Así podríamos continuar indefinidamente, partiendo incluso, del átomo de Demócrito, hace ahora más de dos milenios. Todos los descubrimientos e inventos científicos están apoyados por ideas que surgen desde conocimientos anteriores que son ampliados por nuevas y más modernas formulaciones.

Precisamente, eso es lo que está ocurriendo ahora con la teoría M de las supercuerdas de Witten. Él se inspira en teorías anteriores que, a su vez, se derivan de la original de A. Einstein que pudo surgir, como he comentado, gracias al conocimiento que en geometría aportó Riemann con su tensor métrico.

emilio silvera

¡Conocer la Naturaleza! Hoy sólo un sueño ¿Realidad mañana?

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios


 

“A partir de sus principios en Sumeria alrededor del 3500 a.C., en Mesopotamia, en los pueblos del norte comenzaron a intentar registrar la observación del mundo con datos cuantitativos y numéricos sumamente cuidados. Pero sus observaciones y medidas aparentemente fueron tomadas con otros propósitos más que la ley científica. Un caso concreto es el del teorema de Pitágoras, que fue registrado, aparentemente en el siglo XVII a. C.: la tabla mesopotámica Plimpton 322 registra un número de trillizos pitagóricos (3,4,5) (5,12,13)…., datado en el 1900 a. C., posiblemente milenios antes de Pitágoras, pero no era una formulación abstracta del teorema de Pitágoras.

 

 

Resultado de imagen de La Química en el antiguo Egipto

 

 

Los avances significativos en el Antiguo Egipto son referentes a la astronomía, a las matemáticas y a la medicina. Su geometría era una consecuencia necesaria de la topografía, con el fin de intentar conservar la disposición y la propiedad de las tierras de labranza, que fueron inundadas cada año por el Nilo. La regla del triángulo rectángulo y otras reglas básicas sirvieron para representar estructuras rectilíneas, el pilar principal de la arquitectura dintelada egipcia. Egipto era también el centro de la química y la investigación para la mayor parte del Mediterráneo. “

 

 

Nuevas paradigmas en la Física Moderna

           Por Isabel Pérez Arellano y Róbinson Torres Villa

Isabel Pérez Arellano y Róbinson Torres Villa, publicaron un artículo en 2009, sobre la física moderna y sus paradigmas y, comenzaban diciendo:


“Desde siempre el hombre ha intentado dar respuesta a los interrogantes más profundos que lo inquietan; preguntas que van desde ¿Quién soy?, ¿de dónde vengo? ¿y hacia dónde voy?, hasta los intentos por explicar el origen y final universo en qué vive. Muchas son las prepuestas que se han dado a esos interrogantes, dependiendo de la corriente de pensamiento seguida por quien aborda esas preguntas; es así como se ven aproximaciones místicas, esotéricas, religiosas y científicas entre otras; pero todas con el objetivo de dilucidar alguna respuesta a esas preguntas fundamentales.

Desde el punto de vista científico y concretamente de la física moderna, se han planteado algunas explicaciones del universo en el que vivimos que algunas veces rozan con lo fantástico, dado el nivel de abstracción o especulación que llevan implícito, todo obviamente avalado por sofisticados modelos matemáticos que al parecer soportan las hipótesis planteadas.”

 

 

 

Si repasamos la historia de la ciencia, seguramente encontraremos muchos motivos para el optimismo. Por mencionar a un científico de nuestro tiempo, escojamos a E. Witten que está convencido de que la ciencia será algún día capaz de sondear hasta las energías de Planck. Como ya he contado en otras ocasiones, él dijo:

Resultado de imagen de El agua hierve a los 100 grados

“No siempre es tan fácil decir cuáles son las preguntas fáciles y cuáles las difíciles. En el siglo XIX, la pregunta de por qué el agua hierve a 100 grados era desesperadamente inaccesible. Si usted hubiera dicho a un físico del siglo XIX que hacia el siglo XX sería capaz de calcularlo, le habría parecido un cuento de hadas… La teoría cuántica de campos es tan difícil que nadie la creyó completamente durante 25 años.”

 

En su opinión, las buenas ideas siempre se verifican. Los ejemplos son innumerables: la gravedad de Newton, el campo eléctrico de Faraday y el electromagnetismo de Maxwell, la teoría de la relatividad de Einstein en sus dos versiones y su demostración del efecto fotoeléctrico, la teoría del electrón de Paul Dirac, el Principio de Incertidumbre de Heisenberg, la función de ondas de Schrödinger, o, el Principio de Exclusión de Pauli y tantos otros. Algunos de los físicos teóricos más famosos, sin embargo, protestaban de tanto empeño en la experimentación.

Arthur Stanley Eddington.jpg

Arthur Eddington es famoso por su trabajo relacionado con la Teoría de la Relatividad. Eddington escribió un artículo en 1919- Report on the relativity theory of gravitation (Informe sobre la teoría relativista de la gravitación), que transmitió la Teoría de la Relatividad de Einstein al mundo anglosajón. Debido a la Primera Guerra Mundial,  los avances científicos alemanes no eran muy conocidos en Gran Bretaña. 

Demostró que la energía en el interior de las estrellas era transportada por radiación y convección. Estos trabajos quedaron plasmados en el libro The Internal Constitution of the Stars (1926). Era un gran científico y se hizo amigo de Einstein desde que comprobó que éste llevaba razón en sus predicciones cuando comprobó que la luz se curva en presencia de grandes masas, como consecuencia de un eclipose solar.

Imagen relacionadaResultado de imagen de verificar las teorías físicas

Arthur Eddington se cuestionaba incluso si los científicos no estaban forzando las cosas cuando insistían en que todo debería ser verificado. El premio Nobel Paul dirac incluso llegó a decir de forma más categórica: “Es más importante tener belleza en las ecuaciones que tener experimentos que se ajusten a ellas“, o en palabras del físico John Ellis del CERN, “Como decía en una envoltura de caramelos que abrí hace algunos años, «Es sólo el optimista el que consigue algo en este mundo».

Yo, como todos ustedes, un hombre normal y corriente de la calle, escucho a unos y a otros, después pienso en lo que dicen y en los argumentos y motivaciones que les han llevado a sus respectivos convencimientos, y finalmente, también decido según mis propios criterios y emito mi opinión de cómo es el mundo que, no obligatoriamente, coincidirá con alguna de esas opiniones, y que en algún caso, hasta difieren radicalmente.

Suponiendo que algún físico brillante nos resuelva la teoría de campos de cuerdas y derive las propiedades conocidas de nuestro universo, con un poco de suerte, podría ocurrir en este mismo siglo, lo que no estaría nada mal considerando las dificultades de la empresa. El problema fundamental es que estamos obligando a la teoría de supercuerdas a responder preguntas sobre energías cotidianas, cuando su “ámbito natural” está en la energía de Planck. Esta fabulosa energía fue liberada sólo en el propio instante de la creación, lo que quiere decir que la teoría de supercuerdas tiene su explicación allí, en aquel lugar y tiempo donde se produjeron las mayores energías conocidas en nuestro Universo y que, nosotros, no podemos alcanzar -de momento.

Las primeras observaciones realizadas por Planck | ESA y Axel Mellinger.

Fuimos capaces de predecir que el Big Bang produjo un “eco” cósmico reverberando en el universo y que podría ser mesurable por los instrumentos adecuados. De hecho, Arno Penzias y Robert Wilson de los Bell Telephone Laboratories ganaron el premio Nobel en 1.978 por detectar este eco del Big Bang, una radiación de microondas que impregna el universo conocido.

         Como una onda, podemos detectar el eco del big bang y otros fenómenos del universo

El que el eco del Big Bang debería estar circulando por el universo miles de millones de años después del suceso fue predicho por primera vez por George Gamow y sus discípulos Ralpher y Robert Herman, pero nadie les tomó en serio. La propia idea de medir el eco de la creación parecía extravagante cuando la propusieron por primera vez poco después de la segunda guerra mundial. Su lógica, sin embargo, era aplastante. Cualquier objeto, cuando se calienta, emite radiación de forma gradual. Ésta es la razón de que el hierro se ponga al rojo vivo cuando se calienta en un horno, y cuanto más se calienta, mayor es la frecuencia de radiación que emite. Una fórmula matemática exacta, la ley de Stefan-Boltzmann, relaciona la frecuencia de la luz (o el color en este caso) con la temperatura. De hecho, así es como los científicos determinan la temperatura de la superficie de una estrella lejana; examinando su color. Esta radiación se denomina radiación de cuerpo negro.

Imagen relacionada

                                         Podemos ver en plena oscuridad

Esta radiación, ¡cómo no!, ha sido aprovechada por los ejércitos, que mediante visores nocturnos pueden operar en la oscuridad. De noche, los objetos relativamente calientes, tales como soldados enemigos o los carros de combate, pueden estar ocultos en la oscuridad, pero continúan emitiendo radiación de cuerpo negro invisible en forma de radiación infrarroja, que puede ser captada por gafas especiales de infrarrojo. Ésta es también la razón de que nuestros automóviles cerrados se calientes en verano, ya que la luz del Sol atraviesa los cristales del coche y calienta el interior. A medida que se calienta, empieza a emitir radiación de cuerpo negro en forma de radiación infrarroja. Sin embargo, esta clase de radiación no atraviesa muy bien el vidrio, y por lo tanto queda atrapada en el interior del automóvil, incrementando espectacularmente la temperatura y, cuando regresamos para proseguir el camino… ¿quién es el guapo que entra?

Todo cuerpo emite energía en forma de ondas electromagnéticas, siendo esta radiación, que se emite incluso en el vacío, tanto más intensa cuando más elevada …

Análogamente, la radiación de cuerpo negro produce el efecto invernadero. Al igual que el vidrio, los altos niveles de dióxido de carbono en la atmósfera, causados por la combustión sin control de combustibles fósiles, pueden atrapar la radiación de cuerpo negro infrarroja en la Tierra, y de este modo calentar gradualmente el planeta.

Gamow razonó que el Big Bang era inicialmente muy caliente, y que por lo tanto sería un cuerpo negro ideal emisor de radiación. Aunque la tecnología de los años cuarenta era demasiado primitiva para captar esta débil señal de la creación, Gamow pudo calcular la temperatura de dicha radiación y predecir con fiabilidad que un día nuestros instrumentos serían lo suficientemente sensibles como para detectar esta radiación “fósil”.

La lógica que había detrás de su razonamiento era la siguiente: alrededor de 300.000 años después del Big Bang, el universo se enfrió hasta el punto en el que los átomos pudieron empezar a componerse; los electrones, entonces,  pudieron empezar a rodear a los protones y neutrones formando átomos estables, que ya no serían destruidos por la intensa radiación que estaba impregnando todo el universo. Antes de este momento, el universo estaba tan caliente que los átomos eran inmediatamente descompuestos por esa radiación tan potente en el mismo acto de su formación. Esto significa que el universo era opaco, como una niebla espesa absorbente e impenetrable.

Pasados 300.000 años, la radiación no era tan potente; se había enfriado y por lo tanto la luz podía atravesar grades distancias sin ser dispersada. En otras palabras, el universo se hizo repentinamente negro y transparente.

Terminaré esta parte comentando que un auténtico cuerpo negro es un concepto imaginario; un pequeño agujero en la pared de un recinto a temperatura uniforme es la mejor aproximación que se puede tener de él en la práctica. La radiación de cuerpo negro es la radiación electromagnética emitida por un cuerpo negro. Se extiende sobre todo el rango de longitudes de onda y la disminución de energías sobre este rango tiene una forma característica con un máximo en una cierta longitud de onda, desplazándose a longitudes de onda más cortas al aumentar las temperaturas*.

Hablar, sin más especificaciones, de radiación, es estar refiriéndonos a una energía que viaja en forma de ondas electromagnéticas o fotones por el universo. También nos podríamos estar refiriendo a un chorro de partículas, especialmente partículas Alfa o Beta de una fuente radiactiva o neiutrones de un reactor nuclear.

Resultado de imagen de Resultado de imagen de Radiación y magnetismo presente en las estrellas

la estrella TVLM 513-46546. Según las observaciones realizadas con ALMA, esta estrella tiene un campo magnético increíblemente intenso, probablemente generado por erupciones similares a la del Sol. Radiación y magnetismo presentes en todas partes

La radiación actínida es la electromagnética que es capaz de iniciar una reacción química. El término es usado especialmente para la radiación ultravioleta que emiten las estrellas jóvenes y azuladas en las bellas nebulosas.

Muchos son los tipos conocidos: Radiación blanda, radiación cósmica, radiación de calor, radiación de fondo, de fondo de microondas, radiación dura, electromagnética, radiación gamma, infrarroja, ionizante, monocromática, policromática, de sincrotón, ultravioleta, de la teoría cuántica, de radiactividad… y, como se puede ver, la radiación en sus diversas formas es un “universo” en sí misma.

El físico alemán Max Planck (1.858 – 1.947), responsable entre otros muchos logros de la ley de radiación de Planck, que da la distribución de energía radiada por un cuerpo negro. Introdujo en física el concepto novedoso de que la energía es una cantidad que es radiada por un cuerpo en pequeños paquetes discretos, en vez de una emisión continua. Estos pequeños paquetes se conocieron como cuantos y la ley formulada es la base de la teoría cuántica.

Einstein se inspiró en este trabajo para a su vez presentar el suyo propio sobre el efecto fotoeléctrico, donde la energía máxima cinética del fotoelñectrón, Em, está dada por la ecuación que lleva su nombre: Em = hf – Φ.

Planck publicó en 1.900 un artículo sobre la radiación de cuerpo negro que sentó las bases para la teoría de la mecánica cuántica que más tarde desarrollaron otros, como el mismo Einstein, Heisenberg, Schrödinger, Dirac, Feymann, etc. Todos los físicos son conocedores de la enorme contribución que Max Planck hizo en física: la constante de P,lanck,  radiación de Planck, longitud de Planck, unidades de Planck, etc. Es posible que sea el físico de la historia que más veces ha dado su nombre a conceptos de física. Pongamos un par te ejemplos de su ingenio:

1.  Esta escala de longitud ( 10-35 m ) veinte órdenes de magnitud menor que el tamaño del protón, de 10-15 m, es a la que la descripción clásica de gravedad cesa de ser válida y debe ser tenida en cuenta la mecánica cuántica. En la fórmula que la describe, G es la constante gravitacional, ħ es la constante de Planck racionalizada y c en la velocidad de la luz.

2.    Es la masa de una partícula cuya longitud de onda Compton es igual a la longitud de Planck. En la ecuación, ħ es la constante de Planck racionalizada, c es la velocidad de la luz y G es la constante gravitacional.

La descripción de una partícula elemental de esta masa, o partículas que interaccionan con energías por partículas equivalentes a ellas (a través de E = mc2), requiere de una teoría cuántica de la gravedad. Como la masa de Planck es del orden de 10-8 Kg (equivalente a una energía de 1019 GeV) y, por ejemplo, la masa del protón es del orden de 10-27 Kg y las mayores energías alcanzables en los aceleradores de partículas actuales son del orden de 14 TeV, los efectos de gravitación cuántica no aparecen en los laboratorios de física de partículas.

Únicamente en un laboratorio aparecieron partículas que tenían energías del orden de la masa de Planck: en el universo primitivo, de acuerdo con la teoría del Big Bang, motivo éste por el que es necesaria una teoría cuántica de la gravedad para estudiar aquellas condiciones. Esta energía de la que estamos hablando, del orden de 1019 GeV (inalcanzable para nosotros), es la que necesitamos para verificar la teoría de supercuerdas.

Siempre, desde que puedo recordar, me llamó la atención los misterios y secretos encerrados en la naturaleza, y la innegable batalla mantenida a lo largo de la historia por los científicos para descubrirlos.

emilio silvera