domingo, 26 de febrero del 2017 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Causalidad ¡Ese Principio!

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Descartes, Leibniz, Locke, Berkeley, Hume (que influyó decisivamente en Kant), entre otros, construyeron una base que tomó fuerza en Kant, para quien el conocimiento arranca o nace de nuestras experiencias sensoriales, es decir, de los datos que nos suministra nuestros cinco sentidos, pero no todo en él procede de esos datos.  Hay en nosotros dos fuentes o potencias distintas que nos capacitan para conocer, y son la sensibilidad (los sentidos) y el entendimiento (inteligencia).  Esta no puede elaborar ninguna idea sin los sentidos, pero éstos son inútiles sin el entendimiento.

Todo lo que pasa es causa de lo que antes pasó.  Y, ese Principio de la Física de la Causalidad, no está sólo allí presente, y, es tan cierto que, hasta en los Códigos legales se recogen sus esencias:En el art. 901 del CC, podemos leer: “Un efecto es adecuado a su causa cuando “acostumbra a suceder según el curso natural y ordinario de las cosas” . Como es natural, se refiere al efecto de las condiciones iniciales que marcarán las finales.
      También aquí, está presente la causalidad
En física existe un Principio que llaman !Causalidad! y en virtud del cual el efecto no puede preceder a la causa. Es muy útil cuando se conbina con el principio de que la máxima velocidad del universo es la velocidad de la luz en el vacío. Lo cierto es que, todo lo que ocurre es causa de algo que antes sucedió. Contaremos algunas cosas que tuvieron sus consecuencias.
En 1.893 el físico irlandés George Francis Fitzgerald emitió una hipótesis para explicar los resultados negativos del experimento conocido de Michelson-Morley. Adujo que toda la materia se contrae en la dirección del movimiento, y que esa contracción es directamente proporcional al ritmo (velocidad) del movimiento.

Según tal interpretación, el interferómetro se quedaba corto en la dirección del “verdadero” movimiento terrestre, y lo hacía precisamente en una cantidad que compensaba con toda exactitud la diferencia de distancias que debería recorrer el rayo luminoso. Por añadidura, todos los aparatos medidores imaginables, incluyendo los órganos sensoriales humanos, experimentarían ese mismo fenómeno.

 

                       Esquema de un interferómetro de Michelson.

 

Visualización de los anillos de interferencia.

Parecía como si la explicación de Fitzgerald insinuara que la naturaleza conspiraba con objeto de impedir que el hombre midiera el movimiento absoluto, para lo cual introducía un efecto que anulaba cualquier diferencia aprovechable para detectar dicho movimiento.

Este asombroso fenómeno recibió el nombre de contracción de Fitzgerald, y su autor formuló una ecuación para el mismo, que referido a la contracción de un cuerpo móvil, fue predicha igualmente y de manera independiente por H. A. Lorentz (1.853 – 1.928) de manera que, finalmente, se quedaron unidos como contracción de Lorentz-Fitzgerald.

A la contracción, Einstein le dio un marco teórico en la teoría especial de la relatividad. En esta teoría, un objeto de longitud l0 en reposo en un sistema de referencia parecerá, para un observador en otro sistema de referencia que se mueve con velocidad relativa v con respecto al primero, tener longitud contraccion_l-f, donde c es la velocidad de la luz. La hipótesis original atribuía esta contracción a una contracción real que acompaña al movimiento absoluto del cuerpo. La contracción es en cualquier caso despreciable a no ser que v sea del mismo orden o cercana a c.

Un objeto que se moviera a 11,2 Km/s (la velocidad de escape de nuestro planeta) experimentaría sólo una contracción equivalente a 2 partes por cada 1.000 millones en el sentido del vuelo. Pero a velocidades realmente elevadas, tal contracción sería sustancial. A unos 150.000 Km/s (la mitad de la velocidad de la luz) sería del 15%; a 262.000 Km/s (7/8 de la velocidad de la luz), del 50%. Es decir, que una regla de 30 cm que pasara ante nuestra vista a 262.000 Km/s nos parecería que mide sólo 15’24 cm, siempre y cuando conociéramos alguna manera para medir su longitud en pleno vuelo. Y a la velocidad de la luz, es decir, 300.000 Km/s en números redondos, su longitud en la dirección del movimiento sería cero. Puesto que, presuntamente, no puede existir ninguna longitud inferior a cero, se deduce que la velocidad de la luz en el vacío es la mayor que puede imaginarse el universo.

El físico holandés Henrik Antón Lorentz, como hemos dicho, promovió esta idea pensando en los rayos catódicos (que ocupaban su actividad por aquellas fechas). Se hizo el siguiente razonamiento: si se comprimiera la carga de una partícula para reducir su volumen, aumentaría su masa. Por consiguiente, una partícula voladora, escorzada en la dirección de su desplazamiento por la contracción de Fitzgerald, debería crecer en términos de masa. Lorentz presentó una ecuación sobre el acrecentamiento de la masa, que resultó muy similar a la ecuación de Fitzgerald sobre el acortamiento. A 149.637 Km/s la masa de un electrón aumentaría en un 15%; a 262.000 Km/s, en un 100% (es decir, la masa se duplicaría); y a la velocidad de la luz, su masa sería infinita. Una vez más pareció que no podría haber ninguna velocidad superior a la de la luz, pues, ¿cómo podría ser una masa mayor que infinita?

El efecto Fitzgerald sobre longitudes y el efecto Lorentz sobre masas mantuvieron una conexión tan estrecha que aparecieron a menudo agrupadas como las ecuaciones Lorentz-Fitzgerald.

Mientras que la contracción Fitzgerald no podía ser objeto de mediciones, el efecto Lorentz sobre masas sí podía serlo, aunque indirectamente. De hecho, el muón tomó 10 veces su masa original cuando fue lanzado, a velocidades relativistas, en el acelerador de partículas, lo que confirmó la ecuación de Lorentz. Los experimentos posteriores han confirmado las ecuaciones de ambos: a velocidades relativistas, las longitudes se contraen y las masas se incrementan.

Como es conocido por todos, Einstein adoptó estos descubrimientos y los incorporó a su teoría de la relatividad especial, que aunque mucho más amplia, recoge la contracción de Fitzgerald y el aumento de la masa de Lorentz cuando se alcanzan grandes velocidades.

Algunas veces pienso que los artistas en general, y los poetas en particular, tendrían que adaptar e incluir en sus esquemas artísticos y poéticos los adelantos científicos, para asimilarlos en las diversas expresiones y sentimientos que serán después puestos al servicio del consumo humano. Estos adelantos científicos serían así coloreados con las pasiones humanas, y transformados, de alguna forma, en la sangre, y por qué no, los sentimientos de la naturaleza humana. Posiblemente, de haberlo hecho, el grado general de conocimiento sería mayor. De todas las maneras, no dejamos de avanzar en el conocimiento de la Naturaleza.

Hacemos mil y un inventos para poder llegar a lugares que, hasta hace muy poco tiempo se pensaba que nos estaban vedados. Y, a pesar de ello, la cultura científica, en general es pobre. Sólo uno de cada tres puede definir una molécula o nombrar a un solo científico vivo. De veinticinco licenciados escogidos al azar en la ceremonia de graduación de Harvard, sólo dos pudieron explicar por qué hace más calor en verano que en invierno. La respuesta, dicho sea de paso, no es “porque el Sol está más cerca”; no está más cerca. El eje de rotación de la Tierra está inclinado, así que cuando el hemisferio norte se inclina hacia el Sol, los rayos son más perpendiculares a la superficie, y la mitad del globo disfruta del verano. Al otro hemisferio llegan rayos oblicuos: es invierno. Es triste ver cómo aquellos graduados de Harvard podían ser tan ignorantes. ¡Aquí los tenemos con faltas de ortografía!

Por supuesto, hay momentos brillantes en los que la gente se sorprende. Hace años, en una línea de metro de Manhattan, un hombre mayor se las veía y deseaba con un problema de cálculo elemental de su libro de texto de la escuela nocturna; no hacía más que resoplar. Se volvió desesperado hacia el extraño que tenía a su lado, sentado junto a él, y le preguntó si sabía cálculo. El extraño afirmó con la cabeza y se puso a resolverle al hombre el problema. Claro que no todos los días un anciano estudia cálculo en el metro al lado del físico teórico ganador del Nobel de Física, T. D. Lee.

Leon Lederman cuenta una anécdota parecida a la del tren, pero con final diferente. Salía de Chicago en un tren de cercanías cuando una enfermera subió a él a la cabeza de un grupo de pacientes de un hospital psiquiátrico local. Se colocaron a su alrededor y la enfermera se puso a contarlos: “uno, dos tres…”. Se quedó mirando a Lederman y preguntó “¿quién es usted?”; “soy Leon Lederman” – respondió – “ganador del premio Nobel y director del Fermilab”. Lo señaló y siguió tristemente “sí claro,  cuatro, cinco, seis…”. Son cosas que ocurren a los humanos; ¡tan insignificantes y tan grandes! Somos capaces de lo mejor y de lo peor. Ahí tenemos la historia para ver los ejemplos de ello.

Resultado de imagen de La ciencia y la tecnología

Pero ahora más en serio, es necesario preocuparse por la incultura científica reinante, entre otras muchas razones porque la ciencia, la técnica y el bienestar público están cada día más conectados. Y, además, es una verdadera pena perderse la concepción del mundo que, en parte, he plasmado en estas páginas. Aunque aparezca incompleta, se puede vislumbrar que posee grandiosidad y belleza, y va asomándose ya su simplicidad.

“El proceso de la ciencia es el descubrimiento a cada paso de un nuevo orden que de unidad a lo que desde hacía tiempo parecía desunirlo.”

- Es lo que hizo Faraday cuando cerró el vínculo que unió la electricidad y el magnetismo.

- Es lo que hizo Clerk Maxwell cuando unió aquélla y éste con la luz.

- Einstein unió el tiempo y el espacio, la masa a la energía y relacionó las grandes masas cosmológicas con la curvatura y la distorsión del tiempo y el espacio para traernos la gravedad en un teoría moderna; y dedicó los últimos años de su vida al intento de añadir a estas similitudes otra manera nueva y más avanzada, que instaurara un orden nuevo e imaginativo entre las ecuaciones de Maxwell y su propia geometría de la gravitación.

 

 

Clic para ampliarClic para ampliar

Clic para ampliarClic para ampliar

Clic para ampliarClic para ampliar

 

Algunos momentos de la vida del Maestro

 

Cuando Coleridge intentaba definir la belleza, volvía siempre a un pensamiento profundo: la belleza, decía, “es la unidad de la variedad”. La ciencia no es otra cosa que la empresa de descubrir la unidad en la variedad  desaforada de la naturaleza, o más exactamente, en la variedad de nuestra experiencia que está limitada por nuestra ignorancia.

 

 

 

Hay muchas cosas que no podemos controlar, sin embargo, algo dentro de nosotros, nos envía mensajes sobre lo que podría ser importante para que nos fijemos mejor y continuemos profundizando.

Para comprender mejor el panorama, hagamos una excursión hasta la astrofísica; hay que explicar por qué la física de partículas y la astrofísica se han fundido no hace muchos años, en un nivel nuevo  de intimidad, al que alguien llamó la conexión espacio interior/espacio exterior.

Mientras los expertos del espacio interior construían aceleradores, microscopios cada vez más potentes para ver qué pasaba en el dominio subnuclear, los colegas del espacio exterior sintetizaban los datos que tomaban unos telescopios cada vez más potentes, equipados con nuevas técnicas cuyo objeto era aumentar su sensibilidad y la capacidad de ver detalles finos. Otro gran avance fueron los observatorios establecidos en el espacio, con sus instrumentos para detectar infrarrojos, ultravioletas, rayos X y rayos gamma; en pocas palabras, toda la extensión del espectro electromagnético, muy buena parte del cual era bloqueado por nuestra atmósfera opaca y distorsionadora.

                                                                                ¿Hasta donde llegaremos?

La síntesis de la cosmología de los últimos cien años es el modelo cosmológico estándar. Sostiene que el universo empezó en forma de un estado caliente, denso, compacto, hace unos 15.000 millones de años. El universo era entonces infinitamente, o casi infinitamente, denso; infinita, o casi infinitamente, caliente. La descripción “infinito” es incómoda para los físicos; los modificadores son el resultado de la influencia difuminadota de la teoría cuántica. Por razones que quizá no conozcamos nunca, el universo estalló, y desde entonces ha estado expandiéndose y enfriándose.

Ahora bien, ¿cómo se han enterado de eso los cosmólogos? El modelo de la Gran Explosión (Big Bang) nació en los años treinta tras el descubrimiento de que las galaxias (conjuntos de 100.000 millones de estrellas, aproximadamente) se estaban separando entre sí, descubrimiento hecho por Edwin Hubble, que andaba midiendo sus velocidades en 1.929.

Hubble tenía que recoger de las galaxias lejanas una cantidad de luz que le permitiera resolver las líneas espectrales y compararlas con las líneas de los mismos elementos de la Tierra. Cayó en la cuenta de que todas las líneas se desplazaban sistemáticamente hacia el rojo. Se sabía que una fuente de luz que se aparta de un observador hace justo eso. El desplazamiento hacia el rojo era, de hecho, una medida de la velocidad relativa de la fuente y del observador.

Más tarde, Hubble halló que las galaxias se alejaban de él en todas las direcciones; esto era una manifestación de la expansión del espacio. Como el espacio expande las distancias entre todas las galaxias, la astrónoma Hedwina Knubble, que observase desde el planeta Penunbrio en Andrómeda, vería el mismo efecto o fenómeno: las galaxias se apartaría de ella.

Cuanto más distante sea el objeto, más deprisa se mueve. Esta es la esencia de la ley de Hubble. Su consecuencia es que, si se proyecta la película hacia atrás, las galaxias más lejanas, que se mueven más deprisa, se acercarán a los objetos más próximos, y todo el lío acabará juntándose y se acumulará en un volumen muy, muy pequeño, como, según se calcula actualmente, ocurría hace 15.000 millones de años.

La más famosa de las metáforas científicas te pide que imagines que eres una criatura bidimensional, un habitante del Plano. Conoces el este y el oeste, el norte y el sur, pero arriba y abajo no existen; sacaos el arriba y debajo de vuestras mentes. Vivís en la superficie de un globo que se expande. Por toda la superficie hay residencias de observadores, planetas y estrellas que se acumulan en galaxias por toda la esfera; todo bidimensional. Desde cualquier atalaya, todos los objetos se apartan a medida que la superficie se expande sin cesar. La distancia entre dos puntos cualesquiera de este universo crece. Eso es lo que pasa, precisamente, en nuestro mundo tridimensional. La otra virtud de esta metáfora es que, en nuestro universo, no hay ningún lugar especial. Todos los sitios o puntos de la superficie sin democráticamente iguales a todos los demás. No hay centro; no hay borde. No hay peligro de caerse del universo. Como nuestra metáfora del universo en expansión (la superficie del globo) es lo único que conocemos, no es que las estrellas se precipiten dentro del espacio. Lo que se expande es que espacio que lleva toda la barahúnda. No es fácil visualizar una expansión que ocurre en todo el universo. No hay un exterior, no hay un interior. Sólo hay este universo que se expande. ¿En qué se expande? Pensad otra vez en vuestra vida como habitante del Plano, de la superficie del globo: en nuestra metáfora no existe nada más que la superficie.

Instalaciones en las entrañas de la Tierra que posibilitan viajar a lo más profundo de la materia

                  Hemos inventado tecnología que ha posibilitado que no estemos confinados en el planeta

Es mucho lo que podemos imaginar. Sin embargo, lo cierto es que,  como nos decía Popper:
“Cuánto más profundizo en el conocimiento de las cosas más consciente soy de lo poco que se. Mientras que mis conocimientos son finitos, mi ignorancia es ilimitada.”

Dos consecuencias adicionales de gran importancia que tiene la teoría del Big Bang acabaron por acallar la oposición, y ahora reina un considerable consenso. Una es la predicción de que la luz de la incandescencia original (presuponiendo que fue muy caliente) todavía está a nuestro alrededor, en forma de radiación remanente. Recordad que la luz está constituida por fotones, y que la energía de los fotones está en relación inversa con la longitud de onda. Una consecuencia de la expansión del universo es que todas las longitudes se expanden. Se predijo, pues, que las longitudes de onda, originalmente infinitesimales, como correspondía a unos fotones de gran energía, han crecido hasta pertenecer ahora a la región de las microondas, en la que las longitudes son unos pocos milímetros.

En 1.965 se descubrieron los rescoldos del Big Bang, es decir, la radiación de fondo de microondas. Esos fotones bañan el universo entero, y se mueven en todas las direcciones posibles. Los fotones que emprendieron viaje hace miles de millones de años cuando el universo era más pequeño y caliente, fueron descubiertos por una antena de los laboratorios Bell en Nueva Jersey.

File:WMAP Leaving the Earth or Moon toward L2.jpg

 

                                                  Imagen del WMAP de la anisotropía de la temperatura del CMB.

 

Así que el descubrimiento hizo imprescindible medir la distribución de las longitudes de onda, y se hizo. Por medio de la ecuación de Planck, esta medición de la temperatura media de lo que quiera (el espacio, las estrellas, polvo, un satélite, los pitidos de un satélite que se hubiese colado ocasionalmente) que haya estado bañándose en esos fotones.

Las mediciones últimas efectuadas por la NASA con el satélite COBE dieron un resultado de 2’73 grados sobre el cero absoluto (2’73 ºK). Esta radiación remanente es una prueba muy potente a favor de la teoría del Big Bang caliente.

Los astrofísicos pueden hablar tan categóricamente porque han calculado qué distancias separaban a dos regiones del cielo en el momento en que se emitió la radiación de microondas observadas por el COBE. Ese momento ocurrió 300.000 años después del Big Bang, no tan pronto como sería deseable, pero sí lo más cerca del principio que podemos.

Resulta que temperaturas iguales en regiones separadas del espacio que nunca habían estado en contacto y cuyas separaciones eran tan grandes que ni siquiera a la velocidad de la luz daba tiempo para que las dos regiones se comunicasen, y sin embargo, sí tenían la misma temperatura. La teoría del Big Bang no podía explicarlo; ¿un fallo?, ¿un milagro? Se dio en llamar a eso la crisis de la causalidad, o de la isotropía.

         Considerado a grandes escalas, el Universo es isotrópico

De la causalidad porque parecía que había una conexión causal entre distintas regiones del cielo que nunca debieran haber estado en contacto; de la isotropía porque donde quiera que mires a gran escala verás prácticamente el mismo patrón de estrellas, galaxias, cúmulos y polvo estelar. Se podría sobrellevar esto en un modelo del Big Bang diciendo que la similitud de las miles de millones de piezas del universo que nunca estuvieron en contacto es puro accidente. Pero no nos gustan los “accidentes”: los milagros están estupendamente si jugamos a la lotería, pero no en la ciencia. Cuando se ve uno, los científicos sospechan que algo más importante se nos mueve entre bastidores. Me parece que mi inclinación científica me hace poco receptivo a los milagros. Si algo para habrá que buscar la causa.

Resultado de imagen de Un universo de hidrógeno y Helio

El segundo éxito de gran importancia del modelo del Big Bang tiene que ver con la composición de nuestro universo. Puede parecer que el mundo está hecho de aire, tierra, agua y fuego, pero si echamos un vistazo arriba y medimos con nuestros telescopios espectroscópicos, apenas sí encontramos algo más que hidrógeno, y luego helio. Entre ambos suman el 98% del universo que podemos ver. El resto se compone de los otros noventa elementos. Sabemos gracias a nuestros telescopios espectroscópicos las cantidades relativas de los elementos ligero, y hete aquí que los teóricos del Big Bang dicen que esas abundancias son precisamente las que cabría esperar. Lo sabemos así.

 

 

El universo prenatal tenía en sí toda la materia del universo que hoy observamos, es decir, unos cien mil millones de galaxias, cada una con cien mil millones de soles. Todo lo que hoy podemos ver estaba comprimido en un volumen muchísimos menos que la cabeza de un alfiler. La temperatura era alta, unos 1032 grados Kelvin, mucho más caliente que nuestros 273 ºK actuales. Y en consecuencia la materia estaba descompuesta en sus componentes primordiales.

Una imagen aceptable de aquello es la de una “sopa caliente”, o plasma, de quarks y leptones (o lo que haya dentro, si es que hay algo) en la que chocan unos contra otros con energías del orden de 1018 GeV, o un billón de veces la energía del mayor colisionador que cualquier físico pueda imaginarse construir. La gravedad era rugiente, con su poderoso (pero aún mal conocido) influjo en esta escala microscópica.

Tras este comienzo fantástico, vinieron la expansión y el enfriamiento. A medida que el universo se enfriaba, las colisiones eran menos violentas. Los quarks, en contacto íntimo los unos con los otros como partes del denso grumo que era el universo infantil, empezaron a coagularse en protones, neutrones y los demás hadrones. Antes, esas uniones se habrían descompuesto en las inmediatas y violentas colisiones, pero el enfriamiento no cesaba; aumentaba con la expansión y las colisiones eran cada vez más suaves.

                                   La máquina del big bang reveló que, en aquellos primeros momentos…

Aparecieron  los protones y los neutrones, y se formaran núcleos estables. Este fue el periodo de nucleosíntesis, y como se sabe lo suficiente de física nuclear se pueden calcular las abundancias relativas de los elementos químicos que se formaron. Son los núcleos de elementos muy ligeros; los más pesados requieren de una “cocción” lenta en las estrellas.

Claro que, los átomos (núcleos más electrones) no se formaron hasta que la temperatura no cayó lo suficiente como para que los electrones se organizaran alrededor de los núcleos, lo que ocurrió 300.000 años después, más o menos. Así que, en cuanto se formaron los átomos neutros, los fotones pudieron moverse libremente, y ésta es la razón de que tengamos una información de fotones de microondas todavía.

La nucleosíntesis fue un éxito: las abundancias calculadas y las medidas coincidían. Como los cálculos son una mezcla íntima de física nuclear, reacciones de interacción débil y condiciones del universo primitivo, esa coincidencia es un apoyo muy fuerte para la teoría del Big Bang.

En realidad, el universo primitivo no era más que un laboratorio de acelerador con un presupuesto ilimitado. Nuestros astrofísicos tenían que saberlo todo acerca de los quarks y los leptones y las fuerzas para construir un modelo de evolución del universo. Los físicos de partículas reciben datos de su experimento grande y único. Por supuesto, para los tiempos anteriores a los 10-13 segundos, están mucho menos seguros de las leyes de la física. Así que, los astrofísicos azuzan a los teóricos de partículas para que se remanguen y contribuyan al torrente de artículos que los físicos teóricos lanzan al mundo con sus ideas: Higgs, unificación de cuerdas vibrantes, compuestos (qué hay dentro de los quarks) y un enjambre de teorías especulativas que se aventuran más allá del modelo estándar para construir un puente que nos lleve a la descripción perfecta del universo, de la Naturaleza. ¿Será posible algún día?

Esperemos a ver qué pasa con la historia que comenzaron Grabielle Veneziano, John Schwartz, André Neveu, Pierre Ramond, Jeff Harvey, Joel Sheik, Michael Green, David Gross y un dotado flautista de Hamelin que responde al nombre de Edward Witten.

La teoría de cuerdas es una teoría que nos habla de un lugar muy distante. Dice Leon Lederman que casi tan distante como Oz o la Atlántida; hablamos del dominio de Planck. No ha forma de que podamos imaginar datos experimentales en ese tiempo tan lejano; las energías necesarias (las de la masa de Planck) no están a nuestro alcance, lo que significa que no debemos perseverar.

Por lejos que esté… Siempre querremos llegar. ¿Qué habrá allí dónde nuestra vista no llega? ¿Cómo será aquel universo?

¿Por qué no podemos encontrar una teoría matemáticamente coherente (sin infinitos) que describa de alguna manera Oz? ¡Dejar de soñar, como de reír, no es bueno!

Pero en verdad, al final de todo esto, el problema es que siempre estarmos haciendo preguntas: Que si la masa crítica, que si el universo abierto, plano o cerrado… Que si la materia y energía del universo es más de la que se ve. Pasa lo contrario que con nuestra sabiduría (queremos hacer ver que hay más… ¡de la que hay!), que parece mucha y en realidad es tan poca que ni podemos contestar preguntas sencillas como, por ejemplo: ¿Quiénes somos?

 Ahí, ante esa pregunta “sencilla” nos sale una imagen movida que no deja ver con claridad

Sin embargo, hemos sabido imaginar para poder desvelar algunos otros secretos del universo, de la Naturaleza, del Mundo que nos acoge y, sabemos cómo nacen, viven y mueren las estrellas y lo que es una galaxia. Podemos dar cuenta de muchas cuestiones científicas mediante modelos que hemos ideado para explicar las cosas. No podemos físicamente llegar a otras galaxias y nos hemos inventado telescopios de inmensa capacidad para llegar hasta las galaxias situadas a 12.000 millones de años luz de la Tierra. También, hemos sabido descifrar el ADN y, si ninguna catástrofe lo remedia… ¡Viajaremos por las estrellas!

Claro que, sabemos representar los Modelos de Universo que imaginamos, y, aún no hemos llegado a saber lo que el Universo es. ¡Nuestra imaginación! que siempre irá por delante de la realidad que nos rodea y que no siempre sabemos ver. Todo es, como dijo aquel, la belleza que se nos regala: “La unidad de la variedad”. Además, no debemos olvidar que, todo lo grande está hecho de cosas pequeñas.

emilio silvera

¿Qués es la luz? hace 340 años que supimos de su velocidad

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 

pintura edad media

             En estos lugares se vivía a base de antorchas y velas para alumbrar los lóbregos pasillos

Está claro que, los estudiosos de la época antigua y medieval estaban por completo a oscuras acerca de la naturaleza de la luz. Especulaban sobre que consistía en partículas emitidas por objetos relucientes o tal vez por el mismo ojo. Establecieron el hecho de que la luz viajaba en línea recta, que se reflejaba en un espejo con un ángulo igual a aquel con el que el rayo choca con el espejo, y que un rayo de luz se inclina (se refracta) cuando pasa del aire al cristal, al agua o a cualquier otra sustancia transparente.

Resultado de imagen de La refracción de la luzResultado de imagen de La refracción de la luz

Cuando la luz entra en un cristal, o en alguna sustancia transparente, de una forma oblicua (es decir, en un ángulo respecto de la vertical), siempre se refracta en una dirección que forma un ángulo menor respecto de la vertical.  La exacta relación entre el ángulo original y el ángulo reflejado fue elaborada por primera vez en 1.621 por el físico neerlandés Willerbrord Snell.  No publicó sus hallazgos y el filósofo francés René Descartes descubrió la ley, independientemente, en 1.637.

Los primeros experimentos importantes acerca de la naturaleza de la luz fueron llevados a cabo por Isaac Newton en 1.666, al permitir que un rayo de luz entrase en una habitación oscura a través de una grieta e las persianas, cayendo oblicuamente sobre una cara de un prisma de cristal triangular. El rayo se refracta cuando entra en el cristal y se refracta aún más en la misma dirección cuando sale por una segunda cara del prisma. (Las dos refracciones en la misma dirección se originan por que los dos lados del prisma de se encuentran en ángulo en vez de en forma paralela, como sería el caso en una lámina ordinaria de cristal.)

Resultado de imagen de <a href=

                                                                  Newron y sus experimentos con la luz

Cuando Newton empezó su lucha por establecer un método inductivo correcto en física, estaba trabajando en el campo de la óptica, no en cinemática o en astronomía. En sus primeros años, mucho antes de que los Principia le dieran la fama, llevó a cabo un estudio de la luz y los colores, un estudio que ha sido descrito como “la más excelsa investigación experimental del siglo XVII

Newton atrapó el rayo emergente sobre una pantalla blanca para ver el efecto de la refracción reforzada.  Descubrió que, en vez de formar una mancha de luz blanca, el rayo se extendía en una gama de colores: rojo, anaranjado, amarillo, verde, azul, y violeta, en este orden.

Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores.  La amplia banda de sus componentes se denominó spectrum (palabra latina que significa “espectro”, “fantasma”).

Newton llegó a la conclusión de que la luz se componía de diminutas partículas (“corpúsculos”), que viajaban a enormes velocidades.

Resultado de imagen de <a href=

Le surgieron y se planteó algunas inquietudes cuestiones. ¿Por qué se refractaban las partículas de luz verde más que los de luz amarilla? ¿Cómo se explicaba que dos rayos de luz se cruzaran sin perturbase mutuamente, es decir, sin que se produjeran colisiones entre partículas?

Resultado de imagen de el físico holandés Christian Huygens y las ondas de luz

En 1.678, el físico neerlandés Christian Huyghens (un científico polifacético que había construido el primer reloj de péndulo y realizado importantes trabajos astronómicos) propuso una teoría opuesta: la de que la luz se componía de minúsculas ondas. Y si sus componentes fueran ondas, no sería difícil explicar los diversos difracciones de los diferentes tipos de luz a través de un medio refractante, siempre y cuando se aceptara que la luz se movía más despacio en ese medio refractante que en el aire.  La cantidad de refracción variaría con la longitud de las ondas: cuanto más corta fuese tal longitud, tanto mayor sería la refracción.   Ello significaba que la luz violeta (la más sensible a este fenómeno) debía de tener una longitud de onda mas corta que la luz azul, ésta, más corta que la verde, y así sucesivamente.

Resultado de imagen de la luz es una forma de radiación electromagnética a la que el ojo humano es sensible

Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda.  Y, como es natural, si la luz estaba integrada por ondas, dos rayos podrían cruzarse sin dificultad alguna.  (Las ondas sonoras y las del agua se cruzan continuamente sin perder sus respectivas identidades.)

Pero la teoría de Huyqhens sobre las ondas tampoco fue muy satisfactoria. No explicaba por qué se movían en línea recta los rayos luminosos; ni por qué proyectaban sombras recortadas; ni aclaraba por qué las ondas luminosas no podían rodear los obstáculos, del mismo modo que pueden hacerlo las ondas sonoras y de agua.  Por añadidura, se objetaba que si la luz consistía en ondas, ¿cómo podía viajar por el vacío, ya que cruzaba el espacio desde el Sol y las Estrellas? ¿cuál era esa mecánica ondulatoria?

Resultado de imagen de La teoría corpuscular de la luzResultado de imagen de La teoría corpuscular de la luz

Aproximadamente durante un siglo, contendieron entre sí estas teorías. La teoría corpuscular, de Newton, fue, con mucho, la más popular, en parte, porque la respaldó el famoso nombre de su autor.  Pero hacia 1.801, un físico y médico ingles, de nombre Thomas Young, llevó a cabo un experimento que arrastró la opinión pública al campo opuesto.  Proyectó un fino rayo luminoso sobre una pantalla, haciéndolo pasar antes por dos orificios casi juntos.  Si la luz estuviera compuesta por partículas, cuando los dos rayos emergieran de ambos orificios, formarían presuntamente en la pantalla una región más luminosa donde se superpusieran, y regiones menos brillantes, donde no se diera tal superposición.  Pero no fue esto lo que descubrió Young.  La pantalla mostró una serie de bandas luminosas, separadas entre sí por bandas oscuras.  Pareció incluso que, en esos intervalos de sombra, la luz de ambos rayos contribuía a intensificar la oscuridad.

Resultado de imagen de Cuando se cruzan dos rayos de luz

Sería fácil explicarlo mediante la teoría ondulatoria. La banda luminosa representaba el refuerzo presado por las ondas de un rayo a las ondas del otro.  Dicho de otra manera: Entraba “en fase” dos trenes de ondas, es decir, ambos nodos, al unirse, se fortalecían el uno al otro.  Por otra parte, las bandas oscuras representaban puntos en que las ondas estaban “desfasadas” porque el vientre de una neutralizaba el nodo de la otra.  En vez de aunar sus fuerzas, las ondas se interferían mutuamente, reduciendo la energía luminosa neta a las proximidades del punto cero.

Considerando la anchura de las bandas y la distancia entre los dos edificios por los que surgen ambos rayos, se pudo calcular la longitud de las ondas luminosas, por ejemplo, de la luz roja a la violeta o los colores intermedios.  Las longitudes de onda resultaron ser muy pequeñas.  Así, la de la luz roja era de unos 0’000075 cm. (Hoy se expresan las longitudes de las ondas luminosas mediante una unidad muy práctica ideada por Angströn. Esta unidad, denominada, en honor a su autor Ángstrom (Á), es la cienmillonésima parte de un centímetro.  Así, pues, la longitud de onda de la luz roja equivale más o menos a 7.500 Á, y la de la luz violeta, a 3.900 Å, mientras que las de colores visibles en el espectro oscilan entre ambas cifras.)

Sombras_2

La cortedad de estas ondas es muy importante. La razón de que las ondas luminosas se desplacen en línea recta y proyecten sombras recortadas se debe a que todas son incomparablemente más pequeñas que cualquier objeto; pueden contornear un obstáculo sólo si éste no es mucho mayor que la longitud de onda. Hasta las bacterias, por ejemplo, tienen un volumen muy superior de una onda luminosa y, por tanto, la luz puede definir claramente sus contornos bajo el microscopio. Sólo los objetos cuyas dimensiones se asemejan a la longitud de la onda luminosa (por ejemplo, los virus y otras partículas submicroscópicas) son lo suficientemente pequeños como para que puedan ser contorneados por las ondas luminosas.

Resultado de imagen de Augustin-Jean Fresnel, fue quien demostró por vez primera, en 1.818, que si un objeto es lo suficientemente pequeño, la onda luminosa lo contorneará sin dificultad

Un físico francés, Augustin-Jean Fresnel, fue quien demostró por vez primera, en 1.818, que si un objeto es lo suficientemente pequeño, la onda luminosa lo contorneará sin dificultad. En tal caso, la luz determina el llamado fenómeno de “difracción”.  Por ejemplo, las finísimas líneas paralelas de una “reja de disfracción” actúan como una serie de minúsculos obtáculos, que se refuerzan entre si.  Puesto que la magnitud de la difracción va asociada a la longitud de onda, se produce el espectro.  A la inversa, se puede calcular la longitud de onda midiendo la difracción de cualquier color o porción del espectro, así como la separación de las marcas sobre el cristal.

Resultado de imagen de Fraunhofer y los rayos espectrales

A través de los rayos espectrales se supo de qué estaban hechas las estrellas y los obbjetos celestes

Fraunhofer exploró dicha reja de difracción con objeto de averiguar sus finalidades prácticas, progreso que suele olvidarse, pues queda eclipsado por su descubrimiento más famoso: los rayos espectrales.  El físico americano Henry Augustus Rowlane ideó la reja cóncava y desarrolló técnicas para regularlas de acuerdo con 20.000 líneas por pulgada.  Ello hizo posible la sustitución del prisma por el espectroscopio.

Ante tales hallazgos experimentales, más el desarrollo metódico y matemático del movimiento ondulatorio, debido a Fresnel, pareció que la teoría ondulatoria de la luz había arraigado definitivamente, desplazando y relegando para siempre a la teoría corpuscular.

Resultado de imagen de Longitud de onda luminosa

La luz tiene una naturaleza dual: se comporta como onda y partícula. Entre las propiedades de la onda luminosa se incluyen la refracción de la onda cuando …

No sólo se aceptó las existencias de ondas luminosas, sino que también se midió su longitud con una precisión cada vez mayor.  Hacia 1.827, el físico francés Jacques Babinet sugirió que se empleara la longitud de onda luminosa (una cantidad física inalterable) como unidad para medir tales longitudes, en vez de las muy diversas unidades ideadas y empleadas por el hombre.  Sin embargo, tal sugerencia no se llevó a la práctica hasta 1.880 cuando el físico germano-americano Albert Abraham Michelson inventó un instrumento, denominado “interferómetro”, que podía medir las longitudes de ondas luminosas con una exactitud sin precedentes. En 1.893, Michelson midió la onda de la raya roja en el espectro del cadmio y determinó que su longitud era de 1/1.553.164 m.

Pero la incertidumbre reapareció al descubrirse que los elementos estaban compuestos por isótopos diferentes, cada uno de los cuáles aportaba una raya cuya longitud de onda difería ligeramente de las restantes.  En la década de 1.930 se midieron las rayas del criptón 86. Como quiera que este isótopo fuera gaseoso, se podía abordar con bajas temperaturas, para frenar el movimiento atómico y reducir el consecutivo engrosamiento de la raya.

En 1.960, el Comité Internacional de Pesos y Medidas adoptó la raya del criptón 86 como unidad fundamental de longitud. Entonces se restableció la longitud de metro como 1.650.763’73 veces la longitud de onda de dicha raya espectral.  Ello aumento mil veces la precisión de las medidas de longitud.  Hasta entonces se había medido el antiguo metro patrón con un margen de error equivalente a una millonésima, mientras que en lo sucesivo se pudo medir la longitud de onda con un margen de error equivalente a una milmillonésima.

Ahora, después de todo esto, sabemos algo más sobre la luz.

Pero ¿qué pasa con su velocidad?

¡Veámoslo!

Imagen relacionada

Está claro que, la luz se desplaza a enormes velocidades. Si pulsamos el interruptor de apagado de la lámpara de nuestro salón, todo queda a oscuras de manera instantánea.

La velocidad del sonido es más lenta, por ejemplo, si vemos a un leñador que está cortando leña en un lugar alejado de nosotros, sólo oiremos los golpes momentos después de que caiga el hacha.  Así, pues, el sonido tarda cierto tiempo en llegar a nuestros oídos.  En realidad es fácil medir la velocidad de su desplazamiento: unos 1.206 km/h en el aire y a nivel del mar.

Imagen relacionada

Galileo fue el primero en intentar medir la velocidad de la luz.  Se colocó en lo alto de una colina, mientras que su ayudante, se situaba en otro lugar alto de la colina vecina; luego sacó una linterna encendida: tan pronto como su ayudante vió la luz, hizo una señal con otra linterna.  Galileo repitió el experimento a distancias cada vez mayores, suponiendo que el tiempo requerido por su ayudante para responder mantendría una uniformidad constante, por lo cual, el intervalo entre la señal de su propia linterna y la de su ayudante representaría el tiempo empleado por la luz para recorrer cada distancia.  Aunque la idea era lógica, la luz viajaba demasiado aprisa como para que Galileo pudiera percibir las sutiles diferencias con un método tan rudimentario.

Velocidad de la luzResultado de imagen de El experimento de Olaus Roemer para cronometrar la velocidad de la luz a escala de distancias astronómicas

         Observaciones de Röemer

En 1.676, el astrónomo danés Olau Roemer logró cronometrar la velocidad de la luz a escala de distancias astronómicas.  Estudiando los eclipses de Júpiter en sus cuatro grandes satélites, Roemer observó que el intervalo entre eclipses consecutivos era más largo cuando la Tierra se alejaba de Júpiter, y más corto cuado se movía en su órbita hacía dicho astro.  Al parecer, la diferencia entre las duraciones del eclipse reflejaba la diferencia de distancias entre la Tierra y Júpiter. Y trataba, pues, de medir la distancia partiendo del tiempo empleado por la luz para trasladarse desde Júpiter hasta la Tierra.  Calculando aproximadamente el tamaño de la órbita terrestre y observando la máxima discrepancia en las duraciones del eclipse que, según Roemer, representaba el tiempo que necesitaba la luz para atravesar el eje de al órbita terrestre, dicho astrónomo computó la velocidad de la luz.  Su resultado, de 225.000 km/s., parece excelente si se considera que fue el primer intento, y resultó bastante asombroso como para provocar la incredulidad de sus coetáneos.

Resultado de imagen de el astrónomo británico James Bradley descubrió que las estrellas parecían cambiar de posición con los movimientos terrestres[foto de la noticia]

Sin embargo, medio siglo después se confirmaron los cálculos de Roemer en un campo totalmente distinto.  Allá por 1.728, el astrónomo británico James Bradley descubrió que las estrellas parecían cambiar de posición con los movimientos terrestres; y no por el paralaje, sino porque la traslación terrestre alrededor del Sol era una fracción mensurable (aunque pequeña) de la velocidad de la luz.  La analogía empleada usualmente es la de un hombre que camina con el paraguas abierto bajo un temporal.  Aun cuando las gotas caigan verticalmente, el hombre debe inclinar hacia delante el paraguas, porque ha de abrirse paso entre las gotas.

Cuanto más acelere su paso, tanto más deberá inclinar el paraguas.  De manera semejante la Tierra avanza entre los ligeros rayos que caen desde las estrellas, y el astrónomo debe inclinar un poco su telescopio y hacerlo en varias direcciones, de acuerdo con los cambios de la trayectoria terrestre (no olvidemos que nuestro planeta Tierra, es como una enorme nave espacial que nos lleva en un viaje eterno, alrededor del Sol, a la velocidad de 30 km/s. + -) Mediante ese desvío aparente de los astros (“aberración de la luz”), Bradley pudo evaluar la velocidad de la luz y calcularla con gran precisión.

Sus cálculos fueron de 285.000 km/s, bastante más exacto que los de Roemer, pero aún un 5’5% más bajos.

Poco a poco, con medios tecnológicos más sofisticados y más conocimientos matemáticos, los científicos fueron obteniendo medidas más exactas aún, conforme se fue perfeccionando la idea original de Galileo y sus sucesores.

Resultado de imagen de En 1.849, el físico francés Armand-Hippolyte-Louis Fizeau ideó un artificio mediante el cual se proyectaba la luz sobre un espejo situado a 8 km de distancia, que devolvía el reflejo al observador.

En 1.849, el físico francés Armand-Hippolyte-Louis Fizeau ideó un artificio mediante el cual se proyectaba la luz sobre un espejo situado a 8 km de distancia, que devolvía el reflejo al observador.  El tiempo empleado por la luz en su viaje de ida y vuelta no rebasó apenas la 1/20.000 de segundo, por Fizeau logró medirlo colocando una rueda dentada giratoria en la trayectoria del rayo luminoso.  Cuando dicha rueda giraba a cierta velocidad, regulada, la luz pasaba entre los dientes y se proyectaba contra el siguiente, al ser devuelta por el espejo; así, Fizeau, colocado tras la rueda, no pudo verla.  Entonces se dio más velocidad a la rueda, y el reflejo pasó por la siguiente muesca entre los dientes, sin intercepción alguna. De esa forma, regulando y midiendo la velocidad de la rueda giratoria, Fizeau pudo calcular el tiempo transcurrido y, por consiguiente, la velocidad a que se movía el rayo de luz.

Experimento de Focault

Esquema del experimentoEsquema del experimento (2)Medida de la velocidad de la luz. Método de Foucault

Cuando el espejo gira a una velocidad suficientemente elevada para que el tiempo de que tarda en dar una vuelta sea comparable al tiempo que tarda la luz en ir y volver en su recorrido, la señal luminosa se observa a una distancia fácilmente medible del orificio por el que sale el rayo luminoso.

En estas circunstancias es fácil determinar el ángulo que se ha desviado el rayo. Como se conoce la velocidad de rotación, se determina el tiempo que ha tardado el espejo en girar la mitad de ese ángulo. En este tiempo la luz ha recorrido y de esa cifra se obtiene el valor de la velocidad.

La velocidad del espejo fue de 400 revoluciones por segundo y la distancia entre el espejo giratorio y el espejo fijo era de 5 metros.

Un año más tarde, Jean Foucault (quien realizaría poco después su experimento con los péndulos) precisó más estas medidas empleando un espejo giratorio en ve de una rueda dentada.  Entonces se midió el tiempo transcurrido desviando ligeramente el ángulo de reflexión mediante el veloz espejo giratorio.  Foucault obtuvo un valor de la velocidad de la luz de 300.883 km/s.  También, el físico francés utilizó su método para determinar la velocidad de la luz a través de varios líquidos.  Averiguó que era notablemente inferior a la alcanzada en el aire.  Esto concordaba también con la teoría ondulatoria de Huyghens.

Resultado de imagen de Interferómetro de Michelson y Morley

Experimento Michelson-Morley Reposo con el éter luminífero Interferómetro de Michelson y Morley en reposo respecto al éter luminífero.

Michelson fue más preciso aún en sus medidas.  Este autor, durante cuarenta años largos, a partir de 1.879, fue aplicando el sistema Fizeau-Foucault cada vez con mayor refinamiento, para medir la velocidad de la luz.  Cuando se creyó lo suficientemente informado, proyectó la luz a través de vacío, en vez de hacerlo a través del aire, pues este frena ligeramente su velocidad, y, empleó para ello tuberías de acero cuya longitud era superior a 1’5 km.  Según sus medidas, la velocidad de la luz en el vacío era de 299.730 km(seg. (sólo un 0’006% más bajo).  Demostraría también que todas las longitudes de ondas luminosas viajan a la misma velocidad en el vacío.

Resultado de imagen de En 1.972, experimento de Kenneth M. Evenson sobre la velocidad de la luz

En 1.972, un equipo de investigadores bajo la dirección de Kenneth M. Eveson efectuó unas mediciones aún más exactas y vio que la velocidad de la luz era de 299.727’74 km/seg. Una vez se conoció la velocidad de la luz con semejante precisión, se hizo posible usar la luz, o por lo menos formas de ella, para medir distancias.

Aunque para algunos resulte alto tedioso el tema anterior, no he podido resistirme a la tentación de exponerlo, así podrá saber algo más sobre la luz y, habrán conocido a personajes que hicieron posible el que ahora nosotros, la conozcamos mejor.

Resultado de imagen de Ondas de luz a través del espacio interestelar

Las ondas de luz están presentes en el Espacio Interestelar

Podría continuar, hasta el final de este trabajo, hablando de la luz y sus distintas formas o aplicaciones: ondas de luz a través del espacio, de cómo se transmite la luz en el “vacío”, nos llega a través del espacio desde Galaxias situadas a miles de millones de años luz; las líneas de fuerzas electromagnéticas de Faraday y Maxwell de campos eléctricos y magnéticos cambiantes (todo ello explicado en un simple conjunto de cuatro ecuaciones, que describían casi todos los fenómenos referentes a esta materia electromagnética), o de los enigmas aún por descubrir (aunque predichos).

Ahora, en Física, se dice que la luz es una forma de radiación electromagnética a la que el ojo humano es sensible y sobre la cual depende nuestra consciencia visual del universo y sus contenidos.

Resultado de imagen de la luz es una forma de radiación electromagnética a la que el ojo humano es sensibleResultado de imagen de la luz es una forma de radiación electromagnética a la que el ojo humano es sensible

                                              Sí, el ojo humano puede ver todo objeto en el que incida la luz

Patrón de referencia

 

En el año 1983, el Bureau Internacional de Poids et Mesures resolvió modificar la definición del metro como unidad de longitud del Sistema Internacional,  estableciendo su definición a partir de la velocidad de la luz

Resultado de imagen de El metro como patrón

El metro como patrón en barras de platino e Iridio

En consecuencia, el mínimo reajuste arbitrario efectuado en la definición del metro, permite que la velocidad de la luz, lógicamente, tenga un valor exacto de 299 792 458 m/s cuando se expresa en metros/segundo. Esta modificación aprovecha de forma práctica una de las bases de la teoría de la relatividad de Einstein: la inmutabilidad de la velocidad de la luz en el vacío, sea cual sea el sistema de referencia utilizado para medirla, convirtiendo esta propiedad en uno de los patrones de los que se deducen otras unidades.

Aparte de todo lo que antes hemos explicado, no sería justo finalizar el trabajo sin exponer aquí que, en 1905, Albert Einstein, inspirado en el cuanto de Planck, realizó un importante avance en el conocimiento de lo que es la luz. Demostró que el Efecto fotoeléstrico sólo podía ser explicado con la hipótesis de que la luz consiste en un chorro de fotones de energía electromagnética discretos.

El conflicto entre la teoría ondulatoria y corpuscular de la luz fue resuelto con la evolución de la teoría cuántica y la mecánica ondulatoria que ha dejado claro que, los electrones y las otras partículas elementales tienen propiedades duales de partículas y onda.

sería mucho más largo, pero creo que está bien con lo dicho.

emilio silvera

¿Quién no tiene dudas?

Autor por Emilio Silvera    ~    Archivo Clasificado en La ignorancia nos acompaña siempre    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

La opinión de Michelson sobre el experimento de Michelson-Morley

Mucha gente no lo sabe, pero Michelson no aceptó hasta 1927 la explicación de la teoría de la relatividad para el resultado negativo de su experimento que buscaba pruebas del éter (experimento de Michelson-Morley de 1887). El éter era el medio a través del cual se creía que se propagaba la luz a finales del siglo XIX. Michelson y Morley idearon un experimento para medir el desplazamiento de la Tierra con respecto a ese medio. Michelson fue el primer norteamericano que recibió un premio Nobel de Física, en 1907; Morley nunca recibió el Nobel. Michelson se sintió muy frustrado con el resultado de su experimento, era tal su apego a la teoría del éter que se negó a aceptar la realidad que tenía ante sus ojos y aún más cuando ésta se basaba solo en lo que él había obtenido. No se dio por vencido y trató de demostrar que el éter sufría un arrastre diferencial debido a la altitud, pero de nuevo el resultado fue negativo. Michelson se resistía a ver más allá y decía: “debe admitirse entonces que estos experimentos no son concluyentes para justificar la hipótesis del éter arrastrado por la Tierra en su movimiento. Pero, ¿cómo se pueden explicar los resultados negativos?”.

La resistencia de Michelson se fue debilitando poco a poco. Primero se aferró a la hipótesis de Lorentz y Fitzgerald, en la que el resultado del experimento suponía una contracción en el material del que estaba hecho el brazo del interferómetro, pero se dio cuenta de que esa explicación era artificial y poco creíble, por lo que finalmente, en 1927, aceptó la explicación dada por la teoría de la relatividad. Pero no fue una aceptación total y sin reservas, ya que esa teoría “destruía” lo que se negaba a dejar: “el éter.” La inconformidad de Michelson se aprecia en sus declaraciones: “es de esperar que la teoría pueda ser reconciliada con la existencia de un medio, efectuando una modificación a la teoría o, más probablemente, por la atribución de propiedades necesarias al éter”.

Una vez aceptada la relación entre su experimento y la teoría de Einstein, como muchos científicos de la época, creyó que su experimento había sido la clave para su desarrollo, pero no en el sentido que le atribuía la mayoría, sino como la base de las transformaciones de Lorentz sobre las que descansa la teoría de Einstein. Cuando Einstein dijo que para él no había sido importante su experimento, Michelson defendió el papel que desempeñó en esa revolución científica, quería un reconocimiento en aquello que en un principio calificó de “fracaso”, deseaba un lugar en la historia. Ciertamente, la mayoría de los científicos y experimentalistas ya le habían otorgado dicho reconocimiento, pero el que pedía llegó en 1931, cuando Einstein alabó su trabajo y lo consideró fundamental para su teoría.

Extractos de Marta Martín del Rey, Ángel Martín del Rey, “La influencia del experimento de Michelson y Morley en la teoría de la relatividad,” Ciencia, UNAM, 94, 2009.

Algunos desarrollos de la Física Teórica…Son notables

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 

Hasta hace muy pocos años la Gravitación y la Mecánica Cuántica eran dos campos de la Física Teórica que utilizaban metodologías muy distintas y que estaban prácticamente desconectados entre sí. Por una parte, la interacción gravitatoria está descrita por la Teoría de la Relatividad General de Einstein, que es una teoría clásica (es decir, no cuántica) en la que la Gravedad se representa como una propiedad geométrica del espacio y del tiempo. Por otro lado, gobierna el mundo de las partículas atómicas y subatómicas. Su generalización relativista (la Teoría Cuántica de Campos) incorpora los principios de la Teoría Especial Relativista y, junto con el principio gauge, ha permitido construir con extraordinario éxito el llamado Modelo Estándar de la Física de las Partículas Elementales.

Resultado de imagen de la estructura atómica y el electromagnetismo

La interacción electromagnética, por ejemplo, es la responsable de las fuerzas que controlan la estructura atómica, reacciones químicas y todos los fenómenos electromagnéticos. Puede explicar las fuerzas entre las partículas cargadas, pero al contrario que las interacciones gravitacionales, pueden ser tanto atractivas como repulsivas. Algunas partículas neutras se desintegran por interacciones electromagnéticas. La interacción se puede interpretar tanto como un modelo clásico de fuerzas (ley de Coulomb) como por el intercambio de unos fotones virtuales. Igual que en las interacciones gravitatorias, el hecho de que las interacciones electromagnéticas sean de largo alcance significa que tiene una teoría clásica bien definida dadas por las ecuaciones de Maxwell. La teoría cuántica de las interacciones electromagnéticas se describe con la electrodinámica cuántica, que es una forma sencilla de teoría gauge.

El electromagnetismo está presente por todo el Universo

La interacción fuerte es unas 102 veces mayor que la interacción electromagnética y, como ya se dijo antes, aparece sólo entre los hadrones y es la responsable de las fuerzas entre nucleones que confiere a los núcleos de los átomos su gran estabilidad. Actúa a muy corta distancia dentro del núcleo (10-15 metros) y se puede interpretar como una interacción mediada por el intercambio de mesones virtuales llamados Gluones. Está descrita por una teoría gauge llamada Cromodinámica cuántica.

Las teorías gauge explican satisfactoriamente la dinámica de las interacciones electromagnéticas, fuertes y débiles en un gran rango de distancias. Sin embargo, a pesar que la Teoría General de la Relatividad puede formularse como una teoría gauge, todos los intentos de introducir en ella de manera completamente satisfactoria los principios de la Mecánica Cuántica, han fracasado. No obstante, los desarrollos realizados en el marco de la Teoría de Cuerdas en los últimos años han dado lugar a una convergencia, al menos metodológica, entre estos dos campos de la Física Fundamental.

Resultado de imagen de teoría <a href=gauge/gravedad" width="304" height="154" />

La piedra angular de esta inesperada conexión es la llamada correspondencia gravedad/teoría gauge. En su forma más genérica dicha correspondencia afirma que la dinámica de ciertas teorías cuánticas de campos sin gravedad puede ser descrita por medio de una teoría gravitatoria en un espacio-tiempo que contiene al menos una dimensión adicional.

Para poder comprender con claridad los orígenes y las consecuencias de tan sorprendente relación entre teorías tan diferentes, es interesante recordar como fue descubierta en el contexto de la Teoría de Cuerdas. la Teoría de cuerdas tiene su origen en los años 60-70 como un intento de describir los hadrones (partícuals elementales que experimentan interacción fuerte) como estados de una cuerda en movimiento.

                                                                                                                                 ¡Teoría de cuerdas! (¿)

La longitud de la cuerda se puede identificar con el tamaño del hadrón y sería del orden del fermi (10-15 metros). Sin embargo, al analizar en detalle el espectro de modos de vibración de las cuerdas cerradas se descubrió que estas contienen una partícula de espín 2 y masa nula…(¿el gravitón?) que no se corresponde con ningún hadrón y que, en cambio, se identifica de manera natural con el gravitón (el cuanto fundamental de la interacción gravitatoria). De esta forma la Teoría de Cuerdas pasó de ser considerada una teoría de las interacciones fuertes a ser una posible teoría de unificación de las cuatro interacciones fundamentales de la Naturaleza a una escala mucho más pequeña: La longitud de Planck (10-35 metros).

Una consecuencia sorprendente del estudio cuántico de la cuerda es que ésta debe propagarse en un espacio-tiempo de diez dimensiones. La métrica de dicho espacio-tiempo está también fuertemente contreñida. De hecho, la consistencia mecano-cuántica del movimiento de la cuerda en un espacio curvo impone que la métrica de este debe satisfacer unas ecuaciones que,  en el límite en el que la longitud de la cuerda se considera muy pequeña, se reducen a las ecuaciones de Einstein de la relatividad general. Así pues, las ecuaciones fundamentales de la gravedad clásica en diez dimensiones se puede obtener de la dinámica cuántica de la cuerda.

.Resultado de imagen de teoría <a href=gauge/gravedad" width="304" height="154" /> Dichos espacios se denominan Branas y son paredes de dominio en el espacio-tiempo diez-dimensional que corresponden a estados no-perturbativos de la Teoría de Cuerdqas similares a los solitones de las teorías cuánticas de campo. En particular, las denominadas Dp-Branas son objetos que pueden estar extendidos a lo largo de p dimensiones espaciales y una temporal para 0 ≤ p ≤ 9. Uno puede imaginárselas como hiperplanos (p+1)-dimensionales. En particular la D3-Branas están extendidas a lo largo de cuatro dimensiones (tres espaciales y una temporal).

Imagen

Claro, todo es pura conjetura (hasta que no sea verificado de forma experimental). Increíblemente el mundo de las branas es tan colosalmente extraño como lo es el infinitecimal mundo de las partículas quánticas, con la salvedad de que, al tratar de objetos aún más pequeños, es decir aquellos que posiblemente existan más allá de los Quarks, la fascinación sube de tono al toparnos con un universo de cosas “imposibles”, bueno, mejor alejado de lo que nos dice el sentido común que (está visto),  no es el mejor de los sentidos.

Las D-branas aparecen en muchas discusiones modernas relacionadas con las cuerdas (por ejemplo, en la entropía de los agujeros negros). Suelen tratarse como si fueran objetos clásicos que yacen dentro del espacio-tiempo completo 1 + 9 (o 1 + 10) dimensiones. La “D” viene de “Dirichlet”, por analogía con el tipo de problema de valor de frontera conocido como un problema de Dirichlet, en el que hay una frontera de género tiempo sobre la que se especifican datos (según Peter G. Lejeune Dirichlet, un eminente matemático francés que vivió entre 1.805 y 1.859).

Imagen
Imagen

            No resulta fácil para nosotros imaginar el Mundo Brana

Las D-Branas son objetos dinámicos que pueden moverse, deformarse y cambiar de estado interno. Una de sus características fundamentales es que este último está caracterizado por un campo gauge que viv3e en su interior. Así podremos decir que las D-Branas albergan teorías de gauge en su seno. Esta es una realización novedosa de la simwetría gauge que está en la base de la correspondencia gravedad/teoría gauge. Además, dado que la Teoría de Cuerdas es una teoría gravitatoria, cualquier objeto masivo (y en particular las D-Branas) tiene asociado una métrica que describe la distorsión gravitatoria del espacio-tiempo en torno a él. En el caso de las D-Branas estas métricas son fáciles de encontrar y son similares a la clásica solución de Schwazschild de la relatividad general. En 1997 el joven físico argentino Juan Maldacena sugirió  utilizar esta solución de gravedad para describir la teoría gauge que vive en las D-Branas.

¿Podría ser nuestro universo una membrana flotando en un espacio de más dimensiones, que se rompe muchas veces en un universo circundante? Según una rama de la teoría de las cuerdas llamada braneword, hay una gran cantidad de dimensiones extra de espacio, y aunque la gravedad puede llegar a salir, nosotros estamos confinados a nuestro propio universo “brana”, con sólo tres dimensiones. Neil Turok, de la Universidad de Cambridge en el Reino Unido, y Paul Steinhardt, de la Universidad de Princeton en Nueva Jersey, EE.UU., han trabajado en cómo el Big Bang se podría haber provocado cuando nuestro universo se enfrentó violentamente con otro. Se repite el enfrentamiento, produciendo un nuevo Big Bang de vez en cuando, por lo que si el modelo del universo cíclico es correcto, el cosmos puede ser inmortal. ¡Por imaginar que no quede!

Sólo vamos a ser conscientes de dimensiones extra allí donde inciden directamente sobre las D-brana en la que “vivimos”. Más que una imagen de tipo “espacio cociente” que evoca la analogía de Kaluza-Klein original: El gráfico representa un modelo de manguera de un espacio-tiempo de dimensiones más altas de tipo Kaluza-Klein, donde la longitud, o mejor, la dimensión a lo largo de la longitud de la manguera representa el 4-espacio-tiempo normal, y la dimensión alrededor de la manguera representa la dimensión extra “pequeñas” (quizá escala de Planck). Imaginemos un “ser” que habite en este mundo, que rebasa estas dimensiones extra “pequeñas”, y por ello no es realmente consciente de ellas.

Resultado de imagen de dos descripciones (<a href=gauge y gravitatoria) son duales y complementarias entre sí" width="304" height="253" />

En la propuesta de Maldacena de las dos descripciones (gauge y gravitatoria) son duales y complementarias entre sí. En principio nos puede parecer confusa la afirmación de que la gravedad juega un papel relevante en la física de la teoría gauge. En los cursos de física nosm enseñan que la gravedad es mucho más débil que las otras fuerzas, y que, por lo tanto, su efecto es despreciable salvo a distancias realmente pequeñas o masas realmente grandes. Para resolver esta paradoja hay que tener en cuenta que la gravedad de la que estamos hablando no es la de nuestro universo aproximadamente plano y (posiblemente) con una pequeña constante cosmológica positiva, sino que se trata de una teorìa auxiliar en más de cuatro dimensiones y con constante cosmológica negativa.

Para seguir explicando el tema, mucho tendríamos que escribir. Sin embargo, quede aquí esta entrada que, al menos, puede despertar alguna curiosidad en los lectores que, aconsejados por lo leido, busquen más sobre el tema que, sin duda alguna, llega a ser fascinante.

Fuente: Muchos de los párrafos aquí insertos, han sido transcritos de un trabajo de Alfon V Ramallo del Departemento de Física de Partículas de la Universidad de Santiago de Compostela.

PD.

Aclaración: Cuando mencionamos una teoría gauge, lo estamos haciendo de cualquiera de las teorías cuánticas de campos creadas para explicar las interacciones fundamentales. Una teoría gauge requiere un grupo de simetría para los campos y los potenciales (el grupo gauge). En el caso de la electrodinámica, el grupo es abeliano, mientras que las teorías gauge para las interacciones fuertes y débiles utilizan grupos no abelianos. Las teorías gauge no abelianas son conocidas como teorías de Yang-Mills. esta diferencia explñica por qué la electrodinámica cuántica es una teoría mucho más simple que la cromodinámica cuántica, que describe las interacciones fuertes, y la teoría electrodébil, que es la teoría unificada de las interacciones débiles y las electromagnéticas. En el caso de la Gravedad Cuántica, el Grupo Gauge es mucho más complicado que los grupos gauge tanto de las interacciones fuertes como de las débiles.

¡La Física! ¡Qué complejidad!

emilio silvera

Siempre hemos estado haciéndonos preguntas

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo de Ayar y el Universo de Hoy    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

¿Cuántas veces y desde cuándo nos hemos preguntado por el origen del Universo? ¡Desde siempre! Desde que tuvimos uso de razón, es una vieja y notaria pregunta que la curiosidad que siempre hemos  tenido, hizo que se pudiera en marcha la actividad humana en esa dirección de saber sobre el Sol y la Luna y las estrellas del cielo. Con certeza no podemos saberlo, ya que, nuestra especie no tiene ningún certificado de nacimiento y eso, amigos míos, nos ha obligado a investigar sobre nuestros orígenes nosotros solos, y al hacerlo hemos hallado necesario profundizar en el origen del “mundo” que nos acoge y del que, ineludiblemente, formamos parte. La falta de conocimientos nos llevó hacia el terreno de la especulación que, como observadores, podíamos deducir de lo que observamos y pudimos deducir más sobre nosotros mismos que sobre el universo que pretendíamos describir.

Está claro que lo mismo que una ola no puede explicar todo el Mar, tampoco la Nebulosa remanente de supernova que arriba contemplamos podría explicar el inmenso Universo que, al tener tan inimaginables dimensiones, nunca podremos contemplar en una Imagen completa, sólo a trozos, y captado parcialmente por extensas regiones e incluso objetos individuales, podremos contemplar, la ingente naturaleza de lo que todo lo contiene y abarca. El Universo es el espacio-tiempo, es la materia y todos los objetos que con ella se formaron se seguirán formando en el tiempo sin fin, también está conformado por las fuerzas fundamentales que todo lo rigen y que, para completar el cuadro, están acompañadas por unas constantes que hace de él, que sea el universo que conocemos con una velocidad finita para la luz, con una carga determinada para el electrón y, también, con una masa predeterminada para el protón. Si cualquiera de estos números: la velocidad de la luz, la carga del electrón i la masa del protón, variara sólo una diezmillonésima, el universo no sería tal como lo conocemos y, nosotros, tampoco podríamos haber llegado aquí.

Y, aunque no lo parezca, también la Imagen de arriba es posible que exista debido a que, las constantes y leyes de la Naturaleza así lo permiten al hacer posible que nuestro Universo sea tal como lo conocemos. Y, habiéndonos dedicado al estudio de todo lo que veíamos, haciéndonos preguntas del por qué de las cosas, hemos podido llegar a saber que el Universo está regido por números que hemos podido descubrir y que llamamos leyes y constantes.

Y, para eso, el recorrido que hemos tenido que hacer ha durado muchos miles de millones de años (considerándolo desde el surgir de la vida primigenia) y algunos cientos de miles de años (si partimos desde que en el mundo aparecieron los primeros hombres verdaderos) cuando mirando a los cielos, nos preguntábamos por qué brillaban las estrellas.

El cúmulo abierto NGC 290: un joyero estelar

En aquellos tiempos remotos en los que, ninguna luz artificial (exceptuando alguna eventual hoguera), podía contaminar lumínicamente el lugar, nuestros ancestros podían mirar hacia lo alto y ver, maravillados como, ingentes cantidades de puntos luminosos de distintos y hermosos colores, titilaban temblorosos como queriéndoles decir alguna cosa.

Allí, en aquellas épocas remotas, nacieron los mitos de la creación y aquellos pueblos desataron su imaginación para crear “a su manera” una justificación de todo aquello que no llegaban a comprender, así que, las maravillas que observaban las hacían depender y las relacionaban con sus vidas cotidianas. Los sumerios que vivían en una confluencia de ríos, consebían la creación como resultado de una lucha en el barro entre dioses. Los Mayas, obsesionados por los juegos de balón, conjeturaban que su creador se transformaba en un balón solar cada vez que el planeta Venus desaparecía detrás del Sol. El pescador tahitiano hablaba de un dios pesacador que arrastró sus islas desde el fondo del océano; los antepasados de los  samurais japoneses formaron sus islas de gotas de sangre que caían desde una hoja de espada cósmica. Para los griegos amantes de la lógica, la creación fue obra de los elementos; para Tales de Mileto, el Universo originalmente fue agua; para Anaxímedes (también de Mileto), fue aire; para Heráclito, fuego. En la fecundas islas hawaianas, la génesis fue manejada por un grupo de espíritus hábiles en embriología y el desarrollo de niños. Los bosquimanos de África se apiñaban alrededor del fuego, observaban como las chispas ascendían en el cielo nocturno y recitaban estas palabras:

Apareció la muchacha; puso las manos en las cenizas de madera; lanzó las cenizas al cielo. Dijo: “Las cenizas de la madera deben convertirse en la Vía Láctea. Deben quedar blancas a lo largo del cielo, para que las estrellas puedan estar fuera de la Vía Láctea, y la Vía Láctea ser la Vía Láctea, aunque eran cenizas de madera.”

Resultado de imagen de Teorías del Cosmos

Claro que, aquellos tiempos pasaron y el advenimiento de la Cienca y la tecnología ha logrado mejoras en la complejidad de la teorización cosmogónica, al menos en lo relativo a lo que precedió, si no a la simple realidad (si la hay) del gran Cosmos profundo (si hay cosmos). Pero la ciencia en modo alguno ha liberado el problema de la creación ni de su vieja maraña de presuposiciones y deseos humanos, si acaso, las hemos cambiado por otras nuevas que, más avanzadas tampoco explican esa creación de una manera firme, inamovible y autoconsistente si hablamos científicamente.

La cuestión de cómo empezó en el universo es, en el mejor de los casos, escurridiza, y cuando vamos de caza tras ella, con nuestro carcaj lleno de quaks, leptones, tensores de e4spacios curvos y probabilidades cuánticas, sólo tenemos una justificación marginalmente mayor de nuestra audacia de la que tenían aquellos sumerios, tahitianos y griegos. Pero, ¿nos diferenciamos mucho de ellos? Si hablamos de “materia oscura y otras cuestiones que no conocemos”, no creo que la diferencia sea tan abismal y, lo único que nos separan son los instrumentos modernos que tenemos para medir y ver y, de alguna manera, la forma de calcular sobre las leyes fundamentales y las constantes universales.

El éxito alcanzado por la Física desde finales del siglo XIX hasta esta primera década del siglo XXI no sólo ha transformado nuestra concepción del espacio-tiempo, sino que ha llegado a poner en nuestras mentes una nueva percepción de la Naturaleza: la vieja posición central que asignábamos a la materia ha cedido su lugar a los principios de simetría, algunos de ellos ocultos a la vista en el estado actual del Universo.

Está claro que los físicos, cada día más ambiciosos en su “querer saber” y su “querer descubrir”, buscan sin descanso nuevos caminos que les lleve a desvelar ocultas maravillas que tienen su hábitat natural en lo más profundo de la Naturaleza misma de la que no sabemos, aún, entender todas sus voces.

Son muchos los obstáculos que se encuentran en ese camino que nos lleva inexorable hacia esa soñada teoría final. Los científicos discrepan de los filósofos que no siempre, están de acuerdo con el hecho de que se pueda llegar a esa teoría última que lo pueda explicar todo, y, la firme creencia de que el Universo siempre tendrá secretos para nosotros, es una constante de la filosofía que la Ciencia, no deja de combatir. Por otra parte, se define nuestro carácter inquieto cuando no habiénso sido capaces de saber sobre aquel comienzo, ya estamos intentando exponer una teoría final. ?No será como comenzar la casa por el tejado?

Según todos los indicios encontrados, hemos llegado a conjeturar que el Universo surgió de algo que hemos llamado Big Bang, no podemos explicar el comienzo mismo de aquel suceso, las matemáticas se niegan a entrar en ese esponioso terreno y, hemos partido desde un tiempo posterior, y, sin embargo sabemos que, en aquellas fracciones de segundo, pasaron muchas cosas y todas ellas importantes, ya que, todo lo que luego pasó fue consecuencia de aquellas primeras.

Así, estamos embarcados en una enorme aventura intelectual que eleva al ser humano a la categoría más alta que en el Universo pueda. La Física de altas energías nos llevan a conocer las entrañas de la materia y nos cuenta como se producen esas interacciones en el corazón de los átomos y aunque no sabemos cómo puedan ser las leyes finales ni cuanto será el tiempo que tardaremos en encontrar las pistas que nos guíen por el camino correcto, lo cierto es que, el progreso continúa y cada vez se construyen aceleradores más potentes y sofisticados y telescopios más modernos y con mayor capacidad para transportarnos hacia regiones profundas del Universo en las que podemos contemplar galaxias situadas muy cerca de ese comienzo que llamamos Big Bang.

Podrá esa teoría final explicarnos la expansión del Universo, la Gravedad cuántica, qué son las fluctuaciones de vacío y qué relación puedem tener con los agujeros negros, si existe finalmente la “materia oscurta”, o, si la Fuerza de Gravedad es tal como nos la describió Einstein o se guarda alguna última carta en la maga, o, su en verdad, existen más dimensiones de las que podemos ver, o, si nuestra realidad percibida es la auténtica realidad, o, si…

Como no podía ser de otra manera dado nuestro carácter siempre dispuesto a la controversia y nuestras mentes de pensamientos diversos, la propia idea de una teoría final nos ha llevado a la más profunda discrepancia entre unos y otros. Por una parte, están los partidarios de esa teoría que nos podrá hablar de un Universo de más altas dimensiones, donde la relatividad general de Einstein y la mecánica cuántica de Planck, conviven en la soñada concordia que muchos físicos han soñado y, por la otra, están aquellos que discrepando de los primeros se agarran al pensamiento de la imposibilidad de conseguir una teoría de esas características y, ellos hablan de física-ficción.

Lo cierto es que, a pesar de lo que digan los detractores de estas ideas avanzadas (no pocas veces por envidia y por el simple hecho de que ellos no tienen la capacidad de entender los nuevos conceptos y sus complejas matemáticas), la Física prosigue su camino y, cuando lleguemos a alguna parte, lo cierto será que, no hemos llegado a ningún final sino que, por el contrario, estaremos en el principio de algo nuevo. Cada vez que hacemos un descubrimiento que nos trae nuevos conocimientos, sólo hemos conseguido una llave para poder abrir otras puertas que permanecen cerradas. Es decir, podremos plantear nuevas preguntas al estar posibilitados con esos nuevos conocimientos. Cuando desconocemos algo, no podemos preguntar sobre ello.

http://www.madrimasd.org/blogs/futurosdellibro/wp-content/blogs.dir/91/files/491/o_Representaci%C3%B3n%20de%20la%20informaci%C3%B3n.JPG

                                                                      http://www.moebio.conesfera/esfera.htm

Posiblemente, no consigamos nunca  desconplejificar lo que el Universo es. La Naturaleza es “sabia”, sabe que nosotros los humanos necesitamos de la curiosidad para tener un incentivo y seguir buscando. Si llegamos a esa teoría final que tiene todas las respuestas… ¿No caeremos en un mar depresivo mental? ¿Nada que buscar, nada que averiguar, ningún misterio que resolver?…

¡Mal suena eso!

emilio silvera