Jul
9
SUBFOTONES Y ONDAS ELECTROMAGNETICAS
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (0)
Conclusiones.
1.- Las ondas de REM no son un continuo de energía, se encuentran discretizadas. Derivada de un fotón, cada onda va asociada a una partícula denominada subfotón. Éste está configurado como dipolo eléctrico de forma segmentaria a partir de energía magnética de alta densidad, mostrando en cada uno de sus dos extremos un campo eléctrico de forma lobular de diferente signo, como si de un imán recto se tratara. Este conjunto unitario de onda-partícula en movimiento, exhibe un cuerpo tridimensional. Su superficie o piel EM para sentido práctico suele esquematizarse con el contorno de una onda sinusoidal de interacción EM.
2.- Cuando oleadas de subfotones y sus respectivas ondas en fase atacan una antena vertical receptora “peinándola uniformemente”, cada uno de ellos resulta guiado con su cresta eléctrica positiva por delante. Esto es así debido a que los subfotones tienen que pasar entre las polarizantes cargas negativas de los electrones libres de un conductor-antena. Cada cresta positiva de los subfotones moviéndose rápidamente entre los electrones, desplaza en un sentido una corriente de ellos a lo largo del conductor. Dirección que va a cambiar cuando a continuación pase entre ellos la cresta eléctrica negativa correspondiente. Esto se debe a que las crestas positivas de las ondas atraen electrones y las crestas negativas los repelen dentro del conductor. Repitiéndose el ciclo oscilatorio electrónico de manera global cuando grandes cantidades de subfotones en fase atraviesan la antena. Esta corriente eléctrica oscilatoria de antena se amplifica en el receptor y se puede llevar a un osciloscopio para observar la oscilación electrónica generada. El efecto sinusoidal observado en la pantalla, fue provocado por la modulación de que fueron objeto los electrones en sus movimientos en el circuito de antena correspondiente, por parte de las ondas de REM que le estarían llegando.
Nota: La bobina de antena es otro caso de recepción EM no descrito aquí.
3.- Si a lo largo de una línea de desplazamiento de ondas EM se establece lateralmente frente a ellas un puesto de observación, limitado por una delgada rendija vertical para observar (con posibilidad de movimiento en cámara lenta) cómo se mueven cada una de sus secciones, se puede observar a través de ella sólo un punto de una onda bajo escrutinio. Un aparente punto se desplaza rítmicamente a lo largo de la rendija vertical, subiendo y bajando a medida que ondas van desplazándose alejándose de la fuente.
Si además de su desplazamiento horizontal a través de la línea de referencia, se usa la representación de la onda como una cuerda que es agitada desde un extremo, el observador no puede discernir mirando a través de la rendija, si el fenómeno de desplazamiento de ondas bajo observación ocurre de manera oscilatoria. Ya que, pudiera ocurrir, sin que él observador pudiera haberse enterado, de que la cuerda en cuestión pudo haberse congelado por un súbito descenso de temperatura. En este segundo caso, la cuerda se desplazaría ondulada como si de una sola pieza sólida se tratara.
Sería una experimentación de resultado ambiguo, ya que no se puede asegurar si se trata de un movimiento transversal de la onda en cuestión o de otro tipo de movimiento. Si este fuera verdaderamente transversal, la teoría que respalda el experimento mental de la cuerda que es agitada formando ondas, no podría deducir la existencia de un corpúsculo de radiación con sus intrínsecos campos de interacción, entrando en conflicto con la hipótesis del concepto dualidad onda-partícula que se podría aplicar a los fotones en movimiento a través del espacio. Quedando bloqueado el camino que podría ir más allá del sólo “comportamiento corpuscular” que se entiende manifiestan las REM, al considerar fotones en su interacción con la materia.
4.- “De modo semejante a la onda que se propaga en una cuerda, el campo eléctrico a lo largo de una línea trazada en el espacio muestra la historia pasada de la perturbación emitida por la fuente.”
Esta cita tomada de la obra Ciencias Físicas de F. Bueche de la Universidad de Dayton, páginas 185 y 186, permite evidenciar que una onda emitida por una fuente de radiación se conserva de manera permanente (la perturbación emitida). De otra manera no habría historia que considerar de la radiación indicada. Consecuentemente, cada onda de REM se traslada a través del espacio como un todo histórico invariable, incluso numerable. Y, si cada onda no varía su configuración en el espacio, la teoría moderna relativa está incompleta, pues no nos dice como se produce cada una de las ondas que hoy mismo viajan en cualquier parte del universo. La respuesta se da al considerar que cada onda se encuentra asociada a un corpúsculo de REM, nombrado subfotón en esta tesis. Particularmente cada uno de ellos puede ser emitido y/o absorbido por la materia sin perder su identidad numerable.
En alguna parte de la historia de un subfotón, podría estar a tu lado formando parte de un electrón cercano, más tarde en la Luna, o en alguna otra galaxia alejada formando parte de algún neutrón existente en ella. Este mismo subfotón en cualquier momento dado podría estar viajando con destino incierto a través del espacio a velocidad c, acompañado de otros subfotones, cada uno con número de identidad específico. Aun cuando individualmente no tienen ni firma ni huella, el hombre puede predecir como cantidades importantes de ellos van modificando el entorno físico del mundo y del universo en general, gracias a la comprensión de los procesos de absorción y emisión espontánea y manipulada a que se pueden ver sujetos.
Interacción materia-REM
5.- En síntesis, en el universo existe una cantidad exacta de subfotones de REM, cada uno de ellos con una onda asociada. Pueden estar en movimiento gracias a los procesos de emisión, o estacionados debido a la absorción a que son sujetos debido a la materia ya existente. Cada uno manifiesta un campo eléctrico de energía h conocida (la constante de Planck). Su magnitud eléctrica es independiente del componente magnético perpendicular que se le suma cuando se mueve al ser emitido al espacio. Fenómeno similar al campo magnético perpendicular que se genera alrededor de un alambre conductor recto cuando electrones se mueven a lo largo de su espacio atómico interno donde se encuentran confinados. Si los electrones libres no se mueven entrando en conducción, tampoco se genera el campo magnético alrededor del conductor. Subrayamos que los campos magnéticos generados tanto por electrones como por subfotones, se producen cuando ellos perturban la energía de vacío del universo donde se encuentran inmersos, que no es otra cosa que la estructura magnética del espacio-tiempo, identificado en esta tesis como campo de gravedad primario.
6.- La idea general está expuesta en mi tesis Física Global.
http://www.emiliosilveravazquez.com/blog/wp-content/uploads/FISICA%20GLOBAL.pdf
A la orden de las nuevas generaciones de físicos. Sus pensamientos serán fundamentales para moldear de mejor manera estos nuevos conocimientos. A pesar de un estira y afloja que se ha dado en el desarrollo de la ciencia, incluidos aciertos y desaciertos, todos estamos coludidos históricamente en un esfuerzo científico ya hecho. Como dijo Albert Einstein: La física es un sistema lógico de pensamiento en desarrollo. De esta idea se desprende que el avance científico sólo es posible con los esfuerzos humanos del pasado. El presente es sólo confusión, el futuro ni siquiera existe. Existe arduo trabajo pendiente para los investigadores científicos. Ellos son los que llevan la delantera en la brecha del trabajo hacia el porvenir.
Nadie ignora que el mundo ha entrado en el rápido deterioro de sus ecosistemas. Si científicamente no se domina la energía de nuestro entorno mundial, con tecnología apropiada, próximamente, la energía de las lágrimas, podrían ser los últimos vestigios de nuestra incapacidad para mantener la energía de la felicidad humana. No pocas de ellas, ya se derraman en diferentes regiones del planeta.
¡Saludos y buenos deseos para todos!
José Germán Vidal Palencia
Investigador independiente
México, D.F., a 25 de noviembre de 2015
Jul
6
Sobre la antimateria
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)
Hasta 1928, en la física ni siquiera como concepto se había desarrollado la idea de antimateria y, mucho menos, la capacidad de producirla. Pero el estadio cambió cuando se empezaron a conocer los estudios del físico británico Paul Dirac.
En la práctica, todo comienza con los trabajos de Dirac que publicó en el año 1929, en una época que coincide con los tiempos que se descubrían los primeros secretos de la materia, se teorizaba sobre el comportamiento de las partículas que comportan la fuerza débil, y se profundizaban los estudios de los componentes de los átomos, especialmente en la teorización de lo que se llama fuerza fuerte. Fueron tiempo en que la audacia tuvo una preeminencia como rol intelectual dentro del mundo de la física, en el cual se plantearon conceptos como el de la mecánica ondulatoria, el principio de incertidumbre o, también, el descubrimiento del espín en los electrones. Se dice que fue una de las épocas más exotérica* de la física, en la cual hubo ejercitantes que concurrieron a simpáticas metáforas para hacer más accesibles sus teorías, como fue el caso del físico austríaco Erwin Schrödinger cuando apeló a la historia de los gatitos para exponer su principio de indeterminación, con el cual describía en síntesis que las partículas más pequeñas tienen un comportamiento que, dentro del razonamiento común, no es el mayormente aceptado por las personas.
La descripción anterior, implica ubicar el escenario en el cual Paul Dirac estaba inserto cuando planteó que donde había materia, también podía haber antimateria. Concretamente señaló, que si el átomo tenía partículas de carga negativas llamadas electrones, debía haber partículas que fueran «electrones antimateria», a los que se les llamó positrones y que debían tener la misma masa del electrón, pero de carga opuesta y que se aniquilarían al entrar en contacto, liberando energía. Este descubrimiento de Dirac fue tan revolucionario que lo hizo merecedor del premio Nobel en el año 1933.
Abr
8
La física no duerme
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)
Ciencia-ABC
Hallan fuertes indicios de una partícula desconocida capaz de romper los esquemas de la Física. Lo cierto es que, los físicos experimentadores no dejan de buscar en el LHC y otros aceleradores de partículas sobre “cosas” que intuyen los teóricos y desean verificar.
Científicos del Gran Colisionador de Partículas, del CERN, han obtenido evidencias de una anomalía que podría ser la primera pieza de una nueva teoría global, más allá del Modelo Estándar
Experimento en el LHCb que ha encontrado estos indicios – CERN
Obtienen intrigantes resultados en este experimento
“El experimento LHCb, fue diseñado principalmente para realizar mediciones precisas de los elementos de la matriz de mezcla de quarks, especialmente las fases entre la segunda y la tercera generación.”
Los hallazgos más importantes realizados en el CERN (Organización Europea para la Investigación Nuclear) se anuncian primero en seminarios destinados a científicos y no en multitudinarias ruedas de prensa. Así ocurrió por ejemplo cuando se descubrió el bosón de Higgs. Y no es para menos: esta partícula completó por fin el Modelo Estándar de la Física, el marco teórico con el que se explica el comportamiento del Universo a través de cuatro fuerzas o interacciones fundamentales y de un puñado de partículas. Pero también se convocó uno de estos seminarios cuando los análisis sugirieron en 2016 la existencia de una nueva partícula que en realidad era una decepción.
“Un pentaquark es una partícula subatómica hipotética compuesta por un grupo de cinco, cuatro quarks y un antiquark ligados juntos, por lo que es rara respecto a los tres quarks normales de los bariones y a los dos de los mesones.”
Este mismo martes se celebró otro de estos seminarios en el CERN. Los científicos han sido tan cautelosos como siempre, y han dejado claro que serán necesarias más observaciones para confirmarlo. Pero los investigadores de uno de los experimentos del Gran Colisionador de Partículas (LHC), el LHCb, han anunciado el hallazgo de fuertes evidencias de la existencia de una discrepancia con el Modelo Estándar de la Física. Esto puede querer decir que en la materia existe una partícula desconocida que podría romper los esquemas de la Física actual.

«Sería la primera vez que logramos ver algo que va más allá del Modelo Estándar»
«Si esto se confirmara estaríamos ante la primera pieza de un nuevo gran puzle», ha explicado a ABC Joaquim Matias, un físico teórico de la Universidad Autónoma de Barcelona y del IFAE (Instituto de Física de Altas Energías). «Sería la primera vez que logramos ver algo que va más allá del Modelo Estándar. El impacto sería brutal».
A día de hoy el Modelo Estándar de la Física es incapaz de explicar cosas como el origen de la materia oscura o la asimetría entre materia y anti-materia. Por eso los físicos siguen empeñados en hacer chocar partículas a altas velocidades y en observar los efectos de su destrucción, en busca de nuevas partículas y fuerzas que puedan ayudar a completar el puzle.
Hacerlo requiere usar complejísimas instalaciones y modelos matemáticos. Los físicos han de trabajar con los resultados de millones de colisiones y fluctuaciones energéticas y desechar los posibles efectos del ruido o de los errores experimentales.
La clave, en los mesones B
En esta ocasión, el posible hallazgo de la revolucionaria partícula no se ha conseguido en los grandes detectores del LHC, los ATLAS y CMS, sino en el más pequeño LHCb. Este se encarga de estudiar a una familia de partículas muy concretas: los mesones B.
¿Qué son estos mesones? Son partículas compuestas a su vez por otras partículas fundamentales, conocidas como quarks, que son, entre otras cosas, los constituyentes de los más familiares protones. Pues bien, lo interesante de estos mesones es que se descomponen en apenas nanosegundos y que en el camino liberan energía y partículas que son muy interesantes para los físicos, porque quizás podrían dar información sobre lo que hay más allá del Modelo Estándar.
Este gran modelo predice qué debe ocurrir al descomponer un mesón B. Pero ahora, los investigadores han obtenido evidencias sólidas de que en su laboratorio los mesones no se han comportado como se esperaba. Eso podría querer decir que han cometido algún error o bien que han encontrado las huellas de una nueva partícula que contradice lo que se daba por sentado hasta ahora.
«Segun el Modelo Estándar, cuando se descompone un mesón B se desintegra en una particula vectorial llamada K* y en una pareja de muón (parecida a un electrón pero con más masa) y anti-muón (igual que un muón pero con carga opuesta) con la misma frecuencia que a una pareja electrón y positrón (igual que un electrón pero con carga opuesta», ha dicho Joaquim Matías.
Es decir, de acuerdo con una especie de principio democrático, conocido como «universalidad del sabor de los leptones», en un 50 por ciento de los casos se produciría una pareja y en otro 50 por ciento la otra. Pero los investigadores del CERN han visto que se suele formar más un tipo de dúo que el otro. Por eso se dice que han hallado indicios de una violación del principio de la universalidad de los leptones y, por ende, del Modelo Estándar.
Una posible nueva partícula: el bosón Z´
«Si confirmáramos esta violación, tendríamos una clara dirección en la que buscar la nueva Física. Tendríamos que descartar todos los modelos que cuentan con ese principio de la universalidad, lo que tendría un gran impacto», ha aclarado el investigador.
Además, esto incorporaría una nueva partícula al repertorio de los físicos, y que se llamaría bosón Z´. Sería cercana al bosón Z, una de las partículas fundamentales que explica la interacción débil, una fuerza que se manifiesta en los núcleos de los átomos. Al mismo tiempo, otros ya han propuesto una explicación alternativa, centrada en un lepton-quark, una nueva partícula que transmite información entre leptones y quarks, tal como ha informado Science.
¿Se debe dudar de esto?
¿Hasta qué punto se debe confiar o dudar de estos hallazgos? los científicos del CERN han evaluado la seguridad de que los resultados se deban a la existencia de un nuevo fenómeno por descubrir o a una jugarreta del azar. Después de hacerlo, han obtenido un nivel de significacion sigma de tres, lo que para los físicos quiere decir que están ante una evidencia de que están observando algo interesante. Sin embargo, los datos aún no han permitido llegar al nivel de significación de cinco, que es el que le corresponde a los descubrimientos, como el bosón de Higgs.
Pero hay más señales de que los físicos están ante algo grande. Otros experimentos realizados en 2013 y 2015 por parte del LHCb y por otros instrumentos, como el ATLAS, el CMS y el Belle (en Japón), también analizaron la descomposición de estos mesones B. Al considerar todos estos datos en conjunto, el equipo de Joaquim Matias ha obtenido un nivel sigma de cinco para estas anomalías, tal como han publicado este miércoles en arXiv.org, un portal donde se publican artículos científicos antes de ser revisados por editores de revistas.
Según Matias, hay varios motivos para esperar la importante confirmación o descarte de estos resultados este mismo año. Muchos experimentadores ya han dicho que tratarán de estudiarlo tan pronto como sea posible. Entre ellos están los científicos del LHCb. En su favor está el hecho de que obtuvieron las evidencias presentadas recientemente con datos recogidos entre 2011 y 2012, y que ahora tienen a su disposición la información recogida entre 2012 y 2013. De hecho, responsables del CERN anunciaron que van a tratar de profundizar en estos experimentos este mismo año. Por último, a partir del año que viene el experimento Belle 2, en Japón, contará con un instrumental muy sofisticado y sensible para hacer este tipo de experimentos.
La explosión científica ya se ha desatado. Algo muy grande podría descubrirse este mismo año.
Abr
2
La maravilla de… ¡los cuantos!
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (1)
La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos. Planck escribió un artículo de ocho páginas y el resultado fue que cambió el mundo de la física y aquella páginas fueron la semilla de la futura ¡mecánica cuántica! que, algunos años más tardes, desarrollarían físicos como Einstein (Efecto fotoeléctrico), Heisenberg (Principio de Incertidumbre), Feynman, Bhor, Schrödinger, Dirac…
La expresión radiación se refiere a la emisión continua de energía de la superficie de todos los cuerpos. Los portadores de esta energía son las ondas electromagnéticas producidas por las vibraciones de las partículas cargadas que forman parte de los átomos y moléculas de la materia. La radiación electromagnética que se produce a causa del movimiento térmico de los átomos y moléculas de la sustancia se denomina radiación térmica o de temperatura.
Ley de Planck para cuerpos a diferentes temperaturas.
Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía.
Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico o una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Acero al “rojo vivo”, el objeto está radiando en la zona de la luz visible.
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:
E = hv
Donde E es la energía del paquete, v es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.
Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck.
El príncipe francés Louis Victor de Broglie, dándole otra vuelta a la teoría, que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta dirección del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.
Es curioso el comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Edwin Schrödinger descubrió como escribir la teoría ondulatoria de De Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar los cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de onda cuántica”.
No hay duda de que la Mecánica Cuántica funciona maravillosamente bien. Sin embargo, surge una pregunta muy formal: ¿Qué significan realmente esas ecuaciones?, ¿Qué es lo que están describiendo? Cuando Isaac Newton, allá por el año 1687, formuló cómo debían moverse los planetas alrededor del Sol, estaba claro para todo el mundo lo que significaban sus ecuaciones: que los planetas están siempre en una posición bien definida en el espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades con el tiempo.
Pero para los electrones todo esto es muy diferente. Su comportamiento parece estar envuelto en la bruma. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?
Niels Bohr consiguió responder a esta pregunta de forma tal que con su explicación se pudo seguir trabajando y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la “interpretación de Copenhague” de la Mecánica Cuántica. En vez de decir que el electrón se encuentra en el punto x o en el punto y, nosotros hablamos del estado del electrón. Ahora no tenemos el estado “x” o el estado “y”, sino estados “parcialmente x” o “parcialmente y. Un único electrón puede encontrarse, por lo tanto, en varios lugares simultáneamente. Precisamente lo que nos dice la Mecánica Cuántica es como cambia el estado del electrón según transcurre el tiempo.
Un “detector” es un aparato con el cual se puede determinar si una partícula está o no presente en algún lugar pero, si una partícula se encuentra con el detector su estado se verá perturbado, de manera que sólo podemos utilizarlo si no queremos estudiar la evolución posterior del estado de la partícula. Si conocemos cuál es el estado, podemos calcular la probabilidad de que el detector registre la partícula en el punto x.
Las leyes de la Mecánica Cuántica se han formulado con mucha precisión. Sabemos exactamente como calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas simultáneamente. Por ejemplo, podemos determinar la velocidad de una partícula con mucha exactitud, pero entonces no sabremos exactamente dónde se encuentra; o, a la inversa. Si una partícula tiene “espín” (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.
No es fácil explicar con sencillez de dónde viene esta incertidumbre, pero hay ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar.
¿Onda o partícula? ¡Ambas a la vez! ¿Cómo es eso?
“La dualidad onda-corpúsculo, también llamada dualidad onda–partícula es un fenómeno cuántico, bien comprobado empíricamente, por el cual muchas partículas pueden exhibir comportamientos típicos de ondas en unos experimentos mientras aparecen como partículas compactas y localizadas en otros experimentos.”
Para que las reglas de la Mecánica Cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuanto más grande y más pesado es un objeto más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica.
Me gustaría referirme a esta exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por “holismo”, y que se podría definir como “el todo es más que la suma de las partes”.
Bien, si la Física nos ha enseñado algo, es justamente lo contrario: un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (las partículas): basta que uno sepa sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que yo entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes.
Por ejemplo, la constante de Planck, h = 6,626075…x 10 exp. -34 julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.
Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisenberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros tales como Edwin Schrödinger, siempre presentaron serias objeciones a esta interpretación.
Quizá funcione bien, pero ¿Dónde está exactamente el electrón, en el punto x o en el punto y? Em pocas palabras, ¿Dónde está en realidad?, ¿Cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.
Hasta hoy, muchos investigadores coinciden con la actitud pragmática de Bohr. Los libros de historia dicen que Bohr demostró que Einstein estaba equivocado. Pero no son pocos, incluyéndome a mí, los que sospechamos que a largo plazo el punto de vista de Einstein volverá: que falta algo en la interpretación de Copenhague. Las objeciones originales de Einstein pueden superarse, pero aún surgen problemas cuando uno trata de formular la mecánica cuántica para todo el Universo (donde las medidas no se pueden repetir) y cuando se trata de reconciliar las leyes de la mecánica cuántica con las de la Gravitación… ¡Infinitos!
La mecánica cuántica y sus secretos han dado lugar a grandes controversias, y la cantidad de disparates que ha sugerido es tan grande que los físicos serios ni siquiera sabrían por donde empezar a refutarlos. Algunos dicen que “la vida sobre la Tierra comenzó con un salto cuántico”, que el “libre albedrío” y la “conciencia” se deben a la mecánica cuántica: incluso fenómenos paranormales han sido descritos como efectos mecano-cuánticos.
Yo sospecho que todo esto es un intento de atribuir fenómenos “ininteligibles” a causas también “ininteligibles” (como la mecánica cuántica) dónde el resultado de cualquier cálculo es siempre una probabilidad, nunca una certeza.
Claro que, ahí están esas teorías más avanzadas y modernas que vienen abriendo los nuevos caminos de la Física y que, a mi no me cabe la menor duda, más tarde o más temprano, podrá explicar con claridad esas zonas de oscuridad que ahora tienen algunas teorías y que Einstein señalaba con acierto.
¿No es curioso que, cuando se formula la moderna Teoría M, surjan, como por encanto, las ecuaciones de Einstein de la Relatividad General? ¿Por qué están ahí? ¿Quiere eso decir que la Teoría de Einstein y la Mecánica Cuántica podrán al fin unirse en pacifico matrimonio sin que aparezcan los dichosos infinitos?
Bueno, eso será el origen de otro comentario que también, cualquier día de estos, dejaré aquí para todos ustedes.
emilio silvera
Abr
2
¡La Física! Siempre presente en nuestras vidas
por Emilio Silvera ~
Clasificado en Física ~
Comments (1)
En 1.849, el físico francés Armand-Hippolyte-Louis Fizeau ideó un artificio mediante el cual se proyectaba la luz sobre un espejo situado a 8 km de distancia, que devolvía el reflejo al observador. El tiempo empleado por la luz en su viaje de ida y vuelta no rebasó apenas la 1/20.000 de segundo, pero Fizeau logró medirlo colocando una rueda dentada giratoria en la trayectoria del rayo luminoso. Cuando dicha rueda giraba a cierta velocidad, regulada, la luz pasaba entre los dientes y se proyectaba contra el siguiente, al ser devuelta por el espejo; así, Fizeau, colocado tras la rueda, no pudo verla. Entonces se dio más velocidad a la rueda, y el reflejo pasó por la siguiente muesca entre los dientes, sin intercepción alguna. De esa forma, regulando y midiendo la velocidad de la rueda giratoria, Fizeau pudo calcular el tiempo transcurrido y, por consiguiente, la velocidad a que se movía el rayo de luz.
Jean-Bernard-Léon Foucault suspendió una bola de 62 libras (unos 28 kilogramos) de hierro desde la cúpula del Panteón y lo puso en movimiento, balanceándolo. Para marcar su progreso el enganchó una aguja a la bola y colocó un anillo de tierra mojada en el suelo bajo él. La audiencia observó con pavor como el péndulo inexplicablemente parecía rotar, dejando un trazo ligeramente distinto en cada balanceo. En realidad era el suelo del Panteón el que estaba ligeramente en movimiento, y Foucault había demostrado, de una forma más convincente que nunca, que la tierra gira sobre su eje. En la latitud de París, el trazo del péndulo completaría una rotación completa en el sentido horario cada 30 horas; en el hemisferio sur rotaría en sentido antihorario, y en el ecuador no rotaría nada. En el Polo Sur, como han confirmado los científicos de la era moderna, el periodo de rotación es de 24 horas.
Un año más tarde, Jean Foucault (quien realizaría poco después su experimento -arriba- con los péndulos) precisó más estas medidas empleando un espejo giratorio en ve de una rueda dentada. Entonces se midió el tiempo transcurrido desviando ligeramente el ángulo de reflexión mediante el veloz espejo giratorio. Foucault obtuvo un valor de la velocidad de la luz de 300.883 km/s. También, el físico francés utilizó su método para determinar la velocidad de la luz a través de varios líquidos. Averiguó que era notablemente inferior a la alcanzada en el aire. Esto concordaba también con la teoría ondulatoria de Huyghens (abajo).
La naturaleza de la luz. Profesor escrupuloso, aunque poco entusiasta, Newton se dedicó a estudios de óptica que le llevaron, a través de una serie de experimentos, al famoso descubrimiento de la descomposición de la luz blanca, que fue explicada por él mediante una teoría corpuscular de la luz destinada a dar jaque a la teoría ondulatoria de C. Huygens y a dominar durante todo el siglo XVIII. Experimentos, descubrimientos e hipótesis sobre la luz fueron hechos públicos en una memoria a la Royal Society. Pero las tempestuosas disputas suscitadas por esta memoria le disgustaron hasta el punto de que se abstuvo de publicar sus Lecciones de óptica (desarrolladas en la cátedra lucasiana entre 1668 y 1671), las cuales sólo vieron la luz en 1729. No obstante, en 1675 presentó a la Royal Society una importante memoria, que constituirá después la base de su Óptica, en la que, partiendo de los experimentos sobre la coloración de laminillas metálicas, expone los principios de su teoría sobre la luz. En la imagen, El descubrimiento de la refracción de la luz de Newton (1827), óleo del pintor italiano Pelagio Palagi.
Michelson, Einstein y Millikan
Michelson fue más preciso aún en sus medidas. Este autor, durante cuarenta años largos, a partir de 1.879, fue aplicando el sistema Fizeau-Foucault cada vez con mayor refinamiento, para medir la velocidad de la luz. Cuando se creyó lo suficientemente informado, proyectó la luz a través de vacío, en vez de hacerlo a través del aire, pues este frena ligeramente su velocidad, y, empleó para ello tuberías de acero cuya longitud era superior a 1’5 km. Según sus medidas, la velocidad de la luz en el vacío era de 299.730 km/seg. (Sólo un 0’006% más bajo). Demostraría también que todas las longitudes de ondas luminosas viajan a la misma velocidad en el vacío.
En 1972, un equipo de investigadores bajo la dirección de Kenneth M. Eveson efectuó unas mediciones aún más exactas y vio que la velocidad de la luz era de 299.727’74 km/seg. Una vez se conoció la velocidad de la luz con semejante precisión, se hizo posible usar la luz, o por lo menos formas de ella, para medir distancias.
Desde Galileo con sus lámparas, cada vez se han utilizado aparatos más sofisticados para medir la velocidad de la luz, y, finalmente, se consiguió medirla de manera muy exacta en 299.792.458 metros por segundo que, es el límite que algo puede alcanzar corriendo por el espacio vacío y que sólo ha conseguido la luz.
Aunque para algunos resulte alto tedioso el tema anterior, no he podido resistirme a la tentación de exponerlo, así podrá saber algo más sobre la luz y, habrán conocido a personajes que hicieron posible el que ahora nosotros, la conozcamos mejor.
Podría continuar, hasta el final de este trabajo, hablando de la luz y sus distintas formas o aplicaciones: ondas de luz a través del espacio, de cómo se transmite la luz en el “vacío”, nos llega a través del espacio desde Galaxias situadas a miles de millones de años luz; las líneas de fuerzas electromagnéticas de Faraday y Maxwell de campos eléctricos y magnéticos cambiantes (todo ello explicado en un simple conjunto de cuatro ecuaciones, que describían casi todos los fenómenos referentes a esta materia electromagnética), o de los enigmas aún por descubrir (aunque predichos).
Muchos han ido a la caza de los monopolos magnéticos que, deben ser raros en el Universo, si finalmente existen. Parece que, algunos físicos han conseguido alguna cosa…no se bien qué sobre su existencia.
En 1.931, Dirac, acometiendo el asiento de una forma matemática, llegó a la conclusión de que sí los monopolos magnéticos existían, sería necesario que todas las cargas eléctricas fuesen múltiplos exactos de una carga más pequeña, como en efecto así es. Y dado que todas las cargas eléctricas son múltiplos exactos de alguna carga más pequeña, ¿no deberían en realidad existir los monopolos magnéticos?
En 1.974, un físico joven y prometedor (más tarde ganó el Nobel), Gerard’t Hooft, y un físico soviético, Alexander Poliakov, mostraron, independientemente, que podía razonarse, a partir de las grandes teorías unificadas, que los monopolos magnéticos debían así mismo existir, y que debían poseer una masa enorme. Aunque un monopolo magnético sería incluso más pequeño que un protón, debería tener una masa que sería de 10 trillones a 10 cuatrillones mayor que la del protón. Eso equivaldría a la masa de una bacteria comprimida en una diminuta partícula subatómica.
Sería la confirmación de una teoría de 1931. Si seres de otros mundos han podido verlos, habrían visto otro tipo de magnetismo los llamados “monopolos magnéticos”.
Semejantes partículas sólo podían haberse formado en el momento de la gran explosión (otra vez volvemos al origen). Desde entonces, no ha existido la suficientemente alta concentración de energía necesaria para formarla. Esas grandes partículas deberían avanzar a unos 225 km por seg., más o menos, y la combinación de una enorme masa y un pequeño tamaño le permitiría deslizarse a través de la materia sin dejar el menor rastro de presencia. Esta propiedad, de hecho, está relacionada directamente con el fracaso obtenido en su búsqueda.
Los físicos están tratando de idear un mecanismo capaz de poder detectar, con claridad, el paso de monopolos magnéticos.
Podríamos decir que, un monopolo magnético es una entidad magnética hipotética consistente en un polo Norte o Sur elemental aislado. Ha sido postulado como una fuente de campo magnético en analogía a la forma en que las partículas eléctricamente cargadas producen un campo eléctrico.
Se han diseñado numerosos experimentos ingeniosos para detectar monopolos, pero hasta ahora, ninguno ha producido un resultado definitivo. Los monopolos magnéticos son predichos en ciertas teorías gauge con bosones de Higgs. En particular, algunas teorías de gran unificación predicen monopolos muy pesados (con masas del orden de 1016 GeV). Se habló de su aparición en los primeros experimentos del LHC, algunos denunciaron eso junto con la aparición de agujeros negros microscópicos pero, de momento…nada
Los monopolos magnéticos también son predichos en las teorías de Kaluza-Klein (5 dimensiones) y en teoría de supercuerdas (10 y 26 dimensione). Es decir, que se predice pero no se puede verificar, y, siendo así, quedamos anclados en el campo de la teoría.
Recuerdo que estaba hablando de los distintos aspectos de la luz, lo que no recuerdo es como he llegado a éste berenjenal de los monopolos magnéticos. Me ocurre siempre, estoy tratando un tema y termino hablando (escribiendo) de otro. No parece más que, el bolígrafo, tenga vida propia. Sin embargo, lo que ocurre en verdad es que, todo es uno, compuesto de distintas partes. Siempre estamos hablando de lo mismo, solo cambian las partes que, en cada momento, estemos estudiando.
La misteriosa materia que compondría el 23 % (se especula) de toda la materia del universo es tan esquiva que jamás ha sido observada por nadie. Así que sólo podíamos sospechar que quizá existía. La materia oscura emite, absorbe e interactúa con radiación electromagnética de manera tan débil que no puede ser observada por medios técnicos ordinarios, no refleja la luz para ser observada.
Sin embargo, un equipo internacional de astrónomos de Japón, Gran Bretaña y Taiwan acaba de conseguir, por primera vez, imágenes que reflejan la distribución de materia oscura alrededor de 20 grandes cúmulos de galaxias. Los resultados se publicarán en la revista mensual de la Royal Astronomical Society. Las pruebas aún no son concluyentes, pero sí muy esperanzadoras.
Ni en el infrarrojo, ni en los rayos X ni en el ultravioleta la materia oscura había revelado aún su auténtica naturaleza. Pero utilizando lentes gravitacionales los científicos han sido capaces de mostrar las primeras imágenes en las que se “aprecia” la misteriosa materia oscura.
Masa-Materia-Luz: Todo la misma cosa ¡Energía! que es el motor que hace andar al ¡El Universo!
emilio silvera