sábado, 13 de septiembre del 2025 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Cosas de la Mecánica Cuántica

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

¡La Física! Esa maravilla que está presente en todo lo que podemos ver y en aquello donde la vista no llega. La infinitud de las partículas elementales que forman todo cuanto existe en la Naturaleza, no siempre se dejan ver ni hacen posible que podamos observar las maravillas que pueden llevar a cabo,

Las sustancias formadas por una sola clase de átomos se llaman elementos químicos, y, si está conformada por distintos átomos, son compuestos. La palabra “átomo” procede del griego ατομος, que significa “indivisible” y el uso de la palabra “elemento” sugiere que se ha llegado a los ladrillos básicos con los que está formada la materia. De hecho, esta es la imagen que se tenía a mediados del siglo XIX cuando se acuñaron estos términos. Sin embargo, hoy sabemos que todo esto es falso, que los átomos se pueden dividir y que, de esta manera, los elementos han dejado de ser verdaderamente elementales. Los físicos continúan con esta nomenclatura aunque sea formalmente incorrecta, ya que, la costumbre, como dicen los juristas, no pocas veces rigen la jerga de las leyes.

 

A todo esto y hablando de los átomos, por fuerza, nos tenemos que acordar del electrón que da al átomo su forma esférica. Son partículas cargadas eléctricamente que se mueven alegremente alrededor del núcleo. El electrón es muy ligero: su masa es solamente 1/1.8836 de la del núcleo más ligero (el hidrógeno). La carga eléctrica del electrón es de signo opuesto a la del núcleo, de manera que los electrones están fuertemente atraídos hacia el núcleo y se repelen mutuamente. Si la carga eléctrica total de los electrones en un átomo iguala a la del núcleo, para lo que generalmente se necesitan varios electrones, se dice que el átomo está en equilibrio o que es eléctricamente neutro.

 

Claro que, no debemos olvidarnos de que, ¡Todo lo grande está hecho de cosas pequeñas! Una inmensa galaxia se conforma de un conjunto inmenso de átomos infinitesimales que juntos, hace ese gran todo.

 

http://webdelprofesor.ula.ve/ciencias/labdemfi/electrostatica/fotos/carga_globo_g.gif

La fuerza a la que obedecen los electrones, la denominada fuerza electrostática o de Coulomb, es matemáticamente bastante sencilla y, sin embargo, los electrones son los responsables de las importantes propiedades de los “enlaces químicos”. Esto se debe a que las leyes de movimiento de los electrones están regidas completamente por la “mecánica cuántica”, teoría que se completó a principios del siglo XX. Es una teoría paradójica y difícil de entender y explicar, pero al mismo tiempo es muy interesante, fantástica y revolucionaria. Cuando uno se introduce en las maravillas de la mecánica cuántica es como si hiciera un viaje a un universo que está situado fuera de este mundo nuestro, ya que, las cosas que allí se ven, desdicen todo lo que dicta nuestro sentido común de cómo tiene que ser el mundo que nos rodea.

 

http://www.mpe.mpg.de/410729/orbits3d_small_gif.gif

La perfecta sincronía Está en la Naturaleza

No solamente los electrones, sino también los núcleos atómicos y los átomos en su conjunto obedecen y se rigen por la mecánica cuántica. La Física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck, escribió un artículo de ocho páginas y allí propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menos intensidad, por los objetos más fríos.

Radiación electromagnética

Espectro electromagnético - Wikipedia, la enciclopedia libreTermodinámica: ¿Qué es y dónde se aplica?

 

Estaban bien aceptados entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si usamos las leyes de la termodinámica para calcular la intensidad de la radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano, y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para las longitudes mayores como para las longitudes menores. Esta longitud característica es inversamente proporcional a la temperatura absoluta del objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273 ºC bajo cero). Cuando a 1.000 ºC un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.

 

El Fotón | Calculisto - Resúmenes y Clases de CálculoQuimica: 1.2.2. RADIACION DEL CUERPO NEGRO Y TEORIA DE PLANCK.

 

Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de la onda y, por lo tanto, proporcional a la frecuencia de la radiación emitida. La sencilla fórmula es:

E = h x v

Donde E es la energía del paquete, v la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.

Energía primaria: las principales fuentes de energíaEjemplos de energía química: el Sol - ZS EspañaEnergía radiante: qué es, qué tipos existen y ejemplos

      Los cuantos de energía están presentes por todas partes y en todos los objetos

 

Efecto Fotoeléctrico. ResumenEfecto Fotoeléctrico: Einstein, Aplicaciones e Importancia

El Efecto Foto-eléctrico

 

Todo es, todos somos, ondas (I) – gAZeta

Dualidad onda partícula

 

La CONSTANTE de PLANCK: definición sencilla - ¡¡RESUMEN FÁCIL!!

Los paquetes de energía de Planck

Poco tiempo después, en 1905, Einstein formuló esta teoría de una forma mucho más tajante: el sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos de los paquetes de energía de Planck. El príncipe francés Louis-Víctor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene una energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta región del espacio, y que la frecuencia, v, de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilatorias de campos de fuerza.

 

 

El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de De Broglie. Poco después, en 1926, Erwin Schrödinger descubrió como escribir la teoría ondulatoria de De Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños estaban exactamente determinados por la recién descubiertas “ecuaciones de onda cuánticas”.

 

14 de diciembre de 1900: Max Planck expone su teoría cuántica, base de la  física moderna - El Orden Mundial - EOM

 

14 de diciembre de 1900: Max Planck publica un arículo de ocho páginas y quedó sembrada la semilla de lo que, más tarde, sería la Mecánica Cuántica.

 

Einstein y la Relatividad General. El inicio de la cosmología moderna |  Instituto de Astrofísica de Andalucía - CSIC

https://youtu.be/bzFWEHaOj0Q

En 1905 y más tarde en 1915, Einstein publicó la Teoría de la Relatividad Especial y General, lo que dio un giro al entendimiento de la Física, y, en la segunda parte, nos trajo una nueva forma de ver  y entender el Universo.

Pocas dudas nos pueden caber a estas alturas de que la mecánica cuántica (de Planck) y, la Relatividad –tanto especial como general- (de Einstein), además de ser las dos teorías más importantes de la Física de nuestro tiempo, funcionan de tal forma que uno, cuando profundiza en sus predicciones y las compara con lo que ocurre en el Universo, no puede por menos que, asombrarse, al comprobar como unas mentes humanas han sido capaces de llegar a estos profundos pensamientos que nos acerca a la realidad de la Naturaleza.

No me parece completa la reseña anterior sin repasar un poco lo que concierne al llamado Modelo Estándar de la Física de partículas, que supone una gran herramienta de trabajo para los físicos.

 

Resultado de imagen de Steven Weinberg y Abdus SalamResultado de imagen de Steven Weinberg y Abdus Salam

Steven Weinberg y Abdus Salam

Precisamente, en los dos últimos comentarios del contertulio Sr. Fandila y otro mío, nos estábamos refiriendo a las teorías y, los dos coincidimos en que, a medida que se avanza y se descubren nuevos parámentros, tienen que ser refinadas para que reflejen de manera más real lo que quieren representar de los fenómenos que vemos en la Naturaleza.

 

Resultado de imagen de El Modelo Estándar de la Física de Partículas

 

“El modelo estándar de la física de partículas es una teoría relativista de campos cuánticos desarrollada entre 1970 y 1973[cita requerida] basada en las ideas de la unificación y simetrías1​ que describe la estructura fundamental de la materia y el vacío considerando las partículas elementales como entes irreducibles cuya cinemática está regida por las cuatro interacciones fundamentales conocidas (exceptuando la gravedad, cuya principal teoría, la relatividad general, no encaja con los modelos matemáticos del mundo cuántico). La palabra “modelo” en el nombre viene del período de los 70 cuando no había suficiente evidencia experimental que confirmara el modelo.1​ Hasta la fecha, casi todas las pruebas experimentales de las tres fuerzas descritas por el modelo estándar están de acuerdo con sus predicciones. Sin embargo el modelo estándar no alcanza a ser una teoría completa de las interacciones fundamentales debido a varias cuestiones sin resolver.”

Resultado de imagen de El Modelo Estándar de la Física de Partículas

 

Han pasado 50 años desde que Steven Weinberg y Abdus Salam publicaran aquel artículo en el que formalizaron el llamado Modelo Estándar de las Interacciones Fundamentales. Han sido 5 décadas de actividad científica muy intensa en las que se han realizado toda clase de experimentos para someter a esta teoría a las más complicadas pruebas que nos dijeran si realmente era un modelo que reflejaba la realidad que la naturaleza nos quiere transmitir.

El Modelo Estándar está construido de manera imperfecta, y aunque ha sido y será una herramienta de un enorme rendimiento para los físicos, hay que reconocer que estaba construido con 20 parámetros aleatorios (metidos con calzador) y, de los cuales solo uno de ellos (el Bosón de Higgs) ha sido hallado.

 

Imagen relacionada

En el modelo estándar que nos habla de las familias de partículas subatómicas que conforman la materia y también de aquellas otras que son intermediarias en la transmisión de las fuerzas fundamentales. Las partículas están divididas en familias como los quarks, los leptones y los hadrones. En realidad, los hadrones que se dividen en bariones y mesones se consideran una clase de subpartículas al estar conformadas por tripletes de quarks los bariones, y, por quarks y anti-quarks los mesones.

 

Resultado de imagen de El Modelo Estándar de la Física de Partículas Resultado de imagen de El Modelo Estándar de la Física de Partículas

 

Además de las partículas mencionadas, en el Modelo Estándar están incluidas tres de las cuatro fuerzas fundamentales de la Naturaleza: Fuerza Nuclear Fuerte, Fuerza Nuclear Débil y, Electromagnetismo. La cuarta fuerza que es la Gravedad se resiste a reunirse en el modelo con las otras tres, y, precisamente por eso, los físicos están tratando de construir el modelo de la Gravedad Cuántica que por fin, reúna a todas las fuerzas.

Parece (aunque esto será objeto de un artículo a parte) que en la teoría de cuerdas (pendiente de ser verificada) puede subyacer esa teoría cuántica de la gravedad.

 

Resultado de imagen de simetria en el modelo estandar

 

La teoría estándar constituye un logro científico de inmensa importancia. A partir de simples postulados de simetría, es posible deducir las propiedades dinámicas de las interacciones electrodébil y fuerte, es decir, el lagrangiano completo que rige las fuerzas entre los constituyentes básicos de la materia, prediciendo así el comportamiento del mundo microscópico, de forma muy precisa y en perfecto acuerdo con las observaciones experimentales.

 

Resultado de imagen de simetria en el modelo estandar

Más aún, la consistencia matemática de la teoría hizo necesario introducir un nuevo campo de fuerza escalar, el campo de Higgs, del que no teníamos ninguna evidencia empírica hasta que los experimentos realizados en el acelerador de partículas LHC, encontraron el Bosón de Higgs y se consiguió añadir uno de los veinte parámetros aleatorios que tenía el modelo para convertirlo en un parámetro real y muy positivo, de tal manera que 50 años más tarde, lo que era una hipótesis teórica se ha convertido en una realidad tangible.

 

Resultado de imagen de simetria en el modelo estandar

 

Desde la perspectiva actual, la Teoría Estándar se obtiene fácilmente a partir de un mínimo número de ingredientes: la existencia de constituyentes elementales de la materia con espín ½, quarks y leptones, y las propiedades de simetría de los campos cuánticos que los describen.

La derivación matemática de su estructura parece tan simple y elegante que se podría llegar a pensar que es el resultado de una idea brillante (¿por qué no se nos había ocurrido antes?). Nada más lejos de la realidad. El desarrollo histórico de la teoría se produjo mediante una concatenación de pequeños pasos, no siempre en la buena dirección, en los que poco a poco se fueron superando grandes dificultades técnicas y conceptuales.

Resultado de imagen de simetria en el modelo estandar

El modelo que formularon Weinberg y Salam en 1967-1968 estaba basado en los desarrollos anteriores realizados por muchos otros científicos. Además, era un modelo solo de leptones y por lo tanto, tal como ahora sabemos, matemáticamente inconsistente debido a anomalías cuánticas. Harían falta todavía algunos años de profunda investigación y nuevas ideas para hacer posible la incorporación de los quarks, dando lugar al modelo definitivo. La celebración de este cincuentenario es una buena oportunidad para analizar retrospectivamente la evolución conceptual que ha permitido alcanzar este gran éxito científico.

 

Núcleo atómico - Wikipedia, la enciclopedia libre

 

Para terminar este trabajo, me retrotraigo a ese “puntito” infinitesimal que es el Núcleo Atómico

 

El experimento de Rutherford

 

Rutherford con su experimento, descubrió que en el átomo existía un pequeño núcleo  cargado positivamente, rodeado de electrones cargados negativamente. Los experimentos sobre la dispersión de partículas pusieron de manifiesto que el núcleo tiene dimensiones del orden de 10-14 m. Dado que el diámetro de un átomo es del orden de 10-10 m, el núcleo ocupa solo una fracción muy pequeña del volumen de un átomo. Sin embargo, el núcleo contiene casi toda la masa del átomo, como también demostraron esos experimentos.

 

Ancile: EL GLUÓN O LOS FANTASMAS DE LA MASA SUBATÓMICA: ENTRE LA  CROMODINÁMICA Y LA ESPUMA CUÁNTICAS

         Pero profundicemos un poco más

El núcleo atómico está constituido de los llamados Nucleones (es decir: Protones y Neutrones, partículas no elementales de la familia de los Hadrones en su rama Bariónica). Pero resulta que los nucleones están conformados, al mismo tiempo, por tripletes de partículas elementales de la familia Quarks, un protón tiene en sus entrañas a dos Quarks Up y un Quark Down, mientras que el Neutrón, tiene en su interior a dos Quarks Down y un Quarks Up.

 Estos Quarks están allí confinados mediante la fuerza nuclear fuerte (la más potente de las cuatro fuerzas fundamentales), que es la única fuerza que crece con la distancia. Pues bien, la fuerza es transmitida e intermediada por otra familia de partícula que se llaman Bosones, y, aquí aparecen los Gluones que retienen a los Quarks confinados en el interior de los nucleones, y, cuando los Quarks tratan de separarse… ¡La fuerza nuclear aumenta y lo impide! Es lo que se conoce como libertad Asintótica de los Quarks.

Es difícil imaginar como en un espacio tan diminuto como lo es el núcleo atómico, puedan existir tantas cosas y ocurran tantos sucesos, realmente la Naturaleza es Asombrosa.

Emilio Silvera Vázquez

Superconductividad

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

“Hace algunos años me hallé a mi mismo en un lugar completamente inesperado: una conferencia sobre teoría de cuerdas. Mi campo de investigación es la materia condensada, el estudio de materiales como metales y superconductores a temperaturas próximas al cero absoluto. Esta disciplina se halla todo lo lejos de la teoría de cuerdas como podría estarlo sin salirse de la física. La Teoría de cuerdas intenta describir la Naturaleza a energía muhco mayores a las que puedan alcanzarse en los laboratorios terrestres o, de hecho, en cualquier lugar del universo conocido. Quienes a ella se dedican estudian las exóticas leyes que gobiernan los agujeros negros y postulan que el universo posee otras dimensiones espaciales, además de las tres que podemos ver. Para ellos, la Gravedad constituye la interacción dominante de la Naturaleza. Para mí, no desempaña ningún papel.”

 

La mecánica cuántica fue desarrollada en el siglo XX para describir el movimiento de un electrón en un átomo de hidrógeno. Más tarde, Einstein y otros señalaron que la teoría cuántica de un par de electrones no tenía funciones intuitivas que encontraron difícil de aceptar: dos electrones bien pueden tener sus estados cuánticos “enredado”, indicando que hablan el uno al otro la mecánica cuántica, incluso a pesar de que están muy separados. Hoy en día, el entrelazamiento cuántico no es visto como un sutil efecto microscópico de interés sólo para unos pocos físicos, sino como un ingrediente crucial necesaria para una comprensión completa de las muchas fases de la materia. Un cristal puede tener unos billones de billones de electrones entrelazados unos con otros, y los diferentes patrones de entrelazamiento conducir a fases que son imanes, metales, o superconductores. Voy a dar una simple discusión de estas y otras características notables de la mecánica cuántica de un trillón de trillones de electrones, y de su importancia para una variedad de materiales tecnológicamente importantes. La teoría también tiene conexiones sorprendentes e inesperados a la teoría de cuerdas: notablemente, esto se conecta el movimiento de los electrones dentro de un plano de un cristal en el laboratorio, a la teoría de los agujeros negros astrofísicos similares a los estudiados por Chandrasekhar

Si hay algo que le gusta a la ciencia es estudiar los extremos de la naturaleza, incluso a veces forzarlos un poco. Cada vez construimos telescopios para ver más lejos, naves para viajar más rápido, combustibles de mayor rendimiento, etc. Y uno de los aspectos de la naturaleza que no se escapa de está búsqueda de los límites extremos es la temperatura.

Efectivamente, porque en el año 1997 el premio Nobel de física fue a parar a tres investigadores: Steven Chu (Universidad de Standford, California), Claude Cohen (Collage de France and Ecole Normale, Paris) y william D. Phillips (National Institute of Standards an Technology, Maryland), por el desarrollo de técnicas para lograr las temperaturas más bajas jamás alcanzadas.

 

Vortices cuánticos en un condensado rotante de átomos de sodio

Esta investigación abrió la puerta a todo un nuevo campo de investigación. Gracias a ella estamos conociendo mejor la estructura más íntima de la materia, y lo que es más importante comenzando a controlarla.

Vórtices cuánticos en un condensado rotante de átomos de sodio. Pero sigamos con el Profesor Sachdev que, nos sigue contando:

“Estas diferencias entre los físicos de cuerdas y los de la materia condensada, se plasman en un abismo cultural. Los investigadores de teorías de cuerdas gozan de una excelente reputación, por lo que asistí a aquella conferencia con un temor casi reverencial a su pericia matemática. Había invertido meses en la lectura de artículos y libros sobre el tema, a menudo quedándome empantanado. Estaba seguro de que sería rechazado como un advenedizo ignorante. Por su parte, los teóricos de cuerdas tenían dificultades con algunos de los conceptos más simples de mi campo. Llegué a verme dibujando esquemas que con anterioridad solo había empleado con mis estudiantes de doctorado primerizos.

 

Superconductividad : Blog de Emilio Silvera V.

Varios científicos encabezados por el físico de Oxford Ian Walmsley han conseguido relacionar y hacer vibrar a dos diamantes en el proceso conocido como entrelazamiento cuántico. El misterioso proceso, al que el propio Eisntein no supo darle comprensión completa, supone el mayor avance hasta la fecha y abre las puertas de la computación cuántica.

Así pues, ¿porque había asistido? Durante los últimos años, los expertos en materia condensada hemos observado que algunos materiales pueden comportarse de un modo que hasta ahora juzgábamos imposible.  Se trata de fases marcadamente cuánticas de la materia cuya estructura se caracteriza por la aparición de uno de los fenómenos más chocantes de la naturaleza: el entrelazamiento cuántico. En un célebre artículo escrito en 1935, Albert Einstein, Boris Podolski y Nathan Rosen señalaron que la teoría cuántica implicaba  la existencia de ciertas conexiones “espeluzmantes” entre partículas. Cuando aparecen, las partículas se coordinan sin que haya entre ellas una acción física directa. Einstein y sus colaboradores consideraron el caso de dos electrones, pero un metal o un superconductor contienen muchísimos más: del orden de 1023, en una muestra de laboratorio típica. La complejidad que exhiben algunos materiales resulta sobrecogedora, y a ella he dedicado gran parte de mi carrera. Pero el problema no se reduce a lo meramente académico:

 

    Se trabajo con superconductores de baja y de alta temperatura. Bueno, al menos se está intentando saber más de ambos métodos. Los superconductores revisten una enorme importancia técnica, por lo que se han dedicado ingentes esfuerzos a entender sus propiedades y su potencial.

Hace unos años descubrimos que la Teoría de cuerdas nos brindaba una manera completamente inesperada de enfocar el problema. En su camino hacia una formulación que unifique las interacciones cuánticas entre partículas y la Teoría de la Gravedad de Einstein, los físicos de cuerdas se han topado con lo que ellos denominan “dualidades”: relaciones ocultas entre áreas de la física muy apartadas entre sí. Las dualidades que nos interesan relacionan dos tipos de teorías: por un lado, las que funcionan bien cuando los fenómenos cuánticos no resultan significativos pero la gravedad es muy intensa; por otro lado, aquellas que describen efectos cuánticos fuertes en situaciones con campos gravitatorios débiles [vease “El Espacio, ¿una ilusión”, por Juan Maldacena; Investigación y Ciencia, enero 2006]. Esta equivalencia permite traducir los hallazgos hallados en un campo al otro. Gracias a ella, descubrimos que podíamos expresar nuestras preguntas sobre el entrelazamiento en términos de un problema gravitatorio para, después, servirnos de los descubrimientos que los físicos de cuerdas habían realizado sobre las matemáticas de los agujeros negros. Un ejemplo de epnsamiento refinado al máximo.

 

                                                                        Fases Ocultas

Para entender ese círculo de ideas debemos volver por un momento a la física del bachillerato. Según esta, las fases de la materia corresponden a los estados sólidos, líquido y gaseoso. Un sólido posee tamaño y forma fijos; un líquido toma la forma del recipiente que lo contiene;, aunque se parecen en este último aspecto a los líquidos, pueden alterar su volumen con facilidad. Aunque se trata de conceptos simples, hasta principios del siglo XX carecíamos de un entendimiento preciso de las fases de la materia. Los átomos se disponen de manera ordenada en los sólidos cristalinos, pero pueden moverse en líquidos y gases.

 

 

Sin embargo, las tres fases anteriores no bastan en absoluto para describir todos los aspectos de la materia. Un sólido no se compone solo de una red de átomos, sino también de un enjambre de electrones. Cada átomo libera unos pocos electrones que pueden pulular por todo el cristal. Cuando conectamos una batería a un pedazo de metal, la corriente eléctrica fluye por él.

Casi todos los metales obedecen la ley de Ohm: la intensidad de la corriente es igual al voltaje aplicado dividido por la resistencia del material. Los aislantes, como el teflón, presentan una resistencia muy elevada; en los metales, la resistencia es baja. Los superconductores destacan por poseer una resistencia inconmensurablemente pequeña. En 1911, Helke Kamerlingh Onnes descubrió el fenómeno al refrigerar mercurio sólido a 4 grados Kelvin (269 grados Celcius bajo cero). Hoy conocemos materiales en los que la superconductividad aparece a temperaturas mucho mayores (hasta 138 grados Celcius bajo cero).

 

Superconductividad : Blog de Emilio Silvera V.

Aunque tal vez no resulte obvio, aislantes y superconductores representan fases diferentes de la materia. El enjambre de electrones que los caracteriza adquiere en cada caso propiedades distintas. Durante las dos últimas décadas, hemos descubierto que los sólidos poseen fases electrónicas adicionales. Entre ellas, una especialmente interesante que, de tan insólita, ni siquiera tiene nombre: los físicos hemos dado en llamarla “metal extraño”. Se caracteriza por una dependencia inusual entre su resistencia eléctrica y su temperatura.”

 

Durante décadas, los físicos han estado tratando de conciliar las dos teorías principales que describen el comportamiento físico. La primera, la teoría de Einstein de la relatividad general, utiliza la gravedad – Las fuerzas de atracción – para explicar el comportamiento de los objetos con masas grandes, tales como la caída de los árboles o los planetas en órbita. Sin embargo, a nivel atómico y subatómico, las partículas con masas despreciables se describen mejor con otra teoría: la mecánica cuántica.

Una “teoría del todo” que unificara a la relatividad general con la mecánica cuántica abarcaría todas las interacciones físicas, sin importar el tamaño del objeto. Uno de los candidatos más populares para una teoría unificada es la teoría de cuerdas, desarrollada por primera vez a finales de 1960 y principios de 1970.

La teoría de cuerdas explica que los electrones y los quarks (los bloques de construcción de las partículas más grandes) son cadenas unidimensionales oscilantes, no objetos sin dimensiones como tradicionalmente se pensaba.

Los físicos están divididos sobre si la teoría de cuerdas es una teoría viable del todo, pero muchos están de acuerdo que ofrece una nueva manera de mirar a los fenómenos físicos que han demostrado ser de otro modo difíciles de describir. En la última década, los físicos han usado la teoría de cuerdas para construir una conexión entre la gravedad y la mecánica cuántica, conocida como “Gauge / dualidad gravedad”.

 

Hallan un posible nuevo estado de la materia en superconductores

Hace unos 20 años que los científicos encontraron un inexplicable vacío en la estructura electrónica de ciertos supeconductores de alta temperatura. Ahora, una nueva investigación realizada por un equipo liderado por el físico Zhi-Xun Shen podría haber descubierto las razones de este misterio: la brecha podría evidenciar la existencia de un nuevo estado de la materia. El descubrimiento podría servir para conseguir materiales que presenten superconductividad a temperatura ambiente, algo que seguramente cambiaría nuestras vidas.

 

Hallan un posible nuevo estado de la materia en superconductores
Greg Stewart, SLAC
Una recreación del fenómeno

Es posible que uno de los misterios más antiguos que poseen los materiales superconductores haya sido resuelto. Desde hace unos 20 años que los científicos saben que, a determinadas temperaturas, los materiales superconductores presentan un vacío inexplicable en sus estructuras electrónicas. Este fenómeno podría ser explicado por la presencia de un nuevo estado -previamente desconocido- de la materia. O al menos, esta conclusión es a la que ha llegado un equipo de científicos liderado por el físico Zhi-Xun Shen, del Instituto de Stanford para la Ciencia de los materiales y energía (SIMES), que es una empresa conjunta del Departamento de energía (DOE) SLAC National Accelerator Laboratory y la Universidad de Stanford.

Zhi-Xun Shen está convencido que este trabajo proporciona la más fuerte evidencia encontrada hasta la fecha de la existencia de un nuevo estado de la materia. Además, la investigación podría brindar las claves necesarias para lograr materiales superconductores capaces de funcionar a temperatura ambiente.

 

                Zhi-Xun Shen

Los supeconductores no presentan resistencia al paso de la energía eléctrica, permitiendo la construcción de electroimanes extremadamente potentes, como los utilizados en trenes de levitación magnética o aceleradores de partículas como el LHC. Sin embargo, estos materiales solo mantienen sus propiedades a temperaturas muy bajas, a menudo cercanas al cero absoluto. Los detalles del trabajo de Zhi-Xun Shen fueron publicados en el número 25 de marzo de la revista Science, y en él se destaca que uno de los obstáculos más importante que impiden el desarrollo de superconductores a altas temperaturas es el hecho de que aún los que poseen esa propiedad a temperaturas bastante mayores que cero absoluto deben ser refrigerados a mitad de camino a 0 grados Kelvin antes de que funcionen. Conseguir que un material presenten superconductividad a temperatura ambiente sin necesidad de este enfriamiento previo haría posible la distribución de electricidad sin pérdidas y muchos otros adelantos que, en conjunto, cambiarían nuestras vida

 

Principios de la Superconductividad

 

los principios físicos de la superconductividad no se comprendieron hasta 1957, cuando los físicos estadounidenses John Bardeen, León N. Cooper y John R. Schrieffer propusieron una teoría que ahora se conoce como teoría BCS por las iniciales de sus apellidos, y por la que sus autores recibieron el Premio Nobel de Física en 1972. La teoría BCS describe la superconductividad como un fenómeno cuántico, en el que los electrones de conducción se desplazan en pares, que no muestran resistencia eléctrica. Esta teoría explicaba satisfactoriamente la superconducción a altas temperaturas en los metales, pero no en los materiales cerámicos. En 1962, el físico británico Brian Josephson estudió la naturaleza cuántica de la superconductividad y predijo la existencia de oscilaciones en la corriente eléctrica que fluye a través de dos superconductores separados por una delgada capa aislante en un campo eléctrico o magnético. Este fenómeno, conocido como efecto Josephson, fue posteriormente confirmado experimentalmente.

Los científicos han usado electroimanes para generar campos magnéticos desde hace mucho tiempo. Haciendo fluir corriente eléctrica por un anillo conductor se induce campo magnético. Sustituyendo el conductor por un superconductor y enfriándolo a la temperatura necesaria, podría ser posible generar campos magnéticos mucho mas potentes debido a la falta de resistencia, y por tanto de generación de calor en el anillo. Sin embargo, esto no pudo hacerse en un principio. Cuando el campo magnético alcanzaba una determinada intensidad, el superconductor perdía sus propiedades y se comportaba como un conductor ordinario. Hasta la década de los cuarenta no se resolvieron los problemas de los campos magnéticos y solo muy recientemente se ha superado el problema de las bajas temperaturas.

 

El Principio de Exclusión de Pauli: o, por qué no implosionamos

 

“¿Cuál es la razón por la que la materia no se colapsa sobre sí misma? El mismo principio que impide que las estrellas de neutrones y las enanas blancas implosionen y que hace que la materia normal sea en su mayor parte espacio vacio también permite la existencia de los seres humanos. El nombre técnico de este principio es el Principio de Exclusión de Pauli, y dice que dos fermiones (un tipo de partículas fundamentales) idénticos y con la misma orientación no pueden ocupar simultáneamente el mismo lugar en el espacio. Por el contrario, los bosones (otro tipo de partículas) no se comportan así, tal y como se ha demostrado recientemente por medio de la creación en el laboratorio de los condensados de Bose-Einstein.

A principios del s. XXI se hizo posible demostrar gráficamente el Principio de Exclusión de Pauli. Hoy ofrecemos esta demonstración como nuestra imagen del día. Lo que vemos arriba son nubes compuestas por dos isótopos de litio: la de la izquierda está formada a partir de bosones, mientras que la de la derecha está formada a partir de fermiones. A medida que baja la temperatura, los bosones se apilan unos sobre otros, pero los fermiones se mantienen separados.”

 

 

▻ Biografía de Wolfgang Pauli - Principio de la Exclusión de PauliPauli Exclusion Principle

Otras veces hemos explicado aquí que los Bosones no obedecen al Principio de exclusión de Pauli, por lo que todos los pares de electrones de un superconductor pueden englobarse en el estado de mínima energía, lo que da lugar a un fenómeno conocido como condensación de Bose-Einstein. Vendría a ser como verter agua en un vaso y observar que, en vez de llenarse, se forma una fina capa de hielo en el fondo que absorbe tanta agua como tenemos sin aumentar su espesor.

Si a un material de tales características le aplicamos un voltaje, veremos que este promociona los pares de electrones hacia un estado que posee una diminuta cantidad de energía adicional, con lo que se genera una corriente eléctrica. Dicho estado de energía superior se encuentra por lo demás vacío, por lo que nada impide el flujo de pares y el superconductor transmite la corriente sin oponer resistencia.

Puntos Críticos

 

El secreto de la superconductividad de alta temperatura cada día más próximo - La Ciencia de la Mula FrancisSuperconductividad de alta temperaturaEl MIT demuestra que los imanes superconductores de alta temperatura están listos para la fusión nuclearLa superconductividad a alta temperatura bate su récord a -23 °C - INVDES

A principio de los ochenta, el éxito de la mecánica cuántica a la hora de explicar las propiedades de los metales, aislantes, superconductores y otros materiales, como los semiconductores (la base de la electrónica moderna) generó -la engañosa- sensación de que ya no quedaban grandes descubrimientos que hacer. Esa convicción se vino abajo cuando aparecieron los superconductores de altas temperaturas.

Un ejemplo nos lo proporciona el arseniuro de hierro y bario cuando una fracción del arsénico ha sido reemplazada por fósforo.  A bajas temperaturas este material se comporta como un superconductor. Se cree que obedece a una teoría similar a la propuesta por BCS, pero en la que los pares de electrones no se crean por las vibraciones de la red cristalina, sino por efectos debidos a la física del espín.

Seguir ahondando en este tema de la superconductividad, nos llevaría muy lejos hasta comprobar, que no conocemos esencialmente lo que la materia es y, lo que de ella podemos esperar en circunstancias especiales. Nada es lo que parece a primera vista y, cuando conozcamos bien ese mundo extraño y misterioso que llamamos mecánica cuántica… ¿Qué podremos encontrar? Seguramente, allí estarán esos fantásticos y maravillosos “mundos” largamente buscados por los físicos y en los que, ¡Oh! ¡sorpresa! aparecerán las predicciones de la Teoría de cuerdas a la que no podemos llegar por no disponer de la energía necesaria.

El trabajo tiene varias fuentes pero, de manera muy especial, señaló aquí la Revista Investigación y ciencia en su artículo sobre el reportaje de  Subir Sachdev que, entre otros datos recogidos al azar, conforman el presente trabajo que, de mi parte, contiene sólo algunos apuntes que tratan de conexionar el conjunto.

Publica: Emilio Silvera  Vázquez

 

Partículas “bellas” de materia y antimateria II

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Hace ya algún tiempo que os puse aquí mismo la primera parte del  artículo publicado en la Revista de Física de la RSEF, os pongo el comienzo de aquella primera parte y el final, así, recordareis.

 

revista española de física – GEFES RSEFRSEF (@RSEF_ESP) / Twitter

Un magnífico artículo de Don Alberto Ruiz Jimeno, miembro del Grupo de Altas Energías del Instituto de Física Moderna Universidad de Cantabria y Jefe del Grupo de Altas Energías. En él nos dice que:

 

Tevatrón - Wikipedia, la enciclopedia libreCientíficos de Tevatron completan el puzle del quark top | CPAN - Centro Nacional de Física de Partículas, Astropartículas y Nuclear

Una nueva partícula descubierta en CDF? | Física de particulas para secundariaLas fronteras informáticas de los aceleradores | KosmosLogos

 

Nuevos bariones constituidos por tres Quarks, como los protones, pero conteniendo el quarks b (“belleza”) han sido observado en el experimento CDF del Acelerador del Tevatrón de protones y antiprotones. Por otra parte (nos dice), se ha observado por primera vez la oscilación de los mesones B, entre materia y antimateria. Dado que el artículo puede tener un alto interés para ustedes, he creído positivo transcribirlo aquí para gozo del personal que, con estos nuevos conocimientos (como me pasó a mí), podrán aumentar los suyos.

La física de partículas elementales tiene por objeto el estudio de los constituyentes más elementales de la materia y de las fuerzas fundamentales que rigen su comportamiento. La dinámica de estos bloques fundamentales viene formulada por la mecánica cuántica relativista.

Terminaba esta primera parte así:

 

Archivo:Interacciones del modelo estándar de la física de particulas.png - Wikipedia, la enciclopedia libreLa ruptura espontánea de la simetría electrodébil y el bosón de Higgs - La Ciencia de la Mula Francis

 

El Modelo Estándar ha sido comprobado desde su desarrollo formal, a mediados de 1960, y sus parámetros han sido medidos con extraordinaria precisión, gracias al desarrollo de experimentos muy potentes, entre los que destacan los realizados en el acelerador LEP (“Large Electrón Positrón”) del CERN (Centro Europeo de Física de Partículas, en Ginebra), durante la última década del siglo XX, y del Tevatrón del Laboratorio Fermilab (Chicago, USA), aún en funcionamiento.

Leer más

El “mundo” de lo muy pequeño… ¡Es tan extraño!

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Muchas veces hemos hablado del electrón que rodea el núcleo, de su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; tiene una masa de solamente 1/1.836 de la del núcleo más ligero (el del hidrógeno). La importancia del electrón es vital en el universo. Simplemente con que su carga fuera distinta en una pequeña fracción… ¡El mundo que nos rodea sería muy diferente! Y, ni la vida estaría presente en el Universo.

 

Qué es la radiación de cuerpo negro? Definición1.1: La radiación de cuerpo negro no puede explicarse clásicamente -  LibreTexts Español

La Radiación de Cuerpo Negro no puede ser explicada clásicamente

                      Experimentos con electrones y positrones nos enseñaron cómo funciona el universo

Pero busquemos los “cuantos”. La física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menor intensidad, por los objetos más fríos (radiación de cuerpo negro).

 

En esta gráfica a cada temperatura el cuerpo negro emite una cantidad estándar de energía que está representada por el área bajo la curva en el intervalo.

Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si utilizamos las leyes de la termodinámica para calcular la intensidad de una radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para menores. Esta longitud de onda característica es inversamente proporcional a la temperatura absoluta de objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273º bajo cero). Cuando a 1.000º C un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.

 

Imágenes de Forja de metal al rojo vivo libres de derechos | DepositphotosLingote de metal al rojo vivo sobre malla metálica en terreno arenoso Stock  Photo | Adobe Stock

Hierro al rojo vivo

Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda, y por tanto, proporcional a la frecuencia de radiación emitida. La fórmula es E = hν, donde E es la energía del paquete, ν es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.

¿Qué es la dualidad onda/partícula? Parte 1

Dualidad inda partícula

Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: él sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta región del espacio, y que la frecuencia ν de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas  diferentes ondas oscilantes de campos de fuerza, pero esto lo veremos más adelante.

 

La primera es la imagen obtenida por los físicos en el laboratorio y, la segunda es la Imagen ilustrativa de la dualidad onda-partícula, con la cual se quiere significar cómo un mismo fenómeno puede tener dos percepciones distintas. Lo cierto es que, el mundo de lo muy pequeño es extraño y no siempre lo podemos comprender.

El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de de Broglie. Poco después, en 1926, Edwin Schrödinger descubrió cómo escribir la teoría ondulatoria de de Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de ondas cuánticas”.

 

 

Ley de Newton sobre el movimiento de los planetas - Leyes de Newton

 

Está bien comprobado que la mecánica cuántica funciona de maravilla…, pero, sin embargo, surge una pregunta muy formal: ¿Qué significan realmente estas ecuaciones?, Qué es lo que están describiendo? Cuando Isaac Newton, allá en 1867 formuló cómo debían moverse los planetas alrededor del Sol, estaba claro para todo el mundo qué significaban sus ecuaciones: que los planetas estaban siempre en una posición bien definida des espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades en el tiempo.

Pero para los electrones todo es diferente. Su comportamiento parece estar envuelto en misterio. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?

 

 

El “universo de las partículas nunca ha sido fácil de comprender y su rica diversidad, nos habla de un vasto “mundo” que se rige por su propias reglas que hemos tenido que ir conociendo y seguimos tratando de saber, el por qué de esos comportamientos extraños y a veces misteriosos. Así, la pregunta anterior, de ¿Qué puede significar todo eso?…

La pudo contestar Niels Bohr, de forma tal que,  con su explicación se pudo seguir trabajando, y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la interpretación de Copenhague de la mecánica cuántica.

Las leyes de la mecánica cuántica han sido establecidas con mucha precisión; permite cómo calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas de manera simultánea. Por ejemplo, podemos determinar la velocidad de una partícula con mucha precisión, pero entonces no sabremos exactamente dónde se encuentra; o a la inversa, podemos determinar la posición con precisión, pero entonces su velocidad queda mal definida. Si una partícula tiene espín (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.

 

No es fácil explicar de forma sencilla de dónde viene esta incertidumbre, pero existen ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar. Para afinar un instrumento musical se debe escuchar una nota durante un cierto intervalo de tiempo y compararla, por ejemplo, con un diapasón que debe vibrar también durante un tiempo. Notas muy breves no tienen bien definido el tono.

 

 

Para que las reglas de la mecánica cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuando más grande y más pesado es un objeto, más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica. Me gustaría referirme a esta exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por holismo, y que podría definir como “el todo es más que la suma de sus partes”. Si la física nos ha enseñado algo es justo lo contrario. Un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (partículas); basta que sepamos sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes. Por ejemplo,  la constante de Planck, h, que es igual a 6’626075… × 10-34 Julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.

Orto - Wikipedia, la enciclopedia libre

¿Qué sería de nosotros sin los amaneceres, y, la Tierra como sería sin luz?

Mucho ha sido el camino andado hasta nuestros tratando de conocer los secretos de la naturaleza que, poco a poco, nos van siendo familiares. Sin embargo, es más el camino que nos queda por recorrer. Es mucho lo que no sabemos y, tanto el micro-mundo como en el vasto mundo de muy grande, hay que cosas que aún, no hemos llegado a comprender.

 

    El detector ATLAS funcionó, y rastrearon las partículas subatómicas

Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los “trucos” ingeniosos descubiertos por Werner Heisemberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros como Erwin Schrödinger siempre presentaron serias objeciones a esta interpretación. Quizá funcione bien, pero ¿dónde está exactamente el electrón?, ¿en el punto x o en el punto y? En pocas palabras, ¿dónde está en realidad?, y ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.

 

http://2.bp.blogspot.com/_XGCz7tfLmd0/TCu_FS8raaI/AAAAAAAAGTs/6GWffvsxzPc/s320/image012.jpg

     Es cierto que, localizar y saber en qué punto exacto están esas pequeñas partículas… no es fácil

La mecánica cuántica puede ser definida o resumida así: en principio, con las leyes de la naturaleza que conocemos ahora se puede predecir el resultado de cualquier experimento, en el sentido que la predicción consiste en dos factores: el primer factor es un cálculo definido con exactitud del efecto de las fuerzas y estructuras, tan riguroso como las leyes de Isaac Newton para el movimiento de los planetas en el Sistema Solar; el segundo factor es una arbitrariedad estadística e incontrolable definida matemáticamente de forma estricta. Las partículas seguirán una distribución de probabilidades dadas, primero de una forma y luego de otra. Las probabilidades se pueden calcular utilizando la ecuación de Schrödinger de función de onda (Ψ) que, con muchas probabilidades nos indicará el lugar probable donde se encuentra una partícula en un momento dado.

 

 

Función de onda para una partícula bidimensional encerrada en una caja. Las líneas de nivel sobre el plano inferior están relacionadas con la probabilidad de presencia.

Muchos estiman que esta teoría de las probabilidades desaparecerá cuando se consiga la teoría que explique, de forma completa, todas las fuerzas; la buscada teoría del todo, lo que implica que nuestra descripción actual incluye variables y fuerzas que (aún) no conocemos o no entendemos. Esta interpretación se conoce como hipótesis de las variables ocultas.

 

 

Nobel de Física: un premio de 1935

Albert Einstein, Nathan Rosen y Boris Podolski idearon un “Gedankenexperiment”, un experimento hipotético, realizado sobre el papel, para el cual la mecánica cuántica predecía como resultado algo que es imposible de reproducir en ninguna teoría razonable de variables ocultas. Más tarde, el físico irlandés John Stewar Bell consiguió convertir este resultado en un teorema matemático; el teorema de imposibilidad.

 

John bell

 

(“El teorema de Bell o desigualdades de Bell se aplica en mecánica cuántica para cuantificar matemáticamente las implicaciones planteadas teóricamente en la paradoja de Einstein-Podolsky-Rosen y permitir así su demostración experimental. Debe su nombre al científico norirlandés John S. Bell, que la presentó en 1964.

El teorema de Bell es un metateorema que muestra que las predicciones de la mecánica cuántica (MC) no son intuitivas, y afecta a temas filosóficos fundamentales de la física moderna. Es el legado más famoso del físico John S. Bell. El teorema de Bell es un teorema de imposibilidad, que afirma que:

Ninguna teoría física de variables ocultas locales puede reproducir todas las predicciones de la mecánica cuántica.”)

 

 

               ¿Cómo saber el número que saldrá cuando lanzamos los dados?

¡¡La mecánica cuántica!!, o, la perplejidad de nuestros sentidos ante lo que ese “universo cuántico” nos ofrece que, generalmente, se sale de lo que entendemos por sentido común. Ahí, en el “mundo” de los objetos infinitesimales, suceden cosas que no siempre podemos comprender. Y, como todo tiene una razón, no dejamos de buscarla en cada uno de aquellos sorprendentes sucesos que en ese lugar se producen. Podríamos llegar a la conclusión de que, la razón está en todo y solo la encontramos una vez que llegamos a comprender, mientras tanto, todo nos resulta extraño, irrazonable, extramundano y, algunas veces…imposible. Sin embargo, ahí está. Dos elementos actúan de común acuerdo para garantizar que no podamos descorrer el velo del futuro, de lo que será después (podemos predecir aproximaciones, nunca certezas), el principal de esos elementos es la ignorancia nunca podremos saber el resultado final de éste o aquél suceso sin tener la certeza de las condiciones iniciales. En la mayoría de los sistemas físicos son, en mayor o menor medida dada su complejidad, del tipo caótico es tal que, el resultado de las interacciones entre elementos son sumamente sensibles a pequeñísimas variaciones de los estados iniciales que, al ser perturbados mínimamente, hacen que el suceso final sea y esté muy alejado del que se creía al comienzo.

Emilio Silvera Vázquez

De lo pequeño a lo grande y, conocer la Naturaleza…¡No será...

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Una parte de la ciencia estudia la estructura y la evolución del Universo: La cosmología.

La cosmología observacional se ocupa de las propiedades físicas del Universo, como su composición física referida a la química, la velocidad de expansión y su densidad, además de la distribución de Galaxias y cúmulos de galaxias.  La cosmología física intenta comprender estas propiedades aplicando las leyes conocidas de la física y de la astrofísica.  La cosmología teórica construye modelos que dan una descripción matemática de las propiedades observadas del Universo basadas en esta comprensión física.

La cosmología también tiene aspectos filosóficos, o incluso teológicos, en el sentido de que trata de comprender por qué el Universo tiene las propiedades observadas. La cosmología teórica se basa en la teoría de la relatividad general, la teoría de Einstein de la gravitación.  De todas las fuerzas de la naturaleza, la gravedad es la que tiene efectos más intensos a grandes escalas y domina el comportamiento del Universo en su conjunto.

 

 

El espacio-tiempo, la materia contenida en el Universo con la fuerza gravitatoria que genera, los posibles agujeros de gusano y, nuestras mentes que tienen conocimientos de que todo esto sucede o puede suceder. De manera que, nuestro consciente (sentimos, pensamos, queremos obrar con conocimiento de lo que hacemos), es el elemento racional de nuestra personalidad humana que controla y reprime los impulsos del inconsciente, para desarrollar la capacidad de adaptación al mundo exterior.

Al ser conscientes, entendemos y aplicamos nuestra razón natural para clasificar los conocimientos que adquirimos mediante la experiencia y el estudio que aplicamos a la realidad del mundo que nos rodea. Claro que, no todos podemos percibir la realidad de la misma manera, las posibilidades existentes de que el conocimiento de esa realidad, responda  exactamente a lo que  ésta es en sí, no parece fácil.

De lo pequeño a lo grande : Desde los átomos a las Galaxias
HISTORIAS DEL ÁTOMO Y EL UNIVERSO - ConMarcaPropia
No importa la diferencia de las dimensiones, en el núcleo atómico está presente tanta complejidad como tenga una galaxia. Los objetos en el universo no se consideran más o menos importan6tes por sus dimensiones, cada uno de ellos tiene encomendada una misión que cumplir y, no olvidemos que, todo lo grande está hecho de cosas pequeñas. Sin átomos no habría ni galaxias ni seres vivos ni nada.

▻ Biografía de Wolfgang Pauli - Principio de la Exclusión de Pauli

Pauli destacó por sus importantes contribuciones a la física teórica, principalmente en el área de la mecánica cuántica. Entre sus principales logros se encuentran la teoría de los números cuánticos, la exclusión de Pauli y la hipótesis de no-localidad. Sus contribuciones a la física moderna han sido inmensas y le valieron el Premio Nobel de Física en 1945.

 

La UNAM a la vanguardia científica: primer Condensado de Bose-Einstein  mexicano

 

Debido al principio de exclusión de Pauli, es imposible que dos fermiones ocupen el mismo cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7º K) se formar un condensado de Bose-Einstein, en el que varios miles de átomos forman una única entidad (un super-átomo). efecto ha sido observado con átomos de rubidio y litio. Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.

 

http://www.mpe.mpg.de/410729/orbits3d_small_gif.gif

Una de las maravillas del Universo ¿Qué está pasando en el diminuto núcleo del átomo?

Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de ésta teoría en vez de las de la mecánica clásica.  En estadística cuántica, los estados de energía se considera que están cuantizados.  La estadística de Bose-Einstein se aplica si cualquier de partículas puede ocupar un estado cuántico dado. Dichas partículas (como dije antes) son los bosones que, tienden a juntarse.

Acotan la masa del bosón de Higgs - Axxón - NoticiasBajo la sombra del teseracto على X: "Tenemos el fotón, que media en las  interacciones electromagnéticas. Los gluones responsables de la interacción  nuclear fuerte, que mantiene unidos a los quarks. Y por

 

 

Los bosones tienen un angular n h / 2p, donde n es cero o un entero y h es la constante de Planck.  bosonesidénticos, la función de ondas es siempre simétrica.  Si solo una partícula puede ocupar un cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n+½) h/2p y cualquier función de ondas de fermiones idénticos es siempre antisimétrica.

 

http://farm5.static.flickr.com/4140/4745204958_afd02b2486.jpg

 

La mejor teoría explicar el mundo subatómico nació en 1928 cuando el teórico Paul Dirac combinó la mecánica cuántica con la relatividad especial para explicar el comportamiento del electrón. El resultado fue la mecánica cuántica relativista, que se transformó en un ingrediente primario en la teoría cuántica de campos. Con unas pocas suposiciones y ajustes ad-hoc, la teoría cuántica de campos ha probado ser suficientemente poderosa para formar la base del modelo estándar de las partículas y las fuerzas.

 

 

La relación el espín y la estadística de las partículas está demostrada por el teorema espín-estadística. En un espacio de dos dimensiones es posible que existan partículas (o cuasipartículas) con estadística intermedia entre bosones y fermiones.  Estas partículas se conocen con el de aiones; para aniones idénticos la función de ondas no es simétrica (un cambio de fase de+1) o antisimétrica (un cambio de fase de -1), sino que interpola continuamente entre +1 y -1.  Los aniones pueden ser importantes en el análisis del efecto Hall cuántico fraccional y han sido sugeridos como un mecanismo para la superconductividad de alta temperatura.

 

 

Resulta  fácil comprender cómo  un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma forma que lo haría si el hierro no estuviese magnetizado. El magnetismo del neutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula.

Qué es un Neutrón

Particularmente creo que, si el neutrón tiene masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es materia. La materia es la luz, la energía, el magnetismo, en definitiva, la fuerza que reina en el universo y que está presente de una u otra forma en todas partes (aunque no podamos verla).

Sea fuere, la rotación del neutrón nos da la respuesta a esas preguntas:

 

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965

¿Qué es el anti-neutrón? Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo. En realidad, el protón y el antiprotón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos. Es indudable que las antipartículas pueden combinarse para formar la antimateria, de la misma que las partículas corrientes forman la materia ordinaria.

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un anti-deuterón. entonces se ha producido el antihelio 3, y no cabe duda de que se podría crear otros anti-núcleos más complicados aún si se abordara el problema con más interés.

Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el universo? Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente. Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro. Así pues, los astrónomos observan especulativamente las galaxias, tratar de encontrar alguna actividad inusual que delate interacciones materia-antimateria.

…, ¿Hay masas de antimateria en el Universo? ¿Galaxias de antimateria?

 

Bueno, sabemos que no son las galaxias las que se alejan, sino que es el espacio el que se expande. Lo que no sabemos es encontrar antimateria en el espacio interestelar y, si la hay y está presente… ¡Aún no la hemos podido localizar! Algunos dicen que hay galaxias de antimateria y, yo digo que tengo un pariente en la galaxia Astrinia del cúmulo Ultramón a diez mil millones de años-luz de nuestra región.

No parece que dichas observaciones, al menos hasta el , hayan sido un éxito.

 

http://upload.wikimedia.org/wikipedia/commons/b/b9/Cosmological_composition.jpg

Según estimaciones recientes, resumidas en gráfico de la NASA, alrededor del 70% del contenido energético del Universo consiste en energía oscura, cuya presencia se infiere en su efecto sobre la expansión del Universo pero sobre cuya naturaleza última no se sabe casi nada.

¿Es posible que el Universo este formado casi enteramente por materia, con muy poca o ninguna antimateria? Y si es así, ¿por qué? dado que la materia y la antimateria son equivalentes en todos los aspectos, excepto en su oposición electromagnética, cualquier fuerza que crease una originaria la otra, y el Universo debería estar compuesta de iguales cantidades de la una y de la otra.

 

Este es el dilema.  La teoría nos dice que debería haber allí antimateria, pero las observaciones lo niegan, no lo respaldan. ¿Es la observación la que falla? ¿Y qué ocurre con los núcleos de las galaxias activas, e incluso más aún, con los causares? ¿Deberían ser estos fenómenos energéticos el resultado de una aniquilación materia-antimateria? ¡No creo! Ni siquiera ese aniquilamiento parece ser suficiente, y los astrónomos prefieren aceptar la noción de colapso gravitatorio y fenómenos de agujeros negros como el único mecanismo conocido para producir la energía requerida.

Estábamos hablando de mecánica cuántica y me pasé, sin que me diera , al ámbito de la antimateria y el espacio del macro universo de las galaxias. Sin embargo, y aunque parezcan temas dispares, lo cierto es que, a medida que profundizamos en estas cuestiones, todas nos llevan, de una u otra manera,  a relacionar el “mundo de lo muy pequeño” con el “mundo” de lo muy grande que, al fín y al cabo, está hecho de lo que existe en el primero, es decir, partículas infinitesimales de materia y… ¡de antimateria! para que todo quede compensado.

 

 

Sus dimensiones y masa le permiten ¡lo imposible! para nosotros. La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos fuerza de Van der Vaalls. esta fuerza tiene un alcance muy corto. para ser más precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente proporcional a 1/r7. Esto significa  que si se reduce la distancia entre dos átomos a la mitad, la fuerza de Van der Vaalls con la que se atraen uno a otro se hace 2 x 2 x 2 x 2 x 2 x 2 x 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza.

La mecánica cuántica domina en el micro-mundo de los átomos y de las partículas “elementales”. Nos enseña que en la naturaleza cualquier masa, por sólida o puntual que pueda parecer, tiene un aspecto ondulatorio. Esta onda no es como una onda de agua. Se parece más a una ola de histeria que se expande: es una onda de información. Nos indica la probabilidad de detectar una partícula. La longitud de onda de una partícula, la longitud cuántica, se hace menor cuanto mayor es la masa de esa partícula.

 

 

Por el contrario, la relatividad general era siempre necesaria cuando se trataba con situaciones donde algo viaja a la velocidad de la luz, o está muy cerca o donde la gravedad es muy intensa. Se utiliza para describir la expansión del universo o el comportamiento en situaciones extremas, como la formación de agujeros negros.

 

Un nuevo experimento arroja dudas sobre la principal teoría del núcleo —  Cuaderno de Cultura Científica

 

Los núcleos de helio excitados se inflan como globos, ofreciendo a los físicos la oportunidad de estudiar la fuerza nuclear fuerte, que une los protones y neutrones del núcleo. Fuente: Kristina Armitage / Quanta Magazine

“Al medir el núcleo de helio hinchado, los físicos han desafiado nuestra mejor comprensión de la fuerza que une los protones y los neutrones.

Un artículo de Katie McCormickHistoria original reimpresa con permiso de Quanta Magazine, una publicación editorialmente independiente respaldada por la Fundación Simons.”

 

Qué es la gravedad? | Explora | Univision

 

Sin embargo, la gravedad es muy débil comparada con las fuerzas que unen átomos y moléculas y demasiado débil para tener cualquier efecto sobre la estructura del átomo o de partículas subatómicas, se trata con masas tan insignificantes que la incidencia gravitatoria es despreciable. Todo lo contrario que ocurre en presencia de masas considerables como planetas, estrellas y galaxias, donde la presencia de la gravitación curva el espacio y distorsiona el tiempo.

Como resultado de estas propiedades antagónicas, la teoría cuántica y la teoría relativista gobiernan reinos diferentes, muy dispares, en el universo de lo muy pequeño o en el universo de lo muy grande. Nadie ha encontrado la manera de unir, sin fisuras, estas dos teorías en una sola y nueva de Gravedad-Cuántica.

 

Resultado de imagen de lOS LÍMITES DE LAS TEORÍAS CUÁNTICAS

¿Cuáles son los límites de la teoría cuántica y de la teoría de la relatividad general de Einstein? Afortunadamente, hay una respuesta simple y las unidades de Planck nos dicen cuales son. En realidad, es la propia Naturaleza la que marca esos límites que Stoney-Planck, supieron plasmar en ecuaciones que los marcan.

 

Imagen relacionadaImagen relacionadaImagen relacionadaResultado de imagen de Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de onda cuánticaResultado de imagen de LA FUNCIÓN DE ONDA DEL uNIVERSO

Supongamos que tomamos toda la masa del universo visible y determinamos su longitud de onda cuántica. Podemos preguntarnos en qué momento esta longitud de onda cuántica del universo visible superará su tamaño.  La respuesta es: cuando el universo sea más pequeño en tamaño que la longitud de Planck, es decir, 10-33 de centímetros, más joven que el tiempo de Planck,  10-43 segundos y supere la temperatura de Planck de 1032 grados.  Las unidades de Planck marcan la frontera de aplicación de nuestras teorías actuales. Para comprender en que se parece el mundo a una escala menor que la longitud de Planck tenemos que comprender plenamente cómo se entrelaza la incertidumbre cuántica con la gravedad. Para entender lo que podría haber sucedido cerca del suceso que estamos tentados a llamar el principio del universo, o el comienzo del tiempo, tenemos que penetrar la barrera de Planck. Las constantes de la naturaleza marcan las fronteras de nuestro conocimiento existente y nos dejan al descubierto los límites de nuestras teorías.

 

 

En los intentos más recientes de crear una teoría nueva para describir la naturaleza cuántica de la gravedad ha emergido un nuevo significado para las unidades naturales de Planck. Parece que el concepto al que llamamos “información” tiene un profundo significado en el universo. Estamos habituados a vivir en lo que llamamos “la edad de la información”.  La información puede ser empaquetada en formas electrónicas, enviadas rápidamente y recibidas con más facilidad que nunca antes. Nuestra evolución en el proceso rápido y barato de la información se suele mostrar en una forma que nos permite comprobar la predicción de Gordon Moore, el fundador de Intel, llamada ley de Moore, en la que, en 1.965, advirtió que el área de un transistor se dividía por dos aproximadamente cada 12 meses. En 1.975 revisó su tiempo de reducción a la mitad hasta situarlo en 24 meses. Esta es “la ley de Moore” cada 24 meses se obtiene una circuiteria de ordenador aproximadamente el doble, que corre a velocidad doble, por el mismo precio, ya que, el coste integrado del circuito viene a ser el mismo, constante.

 

Resultado de imagen de LA FUNCIÓN DE ONDA DEL uNIVERSOResultado de imagen de LA FUNCIÓN DE ONDA DEL uNIVERSOResultado de imagen de LA FUNCIÓN DE ONDA DEL uNIVERSOResultado de imagen de LA FUNCIÓN DE ONDA DEL uNIVERSO

 

Siempre hemos tratado de buscar información del Universo para saber de nuestro entorno, de nuestro Sistema solar, de nuestra Galaxias, de las galaxias lejanas, y, de las mismas estrellas que alumbran los mundos y permite la vida con su luz y su calor. Hemos llegado a saber que somos “polvo de estrellas”, que los materiales que nos conforman están “fabricados” en sus “hornos nucleares”, la fusión crea elementos que, más tarde, forman parte de los mundos y de los seres vivos.

 

Resultado de imagen de lA VELOCIDAD DE LA LUZ EN EL VACÍO

 

La velocidad de la luz en el vacío es por definición una constante universal de valor 299.792.458 m/s(suele aproximarse a 3·108 m/s), o lo que es lo mismo 9,46·1015 m/año; la segunda cifra es la usada para definir al intervalo llamado año luz. La información se transmitirá a esa velocidad como máximo, nuestro Universo, no permite mayor rapidéz, al menos, por los métodos convencionales.

Los límites últimos que podemos esperar para el almacenamiento y los ritmos de procesamiento de la información están impuestos por las constantes de la naturaleza. En 1.981, el físico israelí, Jacob Bekenstein, hizo una predicción inusual que estaba inspirada en su estudio de los agujeros negros.  Calculó que hay una cantidad máxima de información que puede almacenarse dentro de cualquier volumen. Esto no debería sorprendernos.

\ell_P =\sqrt\frac{\hbar G}{c^3} \approx 1.616 199 (97) \times 10^{-35} \mbox{ metros} (Longitud de Planck que al cuadrado sería de 10-66 cm2)

Lo que debería hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen. El número máximo de bits de información que puede almacenarse en un volumen viene dado precisamente por el cómputo de su área superficial en unidades de Planck. Supongamos que la región es esférica. Entonces su área superficial es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud de Planck al cuadrado, 10-66 cm2.  Esto es muchísimo mayor que cualquier capacidad de almacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de información que viene impuesto por las constantes de la naturaleza.

 

George Johnstone Stoney - Wikipedia, la enciclopedia librePlanck units - Wikiwand

                   Stoney                                                     Planck

No debemos descartar la posibilidad de que seamos capaces de utilizar las unidades de Planck-Stoney para clasificar todo el abanico de estructuras que vemos en el universo, desde el mundo de las partículas elementales hasta las más grandes estructuras astronómicas.  Este fenómeno se puede representar en un gráfico que recree la escala logarítmica de tamaño desde el átomo a las galaxias.

 

2024 febrero : Blog de Emilio Silvera V.

 

Todas las estructuras del universo existen porque son el equilibrio de fuerzas dispares y competidoras que se detienen o compensan las unas a las otras; la atracción y la repulsión. Ese es el equilibrio de las estrellas donde la repulsión termonuclear tiende a expandirla y la atracción (contracción) de su propia masa tiende a comprimirla; así, el resultado es la estabilidad de la estrella. En el caso del planeta Tierra, hay un equilibrio entre la fuerza atractiva de la gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos. Todos estos equilibrios pueden expresarse aproximadamente en términos de dos números puros creados a partir de las constantes e, h, c, G y mprotón

ASTROciencia: ¿Pueden cambiar las constantes de la naturaleza?

“Tras medir alfa en unas 300 galaxias lejanas, vimos un patrón constante: este número, que nos dice la fuerza del electromagnetismo, no es igual en otras partes que en la Tierra, y parecer variar de forma continua a lo largo de un eje”. Algunos se empeñan en variar la constante de estructura fina y, si eso llegara a producirse… las consecuencias serían funestas para nosotros. Otros estudios nos dicen que esa constante, no ha variado a lo largo de los miles de millones de años del Universo y, así debe ser, o, si varió, lo hizo en una escala ínfima.

α = 2πehc ≈ 1/137

αG = (Gmp2)/ hc ≈ 10-38

 

Si variaran algunas de las dos en sólo una diezmillonésima, muchas de las cosas que conforman el Universo serían imposible y, la consecuencia sería, la ausencia de vida.  La identificación de constantes adimensionales de la naturaleza como a (alfa) y aG, junto con los números que desempeñan el mismo papel definitorio para las fuerzas débil y fuerte de la naturaleza, nos anima a pensar por un momento en mundos diferentes del nuestro. Estos otros mundos pueden estar definidos por leyes de la naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizados por diferentes valores de constantes adimensionales. Estos cambios numéricos alterarán toda la fábrica de los mundos imaginarios. Los átomos pueden tener propiedades diferentes. La gravedad puede tener un papel en el mundo a pequeña escala.  La naturaleza cuántica de la realidad puede intervenir en lugares insospechados.

 

Radical Barbatilo on X: "Entonces en lugar de utilizar la Tierra o  artefactos fisicos como base para definir las unidades, se decidió usar  constantes físicas de la naturaleza: cantidades numéricas que no

 

Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza (así lo creían Einstein y Planck).  Si se duplica el valor de todas las masas no se puede llegar a saber, porque todos los números puros definidos por las razones de cualquier par de masas son invariables.

 

Resultado de imagen de EL NÚMERO ADIMENSIONAL 137

       El número puro adimensional

“Todos los físicos del mundo, deberían tener un letrero en el lugar más visible de sus casas, para que al mirarlo, les recordara lo que no saben. En el cartel sólo pondría esto: 137. Ciento treinta y siete es el inverso de algo que lleva el nombre de constante de estructura fina”

Lederman

 

Este número guarda relación con la posibilidad de que un electrón emita un fotón o lo absorba. La constante de estructura fina responde también al nombre de “alfa” y sale de dividir el cuadrado de la carga del electrón, por el producto de la velocidad de la luz y la constante de Planck. Tanta palabrería y numerología no significan otra cosa sino que ese solo numero, 137, encierra los misterios del electromagnetismo (el electrón, e), la relatividad (la velocidad de la luz, c), y la teoría cuántica (la constante de Planck, h).

 

Todo eso está relacionado: leyes fundamentales, constantes, materia y espacio tiempo… ¡nosotros! Es posible (digo posible), que finalmente no seamos ni tanto ni tan poco como a veces creemos. Dejemos en un término medio nuestra valía en el contexto del Universo, aunque, poder crear ideas y pensamientos… ¡No es cosa baladí!

Emilio Silvera Vázquez