viernes, 07 de octubre del 2022 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¡La Física! ¿Qué haríamos sin ella?

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (6)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Para no viajar muy atrás en el tiempo, fijaremos el punto de partida en 1687, fecha en que salió a la luz la Obra de Newton, sus Principas. El tiempo transcurrió hasta 1900, fecha en la que Planck publicó un artículo de ocho páginas con su idea del cuanto que sería la semilla que daría lugar al nacimiento de la mecánica cuántica. En 1905, aquel joven de la Oficina de Patentes de Berna, sorprendió al mundo de la Física con su Teoría de la Relatividad Especial. Se produjeron muchos desarrollos importantes para nuestras imágenes de la Física Fundamental. Uno de los mayores cambios ocurrido en ese período fue la comprensión, básicamente mediante los trabajos de Faraday y Maxwell en el siglo XIX, de que cierta noción de campo físico, que permea en el espacio, debe cohexistir con la previamente aceptada “realidad newtoniana” de las partículas individuales que interaccionan por medio de fuerzas instantáneas.

Conforme a lo que arriba decimos se producen fenómenos y se ponen en marcha mecanismos que hacen posible que, la imagen que vemos, pueda ser posible gracias a la presencia de fuerzas que, aunque no las podamos ver, su presencia se hace patente por los resultados que en su diversidad, son los mecanismos que llevan el ritmo del universo en el que vivímos.

Más tarde, esta noción de “campo” se convirtió también en un ingrediente crucial de la teoría de la Gravedad en un espaciotiempo curvo a la que llegó Einstein en 1915. Lo que ahora denominamos campos clásicos son el Campo Electromagnético de Maxwell y el Campo Gravitatorio de Einstein.

La presencia del campo gravitatorio de una masa afecta al tiempo y al espacio. La gravedad hace que dos relojes atrasen. Un reloj en la superficie de la Tierra atrasa con respecto a un reloj en la Luna, toda vez que el campo gravitatorio de la Tierra es más potente. De la misma manera, nos podríamos preguntar ¿por qué la gravedad actúa sobre el espacio y alarga el tamaño de los objetos (estirándolos). ¿Dónde podríamos crecer más, si viviéramos en la Tierra o en la Luna?

Pero sigamos. Hoy día sabemos que hay mucho más en la Naturaleza del mundo físico que la sola física clásica. Ya en 1900 -como decimos antes- Max Planck había reveleado los primeros indicios de la necesidad de una “teoría cuántica”, aunque se necesitó un cuarto de siglo más antes de que pudiera ofrecerse una teoría bien formulada y global. También debería quedar claro que, además de todos estos profundos cambios que se han producido en los fundamentos “newtonianos” de la física, ha habido otros desarrollos importantes, tanto previos a dichos cambios como coexistentes con algunos de ellos en forma de poderosos avances matemáticos, dentro de la propia teoría newtoniana.

einst_planck.jpg

En 1905 un desconocido Albert Einstein publicaría unos espectaculares estudios sobre la teoría de la relatividad, pero muy pocos científicos, entre ellos Planck, reconocerían inmediatamente la relevancia de esta nueva teoría científica. Tanta fue su importancia que incluso Planck contribuyo a ampliarla.

Pero igualmente, la hipótesis de Einstein sobre la ligereza del quantum (el fotón), basada en el descubrimiento de Philipp Lenard de 1902 sobre el efecto fotoeléctrico fue rechazada por Planck, al igual que la teoría de James Clerk Maxwell sobre la electrodinámica.

En 1910 Einstein desafía la explicación de la física clásica poniendo el ejemplo del comportamiento anómalo del calor específico en bajas temperaturas. Planck y Nernst decidieron organizar la primera Conferencia de Solvay, para clarificar las contradicciones que aparecían en la física. En esta reunión celebrada en Bruselas en 1911, Einstein consiguió convencer a Planck sobre sus investigaciones y sus dudas, lo que hizo forjar una gran amistad entre ambos científicos, y conseguir ser nombrado profesor de física en la universidad de Berlín mientras que Planck fue decano.

Otra área importante de avance sobre la que había que llamar la atención es la termodinámica (y su refinamiento conocido como mecánica estadística). Esta estudia el comportamiento de sistemas de un gran número de cuerpos, donde los detalles de los mocimientos no se consideran importantes y el comportamiento del sistema se describe en términos de promedios de las magnitudes adecuadas. Esta fue una empresa iniciada entre mediados del XIX y principios del XX, y los nombres de Carnot Clausius, Maxwell, Boltzmann, Gibbs y Einstein son los protagonistas.

Termodinámica.- Parte de la física que estudia las relaciones existentes entre los fenómenos dinámicos y los caloríficos. Trata de la transformación de la energía mecánica en calor y del calor en trabajo. También describe y relaciona las propiedades físicas de sistemas macroscópicos de materia y energía. La termodinámica estudia los sistemas que se encuentran en equilibrio. Esto significa que las propiedades del sistema—típicamente la presión, la temperatura, el volumen y la masa— son constantes.

Un concepto esencial de la termodinámica es el de sistema macroscópico, que se define como un conjunto de materia que se puede aislar espacialmente y que coexiste con un entorno infinito e imperturbable. El estado de un sistema macroscópico en equilibrio puede describirse mediante propiedades medibles como la temperatura, la presión o el volumen, que se conocen como variables termodinámicas. Es posible identificar y relacionar entre sí muchas otras variables (como la densidad, el calor específico, la compresibilidad o el coeficiente de expansión térmica), con lo que se obtiene una descripción más completa de un sistema y de su relación con el entorno. Cuando un sistema macroscópico pasa de un estado de equilibrio a otro, se dice que tiene lugar un proceso termodinámico. Las leyes o principios de la termodinámica, descubiertos en el siglo XIX a través de meticulosos experimentos, determinan la naturaleza y los límites de todos los procesos termodinámicos.

¿Cuales son los Principios de la Termodinámica?

Cuando dos sistemas están en equilibrio mutuo, comparten una determinada propiedad. Esta propiedad puede medirse, y se le puede asignar un valor numérico definido. Una consecuencia de ese hecho es el principio cero de la termodinámica, que afirma que si dos sistemas distintos están en equilibrio termodinámico con un tercero, también tienen que estar en equilibrio entre sí. Esta propiedad compartida en el equilibrio es la temperatura. Si uno de estos sistemas se pone en contacto con un entorno infinito situado a una determinada temperatura, el sistema acabará alcanzando el equilibrio termodinámico con su entorno, es decir, llegará a tener la misma temperatura que éste.

Primer Principio.-

La cantidad de calor entregado a un sistema es igual al trabajo realizado por el sistema más la variación de su energía interna. Cuando un sistema se pone en contacto con otro más frío que él, tiene lugar un proceso de igualación de las temperaturas de ambos. Para explicar este fenómeno, los científicos del siglo XVIII conjeturaron que una sustancia que estaba presente en mayor cantidad en el cuerpo de mayor temperatura fluía hacia el cuerpo de menor temperatura. El primer principio es una ley de conservación de la energía. Afirma que, como la energía no puede crearse ni destruirse —dejando a un lado las posteriores ramificaciones de la equivalencia entre masa y energía— la cantidad de energía transferida a un sistema en forma de calor más la cantidad de energía transferida en forma de trabajo sobre el sistema debe ser igual al aumento de la energía interna del sistema. A veces, el primer principio se enuncia como la imposibilidad de la existencia de un móvil perpetuo de primera especie.

'Ecosistemas y comunidades biológicas'

                    Flujo de la energía en los ecosistemas. En los ecosistemas se cumplen pues el primer y segundo principio de la termodinámica.

Segundo Principio.-

El segundo dice que solamente se puede realizar un trabajo mediante el paso del calor de un cuerpo con mayor temperatura a uno que tiene menor temperatura. Al respecto, siempre se observa que el calor pasa espontáneamente de los cuerpos calientes a los fríos hasta quedar a la misma temperatura. La segunda ley afirma que la entropía, o sea, el desorden, de un sistema aislado nunca puede decrecer. Por tanto, cuando un sistema aislado alcanza una configuración de máxima entropía, ya no puede experimentar cambios: ha alcanzado el equilibrio. La naturaleza parece pues ‘preferir’ el desorden y el caos. Puede demostrarse que el segundo principio implica que, si no se realiza trabajo, es imposible transferir calor desde una región de temperatura más baja a una región de temperatura más alta. El segundo principio impone una condición adicional a los procesos termodinámicos. No basta con que se conserve la energía y cumplan así el primer principio. Una máquina que realizara trabajo violando el segundo principio se denomina “móvil perpetuo de segunda especie”, ya que podría obtener energía continuamente de un entorno frío para realizar trabajo en un entorno caliente sin coste alguno. A veces, el segundo principio se formula como una afirmación que descarta la existencia de un móvil perpetuo de segunda especie.

[espejo.jpg]

Tercer principio de termodinámica o principio onfalóscópico, (mirarse el ombligo): La televisión se retroalimenta a sí misma. Se hace televisión para hablar sobre televisión.

Tercer Principio.-

El tercer principio de la termodinámica afirma que el cero absoluto no puede alcanzarse por ningún procedimiento que conste de un número finito de pasos. Es posible acercarse indefinidamente al cero absoluto, pero nunca se puede llegar a él.

Ciclos termodinámicos.-

Todas las relaciones termodinámicas importantes empleadas en ingeniería se derivan del primer y segundo principios de la termodinámica. Resulta útil tratar los procesos termodinámicos basándose en ciclos: procesos que devuelven un sistema a su estado original después de una serie de fases, de manera que todas las variables termodinámicas relevantes vuelven a tomar sus valores originales. En un ciclo completo, la energía interna de un sistema no puede cambiar, puesto que sólo depende de dichas variables. Por tanto, el calor total neto transferido al sistema debe ser igual al trabajo total neto realizado por el sistema. Un motor térmico de eficiencia perfecta realizaría un ciclo ideal en el que todo el calor se convertiría en trabajo mecánico. El científico francés del siglo XIX Sadi Carnot, que concibió un ciclo termodinámico que constituye el ciclo básico de todos los motores térmicos, demostró que no puede existir ese motor perfecto. Cualquier motor térmico pierde parte del calor suministrado. El segundo principio de la termodinámica impone un límite superior a la eficiencia de un motor, límite que siempre es menor del 100%. La eficiencia límite se alcanza en lo que se conoce como ciclo de Carnot.

9starlight_fantasy.jpg

  • Gravitación
  • Luz
  • Atracción y repulsión eléctricas
  • Atracción y repulsión magnéticas

Pero sigamos con el objeto principla de este trabajo del que, como siempre me pasa, me he desviado a la termodinámica que ya se dio hace unos días. Aquí hablamos de los “campos clásicos” y, sobre las teorías físicas de campos de Maxwell y Einstein: la física “clásica” ¿Cómo pudieron hablar y describir a la perfección suscesos que el ojo no podía ver, y, simplemente con la imaginación, lo hicieron posible, hasta tal punto que, cuando hablamos de campos electromagnéticos o gravitatorios, en nuestras mentes se instalan las imágenes de unos y otros que podemos “ver” con toda precisión.

La teoría del electromagnetismo desempeña también un papel importante en la teoría cuántica, pues proporciona el “campo” arquetípico para el desarrollo posterios de la teoría cuántica de campos. Por el contrario, el enfoque cuántico apropiado del campo gravitatorio sigue siendo eninmático, escurridizo y controvertido y, abordar ahora aquí estas complejas cuestiones, seguramente daría lugar a explicaciones farragosas debido a mi ignorancia profunda en esos conocimientos y a la levedad de los que puedo poseer.

http://www.nuevoordenmundial.es/wp-content/uploads/2011/05/Ciudad-del-futuro.jpg

Los campos de fuerza de Faraday han dado lugar a que, la imaginación se desboque y corriendo hacia el futuro, haya imaginado inmensas ciudades que, situadas en lugares imposibles, sostienen sin problema a sus habitantes que, resguardados por un “campo de fuerza” están al resguardo de cualquier peligro que del exterior les pueda venir.

Por ahí arriba me refería al hecho de que ya en el siglo XIX se había iniciado un cambio profundo en los fundamentos newtonianos, antes de las revoluciones de la relatividad y la teoría cuántica en el siglo XX. El primer indicio de que sería necesario un cambio semejante se produjo con los maravillosos descubriumientos experimentales de Faraday hacia 1833, y de las representaciones de la realidad que encontró necesarias para acomodar dichos descubrimientos. Básicamente, el cambio fundamental consistió en considerar que las “partículas newtonianas” y las fuerzas” que actúan entre ellas no son los únicos habitantes de nuestro universo.

A partir de ahí había que tomar en serio la idea de un “campo” con una existencia propia incorpórea. Y, fue entonces cuando se produjo la providencial llegada de Maxwell que, al contrario de Faraday, él si entendía bien el complejo mundo de las matemáticas y, en 1864, formuló las ecuaciones que debe satisfacer este “campo” incorpóreo, y quien demostró que estos campos pueden transportar energía de un lugar a otro.

Transporte de energía

Transportando energía

Las ecuaciones de Maxwell unificaban el comportamiento de los campos eléctricos, los campos magnéticos e incluso la luz, y hoy día son conocidas como las ecuaciones de Maxwell, las primeras entre las ecuaciones de campo relativistas. Desde la perspectiva del siglo XX se han hecho profundos cambios y se ha producido profundos avances en las técnicas matemáticas, las ecuaciones de Maxwell parecen tener una naturalidad y simplicidad concincentes que nos hacen preguntarnos cómo pudo considerarse alguna vez que el campo electromagnético pudiera obedecer a otras leyes. Pero semejante perspectiva ignora el hecho de que fueron las propias ecuaciones de Maxwell las que llevaron a muchos de estos desarrollos matemáticos. Fue la forma de estas ecuaciones la que indujo a Lorentz, Poincaré y Einstein a las transformaciones espaciotemporales de la relatividad especial, que, a su vez, condujeron a la concepción de Minkowaki del espaciotiempo.

¡La Mente Humana! ?Hasta donde podrá llegar? ¿Qué limite tendrá impuesto? La respuesta es sencilla: ¡ No hay límites! Y, aunque dicha afirmación la repita en muchos de mis escritos, esa es la realidad.

emilio silvera

Una reacción nuclear “desafiante”

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Una nueva clase de reacción de fisión nuclear observada en el CERN ha mostrado importantes puntos débiles en nuestro entendimiento actual del núcleo atómico. La fisión del mercurio-180 se suponía una reacción “simétrica” que daría lugar a dos fragmentos iguales, pero en lugar de ello ha producido dos núcleos con masas bastante diferentes, una reacción “asimétrica” que plantea un serio desafío a los teóricos.

Photograph taken inside the ISOLDE experimental hall at CERN

La Ciencia no duerme. En todo el mundo (ahora también fuera de él -en el espacio), son muchos los Científicos que trabajan de manera tenaz para buscar nuevas formas de alcanzar lo ahora inalcanzable y, para ello, se emplean las más sofisticadas estructuras técnicas de avanzados sistemas tecnológicos que hacen posible llegar allí donde nunca nadie había llegado.

Nuevas teorías, nuevos caminos, nuevas investigaciones y, una buena dosis de imaginación que nos llevará hacia mundos imposibles, hacia descubrimientos impensables, hacia la posibilidad de descorrer el velo que esconde muchos de los secretos de la Naturaleza.

Cuanto más secretos podamos desvelar, más cerca estaremos de hacer frente a problemas hoy insolubles y que, el día de mañana, mirando hacia atrás con una sonrisa, podremos recordar como algo del pasado que, una vez superado, nos dio la posibilidad de alcanzar otros niveles más altos, la posibilidad de plantear nuevas preguntas y, la posibilidad de resolver nuevos problemas.

En el artículo que arriba hemos dejado, tenemos un ejemplo de lo poco que sabemos. Muchos creen saber lo que la Materia es, hablan de Gluones y Quarks, de protones y neutrones, de electrones y neutrinos de la Interacción fuerte, electromagnética, débil o de la Gravedad, y, con ello, se sienten muy satisfechos de poseer unos conocimientos profundos que estaban escondidos en las entrañas de la materia misma. Sin embargo, cada día que pasa, cada nueva investigación que realizamos, cada nivel que podemos subir en las energías que empleamos en la Investigación, podemos encontrarnos con asimetrías inesperadas que, de manera violenta nos saquen del error de creer que estamos en posesión de alguna verdad.

En la Ciencia, lo que denominamos “verdad” es efímero, y, lo que hoy puede considerarse como verdad, mañana pasará a ser la mayor de las mentiras. Acordaos de que la Tierra no es el centro de nada, y, que, en verdad, está situada en los suburbios de una Galaxia corriente, alumbrada por un Sol corriente y, seguramente, ocupada por unos seres “corrientes” que (no pondría la mano en el fuego por lo contrario) proliferan por todo el Universo y a los que, más tarde o más temprano, debemos encontrar.

¡La Ciencia! Esa parcela del saber Humano que, al igual que la Lengua y la Escritura, nos diferencia de otros animales que no tuvieron tanta suerte en el reparto.

emilio silvera

¡La Física! y sus personajes

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (6)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

George Gamow

 

(Odessa, Rusia, 1904 – Boulder, Estados Unidos, 1968) Físico estadounidense de origen ruso conocido por sus trabajos en el campo de la bioquímica y la astrofísica. En 1922 ingresó en la Universidad de Novorossia de su ciudad natal, y al año siguiente pasó a estudiar en la Universidad de Leningrado, centro donde obtuvo la licenciatura en 1926 y el doctorado en 1928. Tras completar su formación en la Universidad de Gotinga, en Copenhague, junto a Niels Bohr, y en Cambridge con Lord Rutherford, fue nombrado profesor de la Universidad de Leningrado, cargo que ejerció entre 1931 y 1933.

Durante esta época, sus investigaciones estuvieron centradas en la física atómica. En el curso 1933-1934 estuvo en el Instituto Pierre Curie de París y como profesor visitante de la Universidad de Londres, después viajó a Estados Unidos invitado como lector por la Universidad de Michigan y, a continuación, fue contratado como profesor de Física por la Universidad George Washington de la capital, puesto en el que permaneció hasta 1956.

                                  Universidad George Washington de Michigan

Ya adquirida la nacionalidad estadounidense, durante los años de la Segunda Guerra Mundial fue llamado por el gobierno, como muchos otros científicos, para trabajar en el proyecto de la bomba atómica. Junto con Ralph Alpher desarrolló una teoría sobre la creación de los elementos químicos, basada en la explosión originaria de un átomo primitivo, conocida popularmente como Big Bang, que Georges Lemaître formuló en 1931 y que él contribuyó a divulgar; asimismo, desarrolló la teoría denominada Gamow-Teller y profundizó en el descubrimiento de Hans Bethe sobre el ciclo que produce la energía estelar.

Fue uno de los primeros científicos en contradecir la idea del enfriamiento del Sol, y en cambio, defender su progresivo calentamiento como posible causa de la extinción de la vida terrestre. En 1954 teorizó sobre la composición del código genético a base de tripletas de nucleótidos, y aunque se equivocó en los cálculos, la idea fue confirmada mediante experimentos en 1961. En 1958 contrajo matrimonio con Barbara Perkins. Desde 1956 fue profesor de Física Teórica en la Universidad de Colorado, y ese mismo año recibió el Premio Kalinga, concedido por la UNESCO por su labor divulgativa de la Ciencia. Sus obras más importantes fueron Un, dos, tres… infinito (1947) y La creación del universo (1952).

George Gamow, el excéntrico físico ruso que (en aquellos tiempos) arriesgí su vida para poder venir a trabajar en América, donde se convirtió en uno de los fundadores de la cosmología moderna e incluso contribuyó a la comprensión inicial de la molécula de ADN y el código genético. Gamow, como todos sus contemporáneos podía ver que había cuatro fuerzas distintas en la Naturaleza (Gravedad, Electromagnétismo y las fuerzas nucleares débil y fuerte). La intensidad de cada una de ellas daría uno de los números puros de Einstein que definen el mundo. Gamow no se veía particularmente atraído por la cuestión de si podía haber sólo un cuarteto de valores posibles. Pero comprender plenamente esos valores -una capacidad de calcularlos o predecirlos de forma precisa- sería para él lo mismo que para un físico el ondear de la bandera de cuadros. Cuando llegara ese día se habría alcanzado una comprensión completa de las fuerzas de la Naturaleza. Gamow se sentía un poco deprimido ante esta perspectiva, comparable a llegar al final de una gran historia o sentarse en la cima de una montaña que uno se ha esforzado en escalar y, al estar allí, preguntarse; ¿Y, ahora qué? ¿Aquí termina todo?

Vayamos hacia atrás en el Tiempo y hablemos un poco de George J. Stoney, el físico irlandés y pensador excéntrico y original al que, en realidad, debemos la forma de deducir si otros planetas del sistema solar poseían o no una atmósfera gaseosa, como la Tierra, calculando si su gravedad superficial era suficientemente intensa para mantener esa atmósfera.

Pero su pasión real estaba reservada a su idea más preciada: el “electrón”. Stoney había deducido que debía existir un componente básico de carga eléctrica. Estudiando los experimentos de Michael Faraday sobre electrolisis, Stoney había predicho incluso cuál debía ser su valor, una predicción posteriormente confirmada por J. J. Thomson, descubridor del electrón en Cambridge en 1.897, dándole la razón a Stoney que finalmente, a esta unidad básica de la electricidad, le dio el nombre de electrón con el símbolo e en 1.891 (antes de su descubrimiento).

Stoney, primo lejano y más viejo del famoso matemático, científico de computación y criptógrafo Alan Turing, también era tío de George Fitzgerald, después famoso por proponer la “contracción Fitzgerald-Lorentz”, un fenómeno que fue entendido finalmente en el contexto de la teoría de la relatividad especial de Einstein.

Stoney, podemos decir con seguridad, fue el primero que señaló el camino para encontrar lo que más tarde conoceríamos como constantes fundamentales, esos parámetros de la física que son invariantes, aunque su entorno se transforme. Ellas, las constantes, continúan inalterables como sucede, por ejemplo, con la velocidad de la luz c, que sea medida en la manera que sea, esté en reposo o esté en movimiento quien la mide o la fuente de donde parte, su velocidad será siempre la misma, 299.792.458 m/s. Algo análogo ocurre con la gravedad, G, que en todas partes mide el mismo parámetro  o valor: G = 6’67259 × 10-11 m3 s-2 Kg-1. Es la fuerza de atracción que actúa entre todos los cuerpos y cuya intensidad depende de la masa de los cuerpos y de la distancia entre ellos; la fuerza gravitacional disminuye con el cuadrado de la distancia de acuerdo a la ley de la inversa del cuadrado.

La Tierra ,,, La Luna,,, i el ¡¡SOL!!

Stoney, profesor de filosofía natural (así llamaban antes a la Física) en el Queen’s College Galway en 1.860, tras su retiro se trasladó a Hornsey, al norte de Londres, y continuó publicando un flujo de artículos en la revista científica de la Royal Dublín Society, siendo difícil encontrar alguna cuestión sobre la que no haya un artículo firmado por él.

Stoney recibió el encargo de hacer una exposición científica del tema que él mismo eligiera para el programa de la reunión de Belfast de la Asociación Británica. Pensando en qué tema elegir, se dio cuenta de que existían medidas y patrones e incluso explicaciones diferentes para unidades que median cosas o distancias o algún fenómeno: se preguntaba la manera de cómo definirlos mejor y como interrelacionarlos. Vio una oportunidad para tratar de simplificar esta vasta confusión de patrones humanos de medida de una manera tal que diese más peso a su hipótesis del electrón.

En tal situación, Stoney centró su trabajo en unidades naturales que transcienden los patrones humanos, así que trabajó en la unidad de carga electrónica (según su concepto), inspirado en los trabajos de Faraday como hemos comentado antes. También, como unidades naturales escogió G y c que responde, como se ha explicado, a la gravedad universal y la velocidad de la luz en el vacío.

En su charla de la Reunión de Belfast, Stoney se refirió al electrón como el “electrino” y dio el primer cálculo de su valor esperado. Demostró que el trío mágico de G, c y e podía combinarse de una manera, y sólo de una, de modo que a partir de ellas se creaban una unidad de masa, una unidad de longitud y una unidad de tiempo. Para la velocidad de la luz utilizó un promedio de las medidas existentes, c = 3 × 108 metros por segundo; para la constante de gravitación de Newton utilizó el valor obtenido por John Herschel, G = 6’67259 × 10-11 m3 s-2 Kg-1, y para la unidad de carga del “electrino” utilizó e = 10-20 amperios. Estas fueron las inusuales nuevas unidades que él encontró, en términos de las constantes e, c y G, y en términos de gramo, metros y segundos:

Mi = (e2/g)½ = 10-17 gramos

Li = ( Ge2/c4) ½ = 10-17 metros

Ti = (Ge2/c6)½ = 3 x 10-16 segundos

Estas son cantidades extraordinarias. Aunque una masa de 10-7 gramos no es demasiado espectacular-es similar a la de una mota de polvo- las unidades de longitud y tiempo de Stoney eran muy diferentes de cualquiera que hubieran encontrado antes los científicos. Eran fantásticamente pequeñas, rosando lo inconcebible. No había (y sigue sin haber) ninguna posibilidad de medir directamente tales longitudes y tiempos.

En cierto modo, esto es lo que se podría haber esperado. Estas unidades no están construidas deliberadamente a partir de dimensiones humanas, por conveniencia humana o para utilidad humana. Están definidas por la propia fábrica de la realidad física que determina la Naturaleza de la luz, la electricidad y la gravedad (c, e y G). No se preocupan de nosotros. Stoney triunfó de un modo brillante en su búsqueda de un sistema de unidades sobrehumanas.

Stoney señaló el camino que más tarde, siguió Planck para elaborar sus unidades y, entre ambos, nos han llevado al Universo de lo infinitesimal que, no por pequeño es menos importante, tanto es así que, estas unidades son las que marcan el límite de nuestras teorías actuales, no podemos ir más allá de su límites. Así resulta ser, por ejemplo con la Teoría M que, necesitando de la energía dee Planck para su verificación, no la tendremos ni ahora ni en muchas generaciones venideras.

La interpretación de las unidades naturales de Stoney-Planck no era en absoluto obvia para los físicos. Aparte de ocasionales comentarios de pasada, sólo a finales de la de´canda de 1960, el estudio renovado de la cosmología llevó a una plena coprensión de estos patrones extraños. Uno de los cuuriosos problemas de la física es que tiene dos teorías hermosamente efectivas -la mecánica cuántica y la relatividad general- pero gobiernan diferentes dominios de la naturaleza.

La una se encarga del micromundo de los átomos y de las partículas elementales. Por el contrario, la relatividad, es siempre necesaria cuando algo viaje a velocidades aluninantes cercanas a c, o, cuando está presente un cuerpo macroscópico que, como las galaxias, influyen en el espacio tiempo para distiorsionarlo y curvarlo. Asó que, con estos resultados, ambas teorías gobiernas “universos diferentes” y, esas fuerzas, no tienen ocasión ni oportunidad de “hablar entre sí” están separadas por distancias que, al parecer, y, al menos hasta el momento, son inalcanzables para ellas.

http://tiarquitectura.files.wordpress.com/2010/09/tecnologia_e_informacion.jpg

Hemos hablado de todos esas cuestiones y, de alguna manera, están relacionadas con la transmisión de información. Los límites últimos que podemos esperar para el almacenamiento de la información están impuestos por las constantes de la Naturaleza. Em 1981, un físico israelí, Jacob Bekenstein, hizo una prredicción inusual que estaba inspirada en su estudio de los agujeros negros. Calculó que hay una cantidad máxima de información que puede alnacenarce dentro de cualquier volumen.  Esto no debería sorpenedernos, lo que debe´ria hacerlo es que el valor máximo está precisamente determinado por el área de la superficie que rodea al volumen, y no por el propio volumen.

El número máximo de bits de información que puede alnacenarse en un volumen viene dado precisamente por el cómputo de su área supercicial en unidades de Planck, Supongamos que la región esférica. Entonces su área superficieal es precisamente proporcional al cuadrado de su radio, mientras que el área de Planck es proporcional a la longitud e Planck al cuadrado (10-66 x R2. Esto es muchísimo mayor que cualquier capacidad de almnacenamiento de información producida hasta ahora. Asimismo, hay un límite último sobre el ritmo de procesamiento de la información que viene impuesto por las constantes de la Naturaleza, ninguna información se puede tansmitir más rápida que la velocidad de la luz. de Esa manera, de alguna forma, se han unido las dos teorías de la mecánica cuántica y de la relatividad, y, cada una de ellas, impone su criterio en el área que le corresponde mandar.

Todas las estructuras del Universo que se comportan como objetos estables, en realidad, se muestran así como consecuencia de que son, malabarismos que se producen entre dos fuerzas antagónicas equivalentes que consiguen esa “delicada” estabilidad que está centrada en la lucha entre la atracción y la reoulsión. Por ejemplo, en un planeta, como la Tierra, hay un equilibrio entre la fuerza atractiva de la Gravedad y la repulsión atómica que aparece cuando los átomos se comprimen demasiado juntos y se llegan a degenerar por el Principio de exclusión de Pauli quen no permite que dos fermiones ocupen el mismo lugar. Todos esos equilibrios pueden expresarse aproximadamente en términos de los números puros de Stobe-Planck creados a partir de las constantes e, h, c, G y mpr

α = 2πe2/hc = 1/137

αG = Gmpr 2/hc ≈ 10-38

La identificación de constantes de la Naturaleza como α y αG, junto con los números que desempeñam el mismo papel definitorio para las fuerzas débil y fuerte de la Naturaleza, nos anima a pensar por un momento en mundos diferentes al nuestro. Estos otros mundos pueden estar definidos por leyes de la Naturaleza iguales a las que gobiernan el universo tal como lo conocemos, pero estarán caracterizadas por duiferentes valores de constantes adimensionales. estos cambios numéricos alteran toda la fábrica de los mundos imaginarios. Los equilibrios entre los fuerzas serán diferentes de los que se dan en el nuestro. Los átomos pueden tener propiedades diferentes. La Gravedad podría tener un papel más pequeño en esos otros mundos. La Naturaleza cuántica de la realidad podría intervenir en lugares inimaginables.

Claro que, nosotros, nos tenekos que ceñir a éste, nuestro Universo que nos muestras unas leyes y unas constantes que son como son y no de otra manera y, de esa forma, está construido nuestro universo conocido que, en alguna ocasión he pensado sino tendrá “otro universo” escondido dentro de este mismo.

emilio silvera

¿Qué será la materia?

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (6)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Estábamos muy atrasados en el conocimiento de la materia y, en los colegios, nos decían que estaba en tres estados.

Tiene y encierra tantos misterios la materia que estamos aún y años-luz de saber y conocer sobre su verdadera naturaleza. Nos podríamos preguntar miles de cosas que no sabríamos contestar.  Nos maravillan y asombran fenómenos naturales que ocurren ante nuestros ojos pero que tampoco sabemos, en realidad, a que son debidos.  Si, sabemos ponerles etiquetas como, por ejemplo, la fuerza nuclear débil, la fisión espontánea que tiene lugar en algunos elementos como el protactinio o el torio y, con mayor frecuencia, en los elementos que conocemos como transuránicos.

A medida que los núcleos se hacen más grandes, la probabilidad de una fisión espontánea aumenta.  En los elementos más pesados de todos (einstenio, fermio y mendelevio), esto se convierte en el método más importante de ruptura, sobrepasando a la emisión de partículas alfa.

¡Parece que la materia está viva!

Son muchas las cosas que desconocemos y, nuestra curiosidad nos empuja continuamente a buscar esas respuestas.

El electrón y el positrón son notables por sus pequeñas masas (sólo 1/1.836 de la del protón, el neutrón, el antiprotón o antineutrón), y, por lo tanto, han sido denominados leptones (de la voz griega lepto que significa “delgado”).

             El electrón es onda y partícula

Aunque el electrón fue descubierto en 1.897 por el físico británico Josepth John Thomson (1856-1940), el problema de su estructura, si la hay, no está resuelto.  Conocemos su masa y su carga negativa que responden a 9,1093897 (54)x10-31kg la primera y, 1,602 177 33 (49)x10-19 culombios, la segunda, y también su radio clásico. No se ha descubierto aún ninguna partícula que sea menos masiva que el electrón (o positrón) y que lleve  una carga eléctrica, sea lo que fuese (sabemos como actúa y cómo medir sus propiedades, pero aun no sabemos qué es), tenga asociada un mínimo de masa, y que esta es la que se muestra en el electrón.

Leer más

¿Qué habrá en los Océanos de Higgs? ¡Si existen!

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (9)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

No hemos escatimado en medios para encontrar, en los campos de Higgs, el Bosón que según se cree, suministra la masa a las partículas. Allí, en el océano de Higgs, se ro,pe la simetría de gran unificación, y, de no encontrarlo, ¿Sería un nuevo comienzo? La partícula está incluída (aunque sea con calzador), en el Modelo Estándar y, si no aparece, algunas cosas tendrán que cambiar.

Pero soy de la opinión que no debemos adelantar los acontecimientos y, debemos tener todas nuestras esperanzas puestas en que, la física teórica está próxima a obtener un gran éxito: confirmando la potencia de la simetría para conformar de manera correcta nuestros razonamientos matemáticos cuando se aventura en las profundidades de lo desconocido de la Naturaleza. Parece que estamos cerca y, si la noticia es confirmada…

Otro triunfo de la aparición del Bosón de Higgs, sería la confirmación de que, las fuerzas, en tiempos pasados eran una sola fuerza, es decir, el universo era parte de un todo simétrico que se desgarró en lo que actualmente conocemos. Por otra parte, sabiendo de la existencia del océano de Higgs, nuestra noción del espacio vacío tendría que ser re-establecida. Un espacio vacío no tiene que ser sinónimo de la NADA ABSOLUTA que, según parece, como la eternidad y lo infinito, no existen.

En Física, cuando hablamos del Campo de Higgs, todos pensamos, de inmediato, que es el campo responsable de la ruptura de simetría asociado con el Bosón de Higgs. El Campo de Higgs puede ser tanto una cantidad escalar elemental como el campo asociado con un estado ligado de dos fermiones. En el Modelo Winberg-Salam, el Campo de Higgs se considera como un campo escalar. En realidad no se saber si estas hipótesis son correctas o no (ahora esperamos que,  “la aparición del Bosón de Higgs, algo más nos digan al respecto), aunque intentos de construir una teoría electrodébil con estados ligados para el Campo de Higgs, conocidos como teorías de Technicolor, no fueron exitosos.

Los Campos de Higgs también aparecen en sistemas de muchos cuerpos que pueden ser formulados como una teoría cuántica de campos con un Bosón de Higgs un ejemplo es la teoría BCS de la superconductividad, en la que el Campo de Higgs está asociado con un par de Cooper, en vez de con un campo escalar elemental.

Mucho es lo que se habló de los océanos de Higgs que dicen permear todo el espacio, pero la energía potencial tomada del campo de Higgs difiere en varios aspectos de la acción de los campos familiares. La masa tomada de Higgs es en realidad masa en reposo. De hecho, en la que quizá sea la versión más apasionante de la teoría del campo de Higgs, éste genera toda la masa en reposo.  Otra diferencia es que la cantidad de masa que se traga del campo es distinta para las distintas partículas.  Esperémos que ahora, nos expliquen, con más conocimiento de causa, todas estas cuestiones que, una vez “hallado” el Bosón misterioso de Higgs, los interrogantes se habrán despejados.

No creo que ahí puedfa encontrar al Bosón de Higgs que, duerme en los profundiodades del océano

Los teóricos dicen que las masas de las partículas de nuestro modelo estándar miden con qué intensidad se acoplan éstas al campo de Higgs.  La influencia de Higgs en las masas de los quarks y de los leptones, nos recuerda el descubrimiento por P. Zeeman, en 1.896, de la división de los niveles de energía de un electrón cuando se aplica un campo magnético al átomo.  El campo (que representa metafóricamente el papel de Higgs) rompe la simetría del espacio de la que el electrón disfrutaba.

Hasta ahora no tenemos ni idea de que reglas controlan los incrementos de masa generados por el Higgs (de ahí la expectación creada por el nuevo acelerador de partículas LHC). Pero el problema es irritante: ¿por qué sólo esas masas –Las masas de los W+, W, y Zº, y el up, el down, el encanto, el extraño, el top y el bottom, así como los leptones – que no forman ningún patrón obvio?

Las masas van de la del electrón 0’0005 GeV, a la del top, mayor que 91 GeV.  Deberíamos recordar que esta extraña idea (el Higgs) se empleó con mucho éxito para formular la teoría electro débil (Weinberg-Salam).  Allí se propuso el campo de Higgs como una forma de ocultar la unidad de las fuerzas electromagnéticas y débiles.  En la unidad hay cuatro partículas mensajeras sin masa  los W+, W, Zº y fotón que llevan la fuerza electro-débil.  Además está el campo de Higgs, y, rápidamente, los W y Z chupan la esencia de Higgs y se hacen pesados; el fotón permanece intacto. La fuerza electrodébil se fragmenta en la débil (débil porque los mensajeros son muy gordos) y la electromagnética, cuyas propiedades determina el fotón, carente de masa.  La simetría se rompe espontáneamente, dicen los teóricos.  Prefiero la descripción según la cual el Higgs oculta la simetría con su poder dador de masa.

Las masas de los W y el Z se predijeron con éxito a partir de los parámetros de la teoría electrodébil. Y las relajadas sonrisas de los físicos teóricos nos recuerdan que Gerard  ´t Hooft y Veltman dejaron sentado que la teoría entera esta libre de infinitos.

foto

 

Hasta hace algunas decenas de años, se consideraba que el espacio entre las estrellas estaba completamente vacío. Las observaciones ópticas y radioastronómicas han demostrado, en cambio, que éste está lleno de materia interestelar formada predominantemente por hidrógeno mezclado con minúsculas partículas sólidas, llamadas genéricamente polvo interestelar.

Todos los intentos y los esfuerzos por hallar una pista del cuál era el origen de la masa fallaron.  Feynman escribió su famosa pregunta: “¿Por qué pesa el muón?”.  Ahora, por lo menos, tenemos una respuesta parcial, en absoluto completa.  Una vez potente y segura nos dice: “! Higgs ¡” Durante más de 60 años los físicos experimentadores se rompieron la cabeza con el origen de la masa, y ahora el campo Higgs presenta el problema en un contexto nuevo; no se trata sólo del muón. Proporciona, por lo menos, una fuente común para todas las masas. La nueva pregunta feynmariana podría ser: ¿Cómo determina el campo de Higgs la secuencia de masas, aparentemente sin patrón, que da a las partículas de la materia?

                           Siempre quisimos agarrar la fuente de la que surgía la materia.

Siempre nos hemos preguntado de dónde vino la materia. Hemos llegado a comprender que toda la materia está hecha y es energía concentrada. Con el paso del tiempo pudimos desmenuzar sus componentes y llegamos a ser conscientes de que toda la masa del Universo está conformada a partir de minúsculos objetos que llamamos partículas. Todo lo grande está hecho de cosas pequeñas.

La variación de la masa con el estado de movimiento, el cambio de masa con la configuración del sistema y el que algunas partículas (el fotón seguramente y los neutrinos posiblemente) tengan masa en reposo nula son tres hechos que ponen entre dicho que el concepto de masa sea una tributo fundamental de la materia.  Habrá que recordar aquel cálculo de la masa que daba infinito y nunca pudimos resolver; los físicos sólo se deshicieron de él “renormalizándolo”, ese truco matemático que emplean cuando no saben hacerlo bien.

Ese es el problema de trasfondo con el que tenemos que encarar el problema de los quarks, los leptones y los vehículos de las fuerzas, que se diferencian por sus masas.  Hace que la historia de Higgs se tenga en pie: la masa no es una propiedad intrínseca de las partículas, sino una propiedad adquirida por la interacción de las partículas y su entorno, y, según mi amigo Ramón Márquez, las partículas toman su masa debido al efecto frenado, cuando en su caminar, se deslizan por los Océanos de Higgs.

http://4.bp.blogspot.com/-u10Hm4kwlvI/T27rxvfKSsI/AAAAAAAABCU/WWiSTbQrKzI/s1600/Las+masas+de+las+part%C3%ADculas-2.JPG

La idea de que la masa no es intrínseca como la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en la que los espines estarían asociados para siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.

De todas las maneras, va siendo hora ya de que, de una vez por todas, podamos despejar la incognita que desde años atrás ha venido suponiendo el origen de la masa de las partículas y, si como se cree, la fuente está en ese campo de Higgs que ahora trata de sondear el LHC, esperemos que a no tardar mucho, tengamos la respuesta a esa pregunta.

Si al fin aparece el dichoso Bosón de Higgs (y espero que algunas cosas más), sabremos un poco más de los misterios de la Naturaleza y, podremos seguir adelante con la construcción de un Modelo Estándar que, para mi gusto, tiene demasiado parámetros aleatorios para que todo encaje.

¡Veremos qué pasa!

La idea de que la masa no es intrínseca como la carga o el espín resulta aún más plausible por la idílica idea de que todos los quarks y fotones tendrían masa cero. En ese caso, obedecerían a una simetría satisfactoria, la quiral, en la que los espines estarían asociados para siempre con su dirección de movimiento. Pero ese idilio queda oculto por el fenómeno de Higgs.

De todas las maneras, va siendo hora ya de que, de una vez por todas, podamos despejar la incognita que desde años atrás ha venido suponiendo el origen de la masa de las partículas y, si como se cree, la fuente está en ese campo de Higgs que ahora trata de sondear el LHC, esperemos que a no tardar mucho, tengamos la respuesta a esa pregunta.

Si al fin aparece el dichoso Bosón de Higgs (y espero que algunas cosas más), sabremos un poco más de los misterios de la Naturaleza y, podremos seguir adelante con la construcción de un Modelo Estándar que, para mi gusto, tiene demasiado parámetros aleatorios para que todo encaje.

¿El Bosón de higgs! Estará realmente ya, con nosotros.

emilio silvera