Sep
18
Conociendo la materia I
por Emilio Silvera ~
Clasificado en Física ~
Comments (2)
Entre 1.906 y 1.908 (hace ahora un siglo) Rutherford realizó constantes experimentos disparando partículas alfa contra una lámina sutil de metal (como oro o platino), para analizar sus átomos. La mayor parte de los proyectiles atravesaron la barrera sin desviarse (como balas a través de las hojas de un árbol). Pero no todos. En la placa fotográfica que le sirvió de blanco tras el metal, Rutherford descubrió varios impactos dispersos e insospechados alrededor del punto central. Comprobó que algunas partículas habían rebotado. Era como si en vez de atravesar las hojas, algunos proyectiles hubiesen chocado contra algo más sólido.
Rutherford supuso que aquellas “balas” habían chocado contra una especie de núcleo denso, que ocupaba sólo una parte mínima del volumen atómico y ese núcleo de intensa densidad, desviaban los proyectiles que acertaban a chocar contra él. Ello ocurría en muy raras ocasiones, lo cual demostraba que los núcleos atómicos debían ser realmente ínfimos, porque un proyectil había de encontrar por fuerza muchos millones de átomos al atravesar la lámina metálica.
El núcleo atómico que es una parte de cien mil, es una maravilla en sí mismo. En tu interior moran los nucleones (protones y neutrones, esas partículas de la familia de los hadrones de la rama bariónica), y, a su su vez, están conformadas por tripletes de Quarks dentro de los nucleomnes confinados por la fuerza nuclear fuerte que está intermediada por los emisarios de la familia de los Bosones que se llaman Gluones
Era lógico suponer, pues, que los protones constituían ese núcleo duro. Rutherford representó los protones atómicos como elementos apiñados alrededor de un minúsculo “núcleo atómico” que servía de centro (después de todo eso, hemos podido saber que el diámetro de ese núcleo equivale a algo más de una cienmilésima del volumen total del átomo.).
En 1.908 se concedió a Rutherford el premio Nóbel de Química, por su extraordinaria labor de investigación sobre la naturaleza de la materia. El fue el responsable de importantes descubrimientos que permitieron conocer la estructura de los átomos en esa primera avanzadilla.
Desde entonces se pueden descubrir con términos más concretos los átomos específicos y sus diversos comportamientos. Por ejemplo, el átomo de hidrógeno posee un solo electrón. Si se elimina, el protón restante se asocia inmediatamente a alguna molécula vecina; y cuando el núcleo desnudo de hidrógeno no encuentra por este medio un electrón que participe, actúa como un protón -es decir, una partícula subatómica-, lo cual le permite penetrar en la materia y reaccionar con otros núcleos si conserva la suficiente energía.
Sep
18
Conociendo la materia II
por Emilio Silvera ~
Clasificado en Física ~
Comments (12)
Mediante un dispositivo inventado por cierto ayudante de J J.Thomson, llamado Francis William Aston, se demostró la existencia de los isótopos estables. En 1.919, Thomson, empleando la versión primitiva de aquel artilugio, demostró que el neón estaba constituido por dos variedades de átomos: una cuyo número de masa era 20, y otra, 22. El neón 20 era el isótopo común; el neón 22 lo acompañaba en la proporción de un átomo por cada diez. (Mas tarde se descubrió un tercer isótopo, el neón 21, cuyo porcentaje en el neón atmosférico era de un átomo por cada 400.)
Entonces fue posible, al fin, razonar el peso atómico fraccionario de los elementos. El peso atómico del neón (20, 183) representaba el peso conjunto de los tres isótopos, de pesos diferentes, que integraban, el elemento en su estado natural. Cada átomo individual tenía un número másico entero, pero el promedio de sus masas –el peso atómico- era un número fraccionario.
Aston procedió a mostrar que varios elementos estables comunes eran, en realidad, mezclas de isótopos. Descubrió que el cloro, con un peso atómico fraccionario de 35’453, estaba constituido por el cloro 35 y el cloro 37, en la “proporción” de cuatro a uno. En 1.922 se le otorgó el premio Nóbel de Química.
En el discurso pronunciado al recibir el premio, Aston predijo la posibilidad de aprovechar la energía almacenada en el núcleo atómico, vislumbrando ya las futuras y nefastas bombas y centrales nucleares. Allá por 1.935, el físico canadiense Arthur Jeffrey Dempster empleó el instrumento de Aston para avanzar sensiblemente en esa dirección. Demostró que, si bien 993 de cada 1.000 átomos de uranio grande uranio 238 (no válido para combustible nuclear), los siete restantes eran uranio 235 (buen combustible nuclear). Y, muy pronto se haría evidente el profundo significado de tal descubrimiento.
Así, después de esta siguiendo huellas falsas durante un siglo, se reivindicó definitivamente la teoría de Prout. Los elementes estaban constituidos por bloques estructurales uniformes; si no átomos de hidrógeno, sí, por lo menos, unidades con masa de hidrógeno.
Sep
18
Caos y complejidad, normalidad y sencillez: Las partes de un todo
por Emilio Silvera ~
Clasificado en La Complejidad ~
Comments (0)
Qué es la complejidad en la teoría de sistemas complejos en biología?
Complejidad en biología no es sinónimo de complicado. Es la manera de definir a sistemas en los cuales múltiples factores interactúan generando comportamientos no predecibles. En los sistemas vivos esta forma de organización es la única que existe y por lo tanto la nueva teoría de la complejidad o de sistemas complejos, o “integración de sistemas complejos”, con base en estudios matemáticos y físicos, es una teoría científica que nos permite entender la naturaleza, la diversidad biológica y la evolución.
Todas las partes el cuerpo humano nos llevan a un complejo sistema que requiere de su estudio por separado (las distintas especialidades), que en conjunto conforman un todo complejo y, que como sistema cerrado, está sometido a la Entropía que se genera con el paso del Tiempo.
Las conexiones y los niveles de organización de los sistemas vivos, que antes se planteaban como surgidos por azar y selección, representan un aparente laberinto que es capaz de generar un orden (Kauffman, 1993).
Los seres vivos están constituidos por estructuras en común, los mismos mecanismos y las mismas sustancias. Metabolizan y extraen energías con principios similares y, además, un mismo código genético. Los patrones similares generan la emergencia de patrones filogenéticos.
Estudiado por partes hemos llegado a comprender la enorme complejidad que encierra un ser vivo de nuestra especie
Todos hemos oído hablar, con más o menos frecuencia, de “Sistemas Complejos”, aquí mismo en estas páginas, la palabra sale a relucir con cierta frecuencia y, no me extraña que “la palabreja” cree una barrera, dado que, que para muchas personas, “complejo” significa “complicado” y suponen automáticamente que, si un sistema es complicado, será difícil de comprender. La naturaleza posee una fuerte tendencia a estructurarse en forma de entes discretos excitables que interactúan y que se organizan en niveles jerárquicos de creciente complejidad, por ello, los sistemas complejos no son de ninguna manera casos raros ni curiosidades sino que dominan la estructura y función del universo.
La complejidad del cerebro y lo que allí se esconde, la complejidad de una nebulosa molecular gigante
Claro que, no siempre ese temor a lo difícil y complicado, está justificado y, tal suposición no es, necesariamente correcta. En realidad, un sistema complejo es tan solo un sistema que está formado por varios componentes más sencillos que ejercen entre sí una interacción mutua que, naturalmente, tiene sus consecuencias. Si miramos la imagen de arriba, vemos una inmensa y hermosa Nebulosa que está formada por una serie de “cosas” sencillas como lo son el gas hidrógeno y el polvo interestelar entre otros y, en presencia de energías, la gravedad y otros parámetros, ahí ocurren cosas tales como, el nacimiento de estrellas y la aparición de mundos…entre otras.
Los grandes triunfos de la Ciencia se han logrado, en gran medida, descomponiendo los sistemas complejos en sus componentes simples, es decir, estudiar por partes lo que allí está presente (en caso necesario, como primera aproximación, dando el paso suplementario de pretender que todos los componentes son más sencillos de lo que son en realidad) para llegar a comprender el todo.
En el ejemplo clásico del éxito que ha logrado este planteamiento para conocer el mundo que nos rodea, buena parte de la química puede entenderse mediante un modelo en el que los componentes simples son átomos, y para eso importa poco de qué están formados los núcleos. Ascendiendo un nivel, las leyes que describen el comportamiento del dióxido de Carbono encerrado en una caja pueden entenderse pensando en unas moléculas más o menos esféricas que rebotan unas contra otras y contra las paredes de su contenedor, y poco importa que cada una de estas moléculas esté formada por un átomo de Carbono y dos de Oxígeno unidos entre sí. Ambos sistemas son complejos, en sentido científico, pero fáciles de entender
A veces en la vida nuestro mundo se oscurece, todo lo que nos rodea es dudoso y retorcido, oímos pasos que nos siguen, siempre han estado ahí, … No sabemos a quién pueden pertenecer y, a nuestro alrededor hay cosas que no podemos ver.
No siempre sabemos ver el mundo que nos rodea. El que miremos no significa que estemos viendo lo que realmente hay delante de nuestros ojos y, muchas veces, no son los ojos los únicos que pueden “ver” lo que hay más allá de lo que la vista puede alcanzar. Anoche, hasta una hora avanzada, estuve releyendo el Libro “Así de Simple” de John Gribbin, y, pareciéndome interesante os saqué un pequeño resumen del comienzo. Aquí os lo dejo.
Lo podemos tener delante y no sabremos lo que es
Cómo podremos explicar las simetrías que nos rodean
Implicaciones de un Universo Fractal pero… ¿Llegaremos a comprender?
El mundo que nos rodea parece ser un lugar complicado. Aunque hay algunas verdades sencillas que parecen eternas (las manzanas caen siempre hacia el suelo y no hacia el cielo; el Sol se levanta por el este, nunca por el oeste), nuestras vidas, a pesar de las modernas tecnologías, están todavía, con demasiada frecuencia, a merced de los complicados procesos que producen cambios drásticos y repentinos. La predicción del tiempo atmosférico tiene todavía más de arte adivinatorio que de ciencia; los terremotos y las erupciones volcánicas se producen de manera impredecible y aparentemente aleatorias; las fluctuaciones de la economía siguen ocasionando la bancarrota de muchos y la fortuna de unos pocos.
Sobre la posición de la salida del Sol
Desde la época de Galileo (más o menos, a comienzos del siglo XVII) la ciencia ha hecho progresos –enormes-, ignorando en gran medida estas complejidades y centrándose en cuestiones sencillas, intentando explicar por qué las manzanas caen al suelo y por qué el Sol se levanta por el este. Los avances fueron de hecho tan espectaculares que hacia mediados del siglo XX ya se había dado respuesta a todas las cuestiones sencillas. Conceptos tales como la teoría general de la relatividad y la mecánica cuántica explicaron el funcionamiento global del universo a escalas muy grandes y muy pequeñas respectivamente, mientras el descubrimiento de la estructura del ADN y el modo en que éste se copia de una generación a otra hizo que la propia vida, así como la evolución, parecieran sencillas a nivel molecular. Sin embargo, persistió la complejidad del mundo a nivel humano –al nivel de la vida-. La cuestión más interesante de todas, la que planteaba cómo la vida pudo haber surgido a partir de la materia inerte, siguió sin respuesta.
Un descubrimiento así no podía dejar al mundo indiferente. En unos años el mundo científico se puso al día y la revolución genética cambió los paradigmas establecidos. Mucha gente aún no está preparada para aceptar el comienzo de una era poderosa en la que el ser humano tiene un control de sí mismo mayor al habitual. Había nacido la Ingeniería genética.
No debe extrañarnos que sea precisamente a escala humana donde se den las características más complejas del universo. Las que se resisten más a rendirse ante los métodos tradicionales de la investigación científica. Realmente, es posible que seamos lo más complejo que existe en el universo. La razón es que, a escalas más reducidas, entidades tales como los átomos se comportan individualmente de un modo relativamente sencillo en sus interacciones mutuas, y que las cosas complicadas e interesantes surgen, cuando se unen muchos átomos de maneras complicadas e interesantes, para formar organismos tales como los seres humanos.
El Universo no deja de sorprendernos, aquí una pequeña muestra: ¿Es sabia la Naturaleza?
Pero este proceso no puede continuar indefinidamente, ya que, si se unen cada vez más átomos, su masa total aumenta hasta tal punto que la Gravedad aplasta toda la estructura importante y la aniquila. Un átomo, o incluso una molécula tan simple como la del agua, es algo más sencillo que un ser humano, porque tiene poca estructura interna; una estrella, o el interior de un planeta, es también algo más sencillo que un ser humano porque la gravedad aplasta cualquier estructura hasta aniquilarla. Esta es la razón por la cual la ciencia puede decirnos más sobre el comportamiento de los átomos y el funcionamiento interno de las estrellas o los planetas que sobre el modo en que las personas nos comportamos.
Sí, hemos podido llegar a conocer lo que ocurre en el Sol, y sabemos de sus procesos interiores y exteriores, de las ráfagas de partículas que en sus épocas activas, nos envía continuamente hacía la superficie del planeta y, que no sólo provoca esas bonitas Auroras, sino que, su intensa radiación y magnetismo incide en todos los artilugios que tenemos para leer los datos de… ¡tántas cosas!
Cuando los problemas sencillos se rindieron ante el empuje de la investigación, fue algo natural que los científicos abordaran rompecabezas más complicados que iban asociados con sistemas complejos, para que por fin fuera posible comenzar a comprender el funcionamiento del mundo a una escala más humana compleja y, para ello, hubo que esperar hasta la década de 1960, que fue cuando aparecieron los poderosos y rápidos (para lo que se estilaba en aquella época) ordenadores electrónicos. Estos nuevos inventos empezaron a ser conocidos por un público más amplio entre mediados y finales de la década de 1980, primero con la publicación del libro, ahora convertido en un clásico, Order out of Chaos, de Ilya Prigogine e Isabelle Stergers, y luego, con Chaos, de James Gleick.
Las personas sencillas que, aunque tengan una educación aceptable, no están inmersas en el ámbito de la ciencia, cuando oyen hablar de Complejidad y Caos en esas áreas, sienten, de primeras, una especie de rechazo por aquello que (ellos creen) no van a comprender. Sin embargo, la cuestión no es tan difícil como a primera vista pudiera parecer, todo consiste en tener la posibilidad de que alguien, de manera “sencilla” (dentro de lo posible), nos explique las cosas dejando a un lado las matemáticas que, aunque describen de manera más amplia y pura aquellos conceptos que tratamos, también es verdad que, no siempre, están al alcance de todos. Un conocimiento básico de las cosas más complicadas, es posible. También la relatividad general y la mecánica cuántica, se consideraron, cuando eran nuevas, como unas ideas demasiado difíciles para que cualquiera las entendiera, salvo los expertos –pero ambas se basan en conceptos sencillos que son inteligibles para cualquier persona lega en la materia, siempre que esté dispuesta a aceptar su parte matemática con los ojos cerrados-. E la misma manera, el Caos y la Complejidad, también pueden ser entendidos y, si tenemos la suerte de tener un buen interlocutor que nos sepa explicar, aquellos conceptos básicos sobre los que se asientan tanto el Caos como la Complejidad, veremos maravillados como, de manera natural, la luz se hace en nosotros y podemos entender lo que antes nos parecía inalcanzable.
Las galaxias se forman de manera progresiva por medio de una compleja combinación de acreción de gases, formación estelar y procesos de fusión con otras galaxias. De cierto, nadie lo sabe. Los cosmólogos no saben explicar cómo se pudieron formar las galaxias a pesar de la expansión de Hubble.
Se cree que las galaxias se han formado por la acumulación gravitacional de gas, algún tiempo después de la época de la recombinación. Las nubes de gas podrían haber comenzado a formar estrellas, quizás como resultado de las colisiones mutuas. El tipo de galaxia generado podría depender del ritmo al que el gas era transformado en estrellas, formándose las elípticas cuando el gas se convertía rápidamente en estrellas, y las espirales si la transformación de estrellas era lo suficientemente lenta como para permitir crecer de forma significativa un disco de gas.
Nubes moleculares en Orión que son los materiales primigenios para complejidades futuras
Las galaxias evolucionan al convertir progresivamente su gas remanente en estrellas, si bien no existe probablemente una evolución entre las diferentes tipos de la clasificación del conocido sistema de Hubble. No obstante, algunas galaxias elípticas pudieron haberse creado por la colisión y posterior fusión de dos galaxias espirales.
NGC 5426 y NGC 5427 son dos galaxias espirales de tamaños similares involucradas en una danza espectacular. No es seguro que esta interacción culmine en una colisión y a la larga en la fusión de las dos galaxias, aunque éstas ya han sido ya afectadas. Conocidas ambas con el nombre de Arp 271, su danza perdurará por decenas de millones de años, creando nuevas estrellas como resultado de la mutua atracción gravitacional entre las galaxias, un tirón observable en el borde de las estrellas que ya conectan a ambas. Ubicada a 90 millones de años-luz de distancia hacia la constelación de Virgo (la Virgen), el par Arp 271 tiene unos 130.000 años-luz de extensión. Fue descubierta originalmente en 1785 por William Herschel. Muy posiblemente nuestra Vía Láctea sufrirá una colisión similar en unos cinco mil millones de años más con la galaxia vecina Andrómeda, que ahora está ubicada a cerca de 2,6 millones de años-luz de la Vía Láctea.
Sí, mirando las imágenes nos da la sensación de que está por llegar cierto Caos y Complejidad a la región del universo en la que se sitúan las dos galaxias.
Tenemos que entender que, algunos sistemas (“sistema” no es más que una palabra de la jerga científica para asignar cualquier cosa, como un péndulo que oscila, o el sistema solar, o el agua que gotea de un grifo) son muy sensibles a sus condiciones de partida, de tal modo que una diferencia mínima en el “impulso” inicial que les damos ocasiona una gran diferencia en cómo van a acabar, y existe una retroalimentación, de manera que lo que un sistema hace afecta a su propio comportamiento. Así, a primera vista, parece que la guía es sencilla y, nos puede parecer mentira que así sea. Sin embargo, esa es la premisa que debemos tener en cuenta. Nos podríamos preguntar: ¿Es realmente verdad, que todo este asunto del Caos y de la Complejidad se basaba en dos ideas sencillas –la sensibilidad de un sistema a sus condiciones de partida, y la retroalimentación-¿ La respuesta es que sí.
La mayor parte de los objetos que pueden verse en el cielo nocturno son estrellas, unos pocos centenares son visibles a simple vista. Una estrella es una bola caliente principalmente compuesta por hidrógeno gaseoso. El Sol es un ejemplo de una estrella típica y común. La gravedad impide que el gas se evapore en el espacio y la presión, debida a la alta temperatura de la estrella, y la densidad impiden que la bola encoja. En el corazón de la estrella, la temperatura y la densidad son lo suficientemente altas para sustentar a las reacciones de fusión nuclear, y la energía, producida por estas reacciones, hace su camino a la superficie y la irradia al espacio en forma de calor y luz. Cuando se agota el combustible de las reacciones de fusión, la estructura de la estrella cambia. El proceso de producir elementos, cada vez más pesados, a partir de los más livianos y de ajustar la estructura interna para balancear gravedad y presión, es llamado evolución estelar.
Observar una estrella a través del telescopio permite conocer muchas de sus importantes propiedades. El color de una estrella es un indicador de su temperatura y ésta, a su vez, depende de una combinación entre la masa de la estrella y su fase evolutiva. Usualmente, las observaciones también permiten encontrar la luminosidad de la estrella o la tasa con la cual ella irradia energía, en forma de calor y luz.
Todas las estrellas visibles a simple vista forman parte de nuestra galaxia, la Vía Láctea. La Vía Láctea es un sistema compuesto por unos cien mil millones de estrellas, junto con una considerable cantidad de material interestelar. La galaxia tiene forma de un disco chato sumergido en un halo débil y esférico. La gravedad impide que las estrellas se escapen y, sus movimientos, hacen que el sistema no colapse. La Vía Láctea no posee un límite definido, la distribución de las estrellas decrece gradualmente con distancias crecientes del centro. El SDSS detecta estrellas más de un millón de veces más débiles que las que podemos ver a simple vista, lo suficientemente lejos para ver la estructura de la Vía Láctea.
De algún modo, esto es como decir que “todo lo que hay” sobre la teoría especial de la relatividad es que la velocidad de la luz es la misma para todos los observadores. Sin embargo, la complejidad de la estructura que se levanta sobre este hecho sencillo resulta asombrosa y requiere algunos conocimientos matemáticos para poder apreciarla plenamente. Claro que, eso no quita para que, un buen comunicador le pueda transmitir a otras personas mediante explicaciones sencillas lo esencial de la relatividad especial y general y también, sobre la esencia de la mecánica cuántica, y, de la misma manera, podríamos hablar del Caos y de la Complejidad. Debemos ser conscientes de que, el Caos, puede surgir a partir del Orden y que, la Complejidad, siempre llega a través de la sencillez de un comienzo. Podemos estar al borde del Caos y, de manera milagrosa ver que también a partir de él surge la normalidad y lo nuevo que no en pocas ocasiones pueden ser nuevas formas de vida. De la misma manera, las transformaciones de los elementos sencillos, bajo ciertas condiciones, llegan a adquirir una complejidad inusitada que, de alguna manera, es necesaria para que en este mundo que nos rodea, existan seres que como nosotros, sean el ejemplo más real y de más alto nivel que está presente en el Universo. Y, de la misma manera que nosotros estamos aquí, en un minúsculo sistema solar habitando un pequeño planeta que reúne todas las condiciones necesarias para la vida, de la misma forma digo, estarán poblados otros muchos planetas de otros muchos sistemas solares repartidos por nuestra Galaxia y por las otras que, a cientos de miles pululan por el Universo, y, todos esos seres “racionales”, se preguntaran las mismas cosas que nosotros y estarán interesados en descubrir los mismos misterios, los mismos secretos de la Naturaleza que, presintiendo que existen, tienen la intuición de que serán las respuestas esperadas para solucionar muchos de los problemas e inseguridades que ahora, en nuestro tiempo, nos aquejan.
Claro que, la mente nunca descansa. Acordaos de Aristarco de Samos que, en el siglo III a. C., ya anunció que la Tierra orbitaba alrededor del Sol y, Copérnico, que se llevó el premio, no lo dijo hasta el año 1543. Esto nos viene a demostrar que, a pesar de la complejidad del mundo, lo realmente complejo está en nosotros, en nuestras mentes que, presienten lo que pueda ser, intuyen el por qué de las cosas, fabrican pensamientos que, mucho más rápidos que la luz, llegan a las galaxias lejanas y, con los ojos de la mente pueden, atisbar aquellas cosas de las que, en silencio, ha oído hablar a su intuición dentro de su mente siempre atenta a todo aquello que puede ser una novedad, una explicación, un descubrimiento.
Vista de la Tierra y el Sol de la órbita (la imagen de la tierra tomada de http://visibleearth.nasa.gov)
Ahora estamos centrados en el futuro aquí en la Tierra pero, sin dejar de la mano ese futuro que nos espera en el espacio exterior. Es pronto aún para que el hombre vaya a las estrellas pero, algún día, ese será su destino y, desde ya, debe ir preparándose para esa aventura que sólo está a la espera de tener los medios tecnológicos necesarios para hacerla posible. Mientras tanto, jugamos con las sondas espaciales que enviamos a planetas vecinos para que, nos vayan informando de lo que están hechos aquellos mundos –grandes y pequeños- que, en relativamente poco tiempo, serán visitados por nuestra especie para preparar el salto mayor.
Emkilio Silvera V.
Sep
18
Un viaje hacia atrás en el tiempo
por Emilio Silvera ~
Clasificado en Física ~
Comments (0)
En esencia, podemos agrupar las moléculas de la vida en cuatro grupos: azúcares (que aportan la energía), lípidos (cuya función es principalmente estructural, como la formación de membranas), proteínas (que proporcionan la maquinaria que permite el funcionamiento celular, el metabolismo) y ácidos nucleicos (que portan las sustancias esenciales).
A finales del siglo XIX, poca gente sabía con exactitud a qué se dedicaban los “físicos”. El término mismo era relativamente nuevo. En Cambridge, la física se enseñaba como parte del grado de matemáticas.
En este sistema no había espacio para la investigación: se consideraba que la física era una rama de las matemáticas y lo que se le enseñaba a los estudiantes era como resolver problemas.
En la década de 1.870, la competencia económica que mantenían Alemania, Francia, Estados Unidos, y Gran Bretaña se intensificó. Las Universidades se ampliaron y se construyó un Laboratorio de física experimental en Berlín.
Cambridge sufrió una reorganización. William Cavendish, el séptimo duque de Devonshire, un terrateniente y un industrial, cuyo antepasado Henry Cavendish había sido una temprana autoridad en teoría de la gravitación, accedió a financiar un Laboratorio si la Universidad prometía fundar una cátedra de física experimental. Cuando el laboratorio abrió, el duque recibió una carta en la que se le informaba (en un elegante latín) que el Laboratorio llevaría su nombre.
Primer profesor J. J. Thomson como director del laboratorio
Tras intentar conseguir sin éxito atraer primero a William Thomson, más tarde a lord Kelvin (quien entre otras cosas, concibió la idea del cero absoluto y contribuyó a la segunda ley de la termodinámica) y después a Hermann von Helmohltz, de Alemania (entre cuyas decenas de ideas y descubrimientos destaca una noción pionera del cuanto), finalmente se ofreció la dirección del centro a James Clerk Maxwell, un escocés graduado en Cambridge. Este fue un hecho fortuito, pero Maxwell terminaría convirtiéndose en lo que por lo general se considera el físico más destacado entre Newton y Einstein. Su principal aportación fue, por encima de todo, las ecuaciones matemáticas que permiten entender perfectamente la electricidad y el magnetismo. Estas explicaban la naturaleza de la luz, pero también condujeron al físico alemán Heinrich Hertz a identificar en 1.887, en Karlsruhe, las ondas electromagnéticas que hoy conocemos como ondas de radio.
En el Laboratorio Cavendish de la Universidad de Cambridge, Cockcroft y Walton construyeron este acelerador de 500 kilovolts en 1932. Si lo comparamos con el LHC del CERN nos podemos dar cuenta de cómo la Ciencia ha ido avanzando en relativamente tan poco tiempo y, desde entonces hemos alcanzado un nivel que nos permite trabajar con 14 TeV, una energía de todo punto imposible e impensable en aquellos primeros tiempos.
Maxwell también creó un programa de investigación en Cavendish con el propósito de idear un estándar preciso de medición eléctrica, en particular la unidad de resistencia eléctrica, el ohmio. Esta era una cuestión de importancia internacional debido a la enorme expansión que había experimentado la telegrafía en la década de 1.850 y 1.860, y la iniciativa de Maxwell no solo puso a Gran Bretaña a la vanguardia de este campo, sino que también consolidó la reputación del Laboratorio Cavendish como un centro en el que se trataban problemas prácticos y se ideaban nuevos instrumentos.
Tubo de vacío usado por JJ Thomson en uno de los experimentos realizados para descubrir el electrón. Expuesto en el museo del laboratorio Cavendish. A este hecho es posible atribuir parte del crucial papel que el laboratorio iba a desempeñar en la edad dorada de la Física, entre 1.897 y 1.933. Los científicos de Cavendish, se decía, tenían “sus cerebros en la punta de los dedos.”
Maxwell murió en 1.879 y le sucedió lord Rayleigh, quien continuó su labor, pero se retiró después de cinco años y, de manera inesperada, la dirección pasó a un joven de veintiocho años, Joseph John Thomson, que a pesar de su juventud ya se había labrado una reputación en Cambridge como un estupendo físico-matemático. Conocido universalmente como J.J., puede decirse que Thomson fue quien dio comienzo a la segunda revolución científica que creó el mundo que conocemos.
Ernest Rutherford
Se dedicó al estudio de las partículas radioactivas y logró clasificarlas en alfaa (α), beta (β) y gamma (γ). Halló que la radiactividad iba acompañada por una desintegración de los elementos, lo que le valió ganar el Premio Nobel de Química de 1908. Se le debe un modelo atómico con el que probó la existencia de núcleol en los átomos, en el que se reúne toda la carga positiva y casi toda la masa del átomo. Consiguió la primera transmutación artificial con la colaboración de su discípulo Frederick Soddy.
El experimento fue un gran éxito que nos llevó a saber que en el centro del átomo había un pequeño núcleo que contenía más del 99% de la masa del átomo, y, las partículas que daban en ese núcleo, no pasaban, eran frenadas en su trayectoria.
Henry Cavendish en su Laboratorio
La primera revolución científica comenzó con los descubrimientos de Copérnico, divulgados en 1.543, y los de Isaac Newton en 1.687 con su Gravedad y su obra de incomparable valor Principia Matemática, a todo esto siguió los nuevos hallazgos en la Física, la biología y la psicología.
Pero fue la Física la que abrió el camino. Disciplina en permanente cambio, debido principalmente a la forma de entender el átomo (esa sustancia elemental, invisible, indivisible que Demócrito expuso en la Grecia antigua).
John Dalton
En estos primeras décadas del siglo XIX, químicos como John Dalton se habían visto forzados a aceptar la teoría de los átomos como las unidades mínimas de los elementos, con miras a explicar lo que ocurría en las reacciones químicas (por ejemplo, el hecho de que dos líquidos incoloros produjeran, al mezclarse, un precipitado blanco). De forma similar, fueron estas propiedades químicas y el hecho de que variaran de forma sistemática, combinada con sus pesos atómicos, lo que sugirió al ruso Dimitri Mendeleyev la organización de la Tabla Periódica de los elementos, que concibió jugando, con “paciencia química”, con sesenta y tres cartas en su finca de Tver, a unos trescientos kilómetros de Moscú.
Pero además, la Tabla Periódica, a la que se ha llamado “el alfabeto del Universo” (el lenguaje del Universo), insinuaba que existían todavía elementos por descubrir.
Dimitri Mendeléiev en 1897
La tabla de Mendeleyev encajaba a la perfección con los hallazgos de la Física de partículas, con lo que vinculaba física y química de forma racional: era el primer paso hacia la unificación de las ciencias que caracterizaría el siglo XX.
En Cavendish, en 1.873, Maxwell refinaría la idea de átomo al introducir la idea de campo electromagnético (idea que tomó prestada de Faraday), y sostuvo que éste campo “impregnaba el vacío” y la energía eléctrica y magnética se propagaba a través de él a la velocidad de la luz. Sin embargo, Maxwell aún pensaba en el átomo como algo sólido y duro y que, básicamente, obedecían a las leyes de la mecánica.
El problema estaba en el hecho de que, los átomos, si existían, eran demasiado pequeños para ser observados con la tecnología entonces disponible.
Esa situación empezaría a cambiar con Max Planck, el físico alemán que, como parte de su investigación de doctorado, había estudiado los conductores de calor y la segunda ley termodinámica, establecida originalmente por Rudolf Clausius, un físico alemán nacido en Polonia, aunque lord Kelvin también había hecho algún aporte.
El joven Max Planck
Clausius había presentado su ley por primera vez en 1.850, y esta estipulaba algo que cualquiera podía observar, a saber, que cuando se realiza un trabajo la energía se disipaba convertida en calor y que ese calor no puede reorganizarse en una forma útil. Esta idea, que por lo demás parecería una anotación de sentido común, tenía consecuencias importantísimas.
Dado que el calor (energía) no podía recuperarse, reorganizarse y reutilizarse, el Universo estaba dirigiéndose gradualmente hacia un desorden completo:
cántaro roto…
Una casa que se desmorona nunca se reconstruye así misma, una botella rota nunca se recompone por decisión propia. La palabra que Clausius empleó para designar este fenómeno o desorden irreversible y creciente fue “entropía”: su conclusión era que, llegado el momento, el Universo moriría.
En su doctorado, Planck advirtió la relevancia de esta idea. La segunda ley de la termodinámica evidenciaba que el tiempo era en verdad una parte fundamental del Universo, de la física. Sea lo que sea, el tiempo es un componente básico del mundo que nos rodea y se relaciona con la materia de formas que todavía no entendemos.
La noción de tiempo implica que el Universo solo funciona en un sentido, hacia delante, nunca se está quieto ni funciona hacia atrás, la entropía lo impide, su discurrir no tiene marcha atrás. ¿No será nuestro discurrir lo que siempre marcha hacia delante, y, lo que tenemos por tiempo se limita a estar ahí?
En el Laboratorio Cavendish, me viene a la memoria que fue allí, donde Thomson, en 1.897, realizó el descubrimiento que vino a coronar anteriores ideas y trabajos de Benjanmin Franklin, Euge Goldstein, Wilhelm Röntgen, Henri Becquerel y otros. El descubrimiento del electrón convirtió a la física moderna en una de las aventuras intelectuales más fascinantes e importantes del mundo contemporáneo.
Thomson descubrió el electrón
Los “corpúsculos”, como Thomson denominó inicialmente a estas partículas, hoy conocidas como electrones, condujo de forma directa al trascendental avance realizado una década después por Ernest Rutherford, quien concibió el átomo como una especie de “sistema solar” en miniatura, con los electrones diminutos orbitando alrededor de un núcleo masivo como hacen los planetas alrededor del Sol. Rutherford demostró experimentalmente lo que Einstein había descubierto en su cabeza y revelado en su famosa ecuación, E = mc2 (1905), esto es que la materia y la energía eran esencialmente lo mismo.
Todo aquello fue un gran paso en la búsqueda del conocimiento de la materia. El genio, la intuición y la experimentación han sido esenciales en la lucha del ser humano con los secretos, bien guardados, de la N
Emilio Silvera V.
Sep
18
La Imperfecta perfección
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
Todo lo que existe en nuestro Universo es el fruto de dos fuerzas antagónicas que se equilibran la una a la otra y produce la estabilidad que podemos observar en las galaxias y en las estrellas, en los átomos…
«A pesar de sus limitaciones, el modelo estándar es una herramienta básica para el avance de la física actual, como hace cien años lo fue el electromagnetismo. [Un] gran avance en nuestra comprensión del universo. Aunque no podamos hallar en él un candidato para la enigmática materia oscura, esta podrá ser identificada gracias a su interacción con detectores terrestres, y podrá ser interpretada gracias al modelo estándar».
Mario E. Gómez Santsamaría
Si consultamos nos dicen:
“El modelo estándar de la física de partículas es una teoría relativista de campos cuánticos desarrollada entre 1970 y 1973 [cita requerida] basada en las ideas de la unificación y simetrías1 que describe la estructura fundamental de la materia y el vacío considerando las partículas elementales como entes irreducibles cuya cinemática está regida por las cuatro interacciones fundamentales conocidas (exceptuando la gravedad, cuya principal teoría, la relatividad general, no encaja con los modelos matemáticos del mundo cuántico).”
Con el título que arriba podemos leer de “La perfección imperfecta”, me quiero referir al Modelo estándar de la física de partículas y de las interacciones fundamentales y, algunos, han llegado a creer que sólo faltan algunos detalles técnicos y, con ellos, la física teórica está acabada. Tenemos un modelo que engloba todo lo que desamos saber acerca de nuestro mundo físico. ¿Qué más podemos desear? Los pobres ilusos no caen en la cuenta de que el tal Modelo, al que no podemos negarle su valía como una herramienta muy valiosa para la física, no deja de estar incompleto y, además, ha sido construido con algunos parámetros aleatorios (unos veinte) que no tienen justificación. Uno de ellos era el Bosón de Higgs y, según nos han contado los del LHC, ha sido hallado. Sin embargo, esperamos que nos den muchas explicaciones que no han estado
presente en todas las algaradas y fanfarrias que dicho “hallazgo” ha producido (por aquel entonces), incluidos el Príncipe de Asturias y el Nobel. ¡Veremos en que queda todo esto al final!
Bueno, lo que hasta el momento hemos logrado no está mal del todo pero, no llega, ni con mucho, a la perfección que la Naturaleza refleja y que, nosotros perseguimos sin llegar a poder agarrar sus múltiples entresijos y parámetros que conforman ese todo en el que, sin ninguna clase de excusas, todo debe encajar y, de momento, no es así. Muchos son los flecos sueltos, muchas las incognitas, múltiples los matices que no sabemos perfilar.
Es cierto que, el Modelo estándar, en algunos momento, nos produce y nos da la sensación de que puede ser perfecto. Sin embargo, esa ilusoria perfección, no es permanente y en algunas casos efímera. En primer lugar, podríamos empezar a quejarnos de las casi veinte constantes que no se pueden calcular. Pero si esta fuese la única queja, habría poco que hacer. Desde luego, se han sugerido numerosas ideas para explicar el origen de estos números y se han propuesto varias teorías para “predecir” sus valores. El problema con todas estas teorías es que los argumentos que dan nunca llegan a ser convincentes.
Algunos tienen la esperanza de que se verá la Supersimetría en el LHC para saber, qué hay más allá del Modelo Estándar. ¿Serán las cuerdas vibrantes de la Teoría M?
“El Modelo Estándar agrupa, pero no unifica, las dos primeras teorías –el modelo electrodébil y la cromodinámica cuántica– lo que proporciona una teoría internamente consistente que describe las interacciones entre todas las partículas observadas experimentalmente.”
“Aceleración recíproca de dos líneas de universo geodésicas. Como vemos, conforme se avanza en la coordenada temporal, el tensor de Riemann curva las geodésicas y provoca el acercamiento recíproco de las dos partículas.
En relatividad general, la aceleración de marea viene originada por el tensor de Riemann. Hay una correspondencia casi natural entre las ecuaciones newtonianas y las relativistas. En efecto, la ecuación newtoniana utilizada para computar las fuerzas de marea es la siguiente:
donde a es la aceleración de marea,
el potencial gravitatorio y
la distancia entre las dos partículas. Las fuerzas de marea vienen determinadas por las derivadas de segundo orden del potencial gravitatorio.”
Si deseamos medir la contracción de volumen producida por la masa-energía presente en una determinada región, hemos de aplicar las ecuaciones de universo de Einstein:
Computemos ahora los valores de
:
Tras ello obtenemos:
Como vemos, la atracción gravitatoria viene determinada nosolo por la masa-energía sino también por la presión, aunque la contribución de ésta es
inferior a la de la primera. Por eso, en las regiones del espacio-tiempo sometidas a bajas presiones y temperaturas, como las nebulosas o nuestro Sistema Solar, la masa es prácticamente la única fuente de atracción gravitatoria y por ello las ecuaciones de la gravitación universal newtonianas constituyen una muy buena aproximación de la realidad física. En cambio, en fluidos sometidos a altas presiones, como las estrellas que se colapsan, la materia que se precipita en los agujeros negros o los chorros que son expelidos de los centros de las galaxias; en todos ellos la presión puede tener cierta importancia a la hora de computar la atracción gravitatoria y la curvatura del espacio-tiempo.”
“Un principio de relatividad es un principio general sobre la forma que debe tomar una teoría física. Frecuentemente los principios de relatividad establecen equivalencias entre observadores, de acuerdo con principios de simetría o invariancia entre situaciones físicamente equivalentes. De acuerdo con estos principios una determinada descripción de un fenómeno podría ser incorrecta si no respeta el principio de relatividad básico que define la teoría (así la teoría de la gravitación de Newton era incompatible con el principio de relatividad que definía la teoría de la relatividad especial, razón que llevó a Einstein a formular una nueva teoría de la gravitación como parte de la relatividad general).”
¿Por qué se iba a preocupar la Naturaleza de una fórmula mágica si en ausencia de tal fórmula no hubiera contradicciones? Lo que realmente necesitamos es algún principio fundamental nuevo, tal como el principio de la relatividad, pero nos resistimos a abandonar todos los demás principios que ya conocemos; ¡esos, después de todo, han sido enormemente útiles en el descubrimiento del Modelo estándar! una herramienta que ha posibilitado a todos los físicos del mundo para
poder construir sus trabajos en ese fascinante mundo de la mecánica cuántica, donde partículas infinitesimales interactúan con las fuerzas y podemos ver, como se comporta la materia en determinadas circunstancias. El mejor lugar para buscar nuevos principios es precisamente donde se encuentran los puntos débiles de la presente teoría.

“Colisión del Bosón de Higgs desintegrándose en fermiones”. Primeras evidencias de un nuevomodo de desintegración del bosón de Higgs. Las primeras evidencias de la desintegración del recién descubierto bosón de Higgs en dos partículas denominadas tau, pertenecientes a la familia de partículas que compone la materia que vemos en el Universo. Hasta ahora
los experimentos del LHC habían detectado la partícula de Higgs mediante su desintegración en otro tipo
de partículas denominadas bosones, portadoras de las fuerzas que actúan en la Naturaleza, mientras las evidencias de desintegraciones en fermiones no eran concluyentes. Esta es la primera evidencia clara de este nuevo modo de desintegración del bosón de Higgs.”
La regla universal en la física de partículas es que cuando las partículas chocan con energías cada vez mayores, los efectos de las colisiones están determinados por estructuras cada vez menores, más pequeñas en el espacio y en el tiempo. Supongamos por un momento que tenemos a nuestra disposición un Acelerador de Partículas 10.000 veces más potente que el LHC, donde las partículas pueden adquirir esas tantas veces más energías de las alcanzadas actualmente. Las colisiones que tendrían lugar nos dirían algo acerca de los detalles estructurales de esas partículas que ahora no conocemos, que serían mucho más pequeñas que las que ahora podemos contemplar. En este punto se me ocurre la pregunta: ¿Seguiría siendo correcto el Modelo estándar? 0, por el contrario, a medida que nos alejemos en las profundidades de lo muy pequeño, también sus normas podrían variar al mismo tiempo que varían las dimensiones de los productos hallados. Recordad que, el mundo no funciona de la misma manera en nuestro ámbito macroscópico que ante ese otro “universo” cuántico de lo infinitesimal.
¿Podéis imaginar conseguir colisiones a 70.000 TeV? ¿Qué podríamos ver? Y, entonces, seguramente, podríamos oír en los medios la algarada de las protestas de algunos grupos: “Ese monstruo creado por el hombre puede abrir en el espacio tiempo agujeros de gusano que se tragará el mundo y nos llevará hacia
otros universos” Comentarios así estarían a la orden del día. Los hay que siempre están dispuestos a protestar por todo y, desde
luego, no siempre llevan razón, toda vez que, la mayoría de las veces, ignoran de qué están hablando y juzgan si el conocimiento de causa necesario para ello. De todas las maneras, sí que debemos tener sumo cuidado con el manejo de fuerzas que… ¡no siempre entendemos! Cuando el LHC se vuelva a poner en marcha, se utilizarán energías que llegan hasta los 14 TeV, y, esas son palabras mayores.
Hay que reconocer que imaginación se le ponemos a simples conjeturas
¿Justifica el querer detectar las partículas que conforman la “materia oscura”, o, verificar si al menos, podemos vislumbrar la sombra de las “cuerdas” vibrantes de esa Teoria del Todo, el que se gasten ingentes cantidades de dinero en esos artilugios descomunales? Bueno, a pesar de todos los pesares, la respuesta es que SÍ, el rendimiento y el beneficio que hemos podido recibir de los aceleradores de partículas, justifica de manera amplia todo el esfuerzo realizado, toda vez que, no solo
nos ha llevado a conocer muchos secretos que la Naturaleza celosamente guardaba, sino que, de sus actividades hemos tenido beneficios muy directos en ámbitos como la medicina, las comunicaciones y otros que la gente corriente desconocen.
Hoy, el Modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aún más pequeñas. Pero tenemos algunas razones para sospechar que tales predicciones resultan estar muy alejadas de la realidad, o, incluso, ser completamente falsas. Cuando tenemos la posibilidad de llegar más lejos, con sorpresa podemos descubrir que aquello en lo que habíamos creído durante años, era totalmente diferente. El “mundo” cambia a medida que nos alejamos más y más de lo grande y nos sumergimos en ese otro “mundo” de lo muy pequeño, allí donde habitan los minúsculos objetos que conforman la materia desde los cimientos mismos de la creación.
Encendamos nuestro super-microscopio imaginario y enfoquémoslo directamente en el centro de un protón o de cualquier otra partícula. Veremos hordas de partículas fundamentales desnudas pululando. Vistas a través del super-microscopio, el modelo estándar que contiene veinte constantes naturales, describen las fuerzas que rigen la forma en que se mueven. Sin embargo, ahora esas fuerzas no sólo son bastante fuertes sino que también se cancelan entre ellas de una forma muy especial; están ajustadas para conspirar de tal manera que las partículas se comportan como partículas ordinarias cuando se vuelven a colocar el microscopio en la escala de ampliación ordinaria.
Si en nuestras ecuaciones matemáticas cualquiera de estas constantes fueran reemplazadas por un número ligeramente diferente, la mayoría de las partículas obtendrían inmediatamente masas comparables a las gigantescas energías que son relevantes en el dominio de las muy altas energías. El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural.
Ajuste fino paras el Universo, para la Vida y, para que esta sea posible en nuestro Universo, han tenido que confluir una serie de complejos ajustes, sin los cuales, no podríamos estar aquí.
¿Implica el ajuste fino un diseño con propósito? ¿Hay tantos parámetros que deben tener un ajuste fino y el grado de ajuste fino es tan alto, que no parece posible ninguna otra conclusión?
Antes decía: “El hecho de que todas las partículas tengan masa que corresponden a energías mucho menores repentinamente llega a ser bastante poco natural”. Es lo que se llama el “problema del ajuste fino”. Vistas a través del microscopio
, las constantes de la Naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son.
Hay algo muy erróneo aquí. Desde un punto de vista matemático, no hay nada que objetar, pero la credibilidad del Modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas o, lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas.
¿Y por qué debería ser el modelo válido hasta ahí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables, ellas podrían modificar completamente el mundo que Gulliver planeaba visitar. Si deseamos evitar la necesidad de un delicado ajuste fino de las constantes de la Naturaleza, creamos un nuevo problema:
Aquí dicen: “La materia oscura podría estar hecha de extrañas partículas inmortales”
Es cierto que nuestra imaginación es grande pero… No pocas veces ¡la realidad la supera!
¿Cómo podemos modificar el modelo estándar de tal manera que el ajuste-fino no sea necesario? Está claro que las moficiaciones son necesarias , lo que implica que muy probablemente hay un límite más allá del cual el modelo deja de ser válido. El Modelo estándar no será más que una aproximación matemática que hemos sido capaces de crear, tal que todos los fenómenos observados hasta el presente están de acuerdo con él, pero cada vez que ponemos en marcha un aparato más poderoso, debemos esperar que sean necesarias nuevas modificaciones para ir ajustando el modelo, a la realidad que descubrimos.
Tendremos que convenir que… ¡Imaginación no nos falta!
¿Cómo hemos podido pensar de otra manera? ¿Cómo hemos tenido la “arrogancia” de pensar que podemos tener la teoría “definitiva”? Mirando las cosas de esta manera, nuestro problema ahora puede muy bien ser el opuesto al que plantea la pregunta de dónde acaba el modelo estándar: ¿cómo puede ser que el modelo estándar funcione tan extraordinariamente bien? y ¿por qué aún no hemos sido capaces de percibir nada parecido a otra generación de partículas y fuerzas que no encajen en el modelo estándar? La respuesta puede estar en el hecho cierto de que no disponemos de la energía necesaria para poder llegar más lejos de lo que hasta el momento hemos podido viajar con ayuda de los aceleradores de partículas.
Los asistentes escuchan la presentación de los resultados del experimento ATLAS, durante el seminario del Centro Europeo de Física de Partículas (CERN) para presentar los resultados de los dos experimentos paralelos que buscan la prueba de la existencia de la “partícula de Higgs, base del modelo estándar de física.
La pregunta “¿Qué hay más allá del Modelo estándar”? ha estado facinando a los físicos durante años. Y, desde luego, todos sueñan con llegar a saber, qué es lo que realmente es lo que conforma el “mundo” de la materia, qué partículas, cuerdas o briznas vibrantes. En realidad, lo cierto es que, la Física que conocemos no tiene que ser, necesariamente, la verdadera física que conforma el mundo y, sí, la física que conforma “nuestro mundo”, es decir, el mundo al que hemos podido tener acceso hasta el momento y que no necesariamente tiene que coincidir con el mundo real que no hemos podido alcanzar.
O, como decía aquél:
¡Que mundo más hermoso, parece de verdad!
Nuestros sentidos imperfectos no nos deja ver… Lo que la Naturaleza esconde
No todo lo que vemos es, necesariamente, un reflejo de la realidad de la Naturaleza que puede tener escondidos más allá de nuestras percepciones, otros escenarios y otros objetos, a los que, por ahora, no hemos podido acceder, toda vez que, físicamente tenemos carencias, intelectualmente también, y, nuestros conocimientos avanzar despacio para conseguir, nuevas máquinas y tecnologías nuevas que nos posibiliten “ver” lo que ahora nos está “prohibido” y, para ello, como ocurre siempre, necesitamos energías de las que no disponemos.
Hay dos direcciones a lo largo de las cuales se podría extender el Modelo estándar, tal lo conocemos actualmente, que básicamente se caracterizan así:
– Nuevas partículas raras y nuevas fuerzas extremadamente débiles, y
– nuevas partículas pesadas y nuevas estructuras a muy altas energías.
Podrían existir partículas muy difíciles de producir y de detectar y que, por esa razón, hayan pasado desapaercibidas hasta el momento presente. La primera partícula adicional en la que podríamos pensares un neutrino rotando a derecha. Recordaremos que si se toma el eje de rotación paralelo a la dirección del movimiento los neutrinos sólo rotan a izquierdas , esa sería otra historia.
En alguna parte pude leer:
“Los interferómetros atómicos tienen ahora
la sensibilidad para observar nuevas fuerzas más allá del modelo estándar de la física de partículas. “Las nuevas fuerzas a corta distancia son una predicción frecuente de las teorías más allá del Modelo Estándar y la búsqueda de estas nuevas fuerzas es un canal prometedor para una nueva física”, dice Jay Wackerdel Laboratorio del Acelerador Nacional SLAC en California. La pregunta es cómo encontrarlas”
Los neutrinos siempre me han fascinado. Siempre se han manifestado como si tuvieran masa estrictamente nula. Parece como si se movieran exactamente con la velocidad de la luz. Pero hay un límite para la precisión de nuestras medidas. Si los neutrinos fueran muy ligeros, por ejemplo, una cienmillonésima de la masa del electrón, seríamos incapaces de detectar en el laboratorio la diferencia éstos y los neutrinos de masa estrictamente nula. Pero, para ello, el neutrino tendría que tener una componente de derechas.
En este punto, los astrónomos se unen a la discusión. No es la primera vez, ni será la última, que la astronomía nos proporciona información esencial en relación a las partículas elementales. Por ejemplo, debido a las interacciones de corriente neutra (las interacciones débiles originadas por un intercambio Zº), los neutrinos son un facto crucial en la explosión supernova de una estrella. sabemos que debido a las interacciones por corriente neutra, pueden colisionar con las capas exteriores de la estrella y volarlas con una fuerza tremenda.
En realidad, los neutrinos nos tienen mucho que decir, todavía y, no lo sabemos todo acerca de ellos, sino que, al contrario, son muchos los y fenómenos que están y subyacen en ellos de los que no tenemos ni la menor idea que existan o se puedan producir. Nuestra ignorancia es grande, y, sin embargo, no nos arredra hablar y hablar de cuestiones que, la mayoría de las veces…ni comprendemos.
Aquí lo dejar´ñe por hoy, el tema es largo y de una fascinación que te puede llevar a lugares en los que no habías pensado al comenzar a escribir, lugares maravillosos donde reinan objetos exóticos y de fascinante porte que, por su pequeñez, pueden vivir en “mundos” muy diferentes al nuestro en los que, ocurren cosas que, nos llevan el asombro y también
, a ese mundo mágico de lo fascinante y maravilloso.
Emilio Silvera V.