miércoles, 03 de septiembre del 2014 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Revoluciones científicas ¡La Relatividad!

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Relativista    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 «

 

Hemos tenido que construir máquinas inmensas para poder comprobar los efectos que se producen en un cuerpo cuando éste quiere ir más rápido que la luz. Lo predijo la teoría de la relatividad especial de Einstein y se ha comprobado despuès en los aceleradores de partículas: Nada va más rápido que la luz en nuestro Universo.

Es preciso ampliar un poco más las explicaciones anteriores que no dejan sentadas todas las cuestiones que el asunto plantea, y quedan algunas dudas que incitan a formular nuevas preguntas, como por ejemplo: ¿por qué se convierte la energía en masa y no en velocidad?, o ¿por qué se propaga la luz a 299.793 Km/s y no a otra velocidad?

La única respuesta que podemos dar hoy es que así es el universo que nos acoge y las leyes naturales que lo rigen, donde estamos sometidos a unas fuerzas y unas constantes universales de las que la velocidad de la luz en el vacio es una muestra.

 

 

 

 

A velocidades grandes cercanas a la de la luz (velocidades relativistas) no sólo aumenta la masa del objeto que viaja, sino que disminuye también su longitud en la misma dirección del movimiento (contracción de Lorentz) y en dicho objeto y sus ocupantes – si es una nave – se retrasa al paso del tiempo, o dicho de otra manera, el tiempo allí transcurre más despacio. A menudo se oye decir que las partículas no pueden moverse “más deprisa que la luz” y que la “velocidad de la luz” es el límite último de velocidad.

Pero decir esto es decir las cosas a medias, porque la luz viaja a velocidades diferentes dependiendo del medio en el que se mueve. Donde más deprisa se mueve la luz es en el vacío: allí lo hace a 299.792’458 Km/s. Este sí es el límite último de velocidades que podemos encontrar en nuestro universo.

 

 

 

 

En el futuro, grandes estaciones sumergidas en el océano y ciudades en otros mundos rodeadas de campos de fuerza que impedirán la radiación nosiva mientras tanto se va consiguiendo terraformar el planeta. La tecnología habrá avanzado tanto que nada de lo que hoy podamos imaginar estará fuera de nuestro alcance y, viajar a mundos situados a decenas de años-luz de la Tierra será para entonces, lo cotidiano

 

Eso es lo que imaginamos pero… ¿Qué maravillas tendremos dentro de 150 años? ¿Qué adelantos científicos se habrán alcanzado? ¿Qué planetas habremos colonizado? ¿Habrá sucedido ya ese primer contacto del que tanto hablamos? ¿Cuántas “Tierras” habrán sido encontradas? ¿Qué ordenadores utilizaremos? ¿Será un hecho cotidiano el viaje espacial tripulado? ¿Estaremos explotando las reservas energéticas de Titán? ¿Qué habrá pasado con la Teoría de Cuerdas? Y, ¿Habrá, por fín aparecido la dichosa relatividad/#">materia oscura? Haciendo todas estas preguntas de lo que será o podrá ser, nos viene a la memoria todo lo que fue y que nos posibilita hacer estas preguntas.

http://4.bp.blogspot.com/_4FNQ5M5FnsQ/TNB34uRv8UI/AAAAAAAAACY/rF-VVLCpPfc/s1600/ciencias1.jpg

Una cosa nos debe quedar bien clara, nada dentro de 250 años será lo mismo que ahora. Todo habrá cambiado en los distintos ámbitos de nuestras vidas y, a excepción del Amor y los sentimientos que sentiremos de la misma manera (creo), todo lo demás, habrá dado lugar a nuevas situaciones, nuevas formas de vida, nuevas sociedades, nuevas maneras y, podríamos decir que una Humanidad nueva, con otra visión y otras perspectivas.

Ilustración abstracto con líneas y flashes  Foto de archivo - 8141891

Nuevas maneras de sondear la Naturaleza y desvelar los secretos

Pero echemos una mirada al pasado. Dejando a un lado a los primeros pensadores y filósofos, como Tales, Demócrito, Empédocles, Ptolomeo, Copérnico, Galileo, Kepler y otros muchos de tiempos pasados, tenemos que atender a lo siguiente:

Nuestra Física actual está regida y dominada por dos explosiones cegadoras ocurridas en el pasado: Una fue aquel artículo de 8 páginas que escribiera Max Planck, en ese corto trabajo dejó sentados los parámetros que rigen la Ley de la distribución de la energía radiada por un cuerpo negro. Introdujo en física el concepto novedoso de que la energía es una cantidad que es radiada por un cuerpo en pequeños paquetes discretos, en vez de en una emisión continua. Estos pequeños paquetes se conocieron como cuantos y la ley formulada es la base de la teoría cuántica.

Un amigo físico me decía: cuando escribo un libro, procuro no poner ecuaciones, cada una de ellas me quita diez lectores. Siguiendo el ejemplo, procuro hacer lo mismo (aunque no siempre es posible) pero, en esta ocasión dejaremos el desarrollo de la energía de Planck del que tantas veces se habló aquí, y, ponernos ahora a dilucidar ecuaciones no parece lo más entretenido, aunque el lenguaje de la ciencia, no pocas veces es el de los números.

En cualquier evento de Ciencia, ahí aparecen esos galimatias de los números y letras que pocos pueden comprender, dicen que es el lenguaje que se debe utilizar cuando las palabras no pueden expresar lo que se quiere decir. Y, lo cierto es que, así resulta ser.

Después de lo de Planck y su radiación de cuerpo negro, cinco años más tarde, irrumpió en escena otra  revolución de la Física se produjo en 1.905, cuando Albert relatividad/#">Einstein con su relatividad/#">relatividad especial nos dio un golpecito  en nuestras cabezas para despertar en ellas nuestra comprensión de las leyes que gobiernan el Universo.

Nos dijo que la velocidad de la luz es la máxima alcanzable en nuestro universo, que la masa y la energía son la misma cosa, que si se viaja a velocidades cercanas a la de la luz, el tiempo se ralentiza pero, el cuerpo aumentará su masa y se contraerá en el sentido de la misma…Y, todo eso, ha sido una y mil veces comprobado. Sin embargo, muchas son las pruebas que se realizan para descubrir los fallos de la teoría, veamos una:

Los científicos que estudian la radiación gamma de una explosión de rayos lejanos han encontrado que la velocidad de la luz no varía con la longitud de onda hasta escalas de distancia por debajo de la relatividad/#">longitud de Planck. Ellos dicen que esto desfavorece a algunas teorías de la gravedad cuántica que postulan la violación de la invariancia de Lorentz.

La invariancia de Lorentz se estipula que las leyes de la física son las mismas para todos los observadores, independientemente de dónde se encuentren en el universo. relatividad/#">Einstein utilizó este principio como un postulado de la relatividad/#">relatividad especial, en el supuesto de que la velocidad de la luz en el vacío, no depende de que se esté midiendo, siempre y cuando la persona esté en un sistema inercial de referencia. En más de 100 años la invariancia de Lorentz nunca ha sido insuficiente.

 http://2.bp.blogspot.com/_XGCz7tfLmd0/TCu_FS8raaI/AAAAAAAAGTs/6GWffvsxzPc/s320/image012.jpg

El mundo moderno de la física se funda notablemente en dos teorías principales, la relatividad/#">relatividad general y la mecánica cuántica, aunque ambas teorías parecen contradecirse mutuamente. Los postulados que definen la teoría de la relatividad/#">relatividad de relatividad/#">Einstein y la teoría del quántum estan incuestionablemente apoyados por rigurosa y repetida evidencia empiríca. Sin embargo, ambas se resisten a ser incorporadas dentro de un mismo modelo coherente.

La Teoría de cuerdas nos habla de las vibraciones que éstas emiten y que son partículas cuánticas. En esta teoría, de manera natural, se encuentran las dos teorías más importantes del momento: La Gravedad y la Mecánica cuántica, allí, subyacen las ecuaciones de campo de la teoría de la relatividad de Einstein que, cuando los físicas de las “cuerdas” desarrollan su teoría, aparecen las ecuciones relativista, sin que nadie las llame, como por arte de magia. Y, tal aparición, es para los físicos una buena seña.

Sin embargo, los físicos siguen sometiendo a pruebas cada vez más rigurosas, incluyendo versiones modernas del famoso experimento interferométrico de Michelson y Morley. Esta dedicación a la precisión se explica principalmente por el deseo de los físicos para unir la mecánica cuántica con la relatividad/#">relatividad general, dado que algunas teorías de la gravedad cuántica (incluyendo la teoría de cuerdas y la gravedad cuántica de bucles) implica que la invariancia Lorentz podría romperse.

Granot y sus colegas estudiaron la radiación de una explosión de relatividad/#">rayos gamma (asociada con una explosión de gran energía en una galaxia distante) que fue descubierto por la NASA relatividad/#">Fermi Gamma-Ray Space Telescope, el 10 de mayo de este año. Se analizó la radiación en diferentes longitudes de onda para ver si había indicios de que los relatividad/#">fotones con energías diferentes llegaron a los detectores de relatividad/#">Fermi en diferentes momentos.

Tal difusión de los tiempos de llegada parece indicar que la invariancia Lorentz efectivamente había sido violada, es decir que la velocidad de la luz en el vacío depende de la energía de la luz y no es una constante universal. Cualquier dependencia de la energía sería mínima, pero aún podría resultar en una diferencia mensurable en los tiempos de llegada de relatividad/#">fotones debido a los miles de millones de años luz de a la que se encuentran las explosiones de relatividad/#">rayos gamma.

Cuando nos acercamos a la vida privada del genio… ¡también, como todos, era humano!

De la calidad de relatividad/#">Einstein como persona nos habla un detalle: Cuando el Presidente Chaim Weizmann de Israel murió en 1952, a relatividad/#">Einstein se le ofreció la presidencia, pero se negó, diciendo que no tenía “ni la habilidad natural ni la experiancia para tratar con seres humanos.” Luego escribió que se sentía muy honrado por el ofrecimiento del estado de Israel, pero a la vez triste y avergonzado de no poder aceptarla.

Pero sigamos con la segunda revolución de su teoría que se dio en dos pasos: 1905 la teoría de la relatividad/#">relatividad especial y en 1.915, diez años después, la teoría de la relatividad/#">relatividad general que varió por completo el concepto del Cosmos y nos llevó a conocer de manera más profunda y exacta la Gravedad de relatividad/#">Newton.

http://www.cosmonoticias.org/wp-content/uploads/2011/05/energia-oscura-y-gravedad.jpg

      relatividad/#">Einstein nos decía que el espacio se curva en presencia de grandes masas

En la Teoría Especial de la Relatividad, relatividad/#">Einstein se refirió a sistemas de referencias inerciales (no acelerados). Asume que las leyes de la física son idénticas en todos los sitemas de referencia y que la velocidad de la luz en el vacío, c, es constante en el todo el Universo y es independiente de la velocidad del obervador.

La teoría desarrolla un sistema de matemáticas con el fin de reconciliar estas afirmaciones en aparente conflicto. Una de las conclusiones de la teoría es que la masa de un cuerpo, aumenta con la velocidad (hay una ecuación quer así lo demuestra), y, tal hecho, ha sido sobradamente comprobado en los aceleradores de partículas donde un relatividad/#">muón, ha aumentado más de diez veces su masa al circular a velocidades cercanas a la de la luz. Y el relatividad/#">muón que tiene una vida de dos millonésimas de segundo, además, al desplazarse a velocidades relativistas, también ven incrementado el tiempo de sus vidas.

 

El Acelerador de Partículas LHC es una Obra inmensa que ha construido el SER Humano para saber sobre la Naturaleza de la materia y…

Todos esos impulsos son llevados a procesadores electrónicos de datos a través de cientos de miles de cables. Por último, se hace una grabación en carrete de cinta magnética codificada con ceros y unos. La cinta graba las violentas colisiones de los protones y antiprotones, en las que generan unas setenta partículas que salen disparadas en diferentes direcciones dentro de las varias secciones del detector.

El LHC es un esfuerzo internacional, donde participan alrededor de siete mil físicos de 80 países. Consta de un túnel en forma de anillo, con dimensiones interiores parecidas a las del metro subterráneo de la Ciudad de México, y una circunferencia de 27 kilómetros. Está ubicado entre las fronteras de Francia y Suiza, cerca de la ciudad de Ginebra, a profundidades que van entre los 60 y los 120 metros debido a que una parte se encuentra bajo las montañas del Jura

La ciencia, en especial la física de partículas, gana confianza en sus conclusiones por duplicación; es decir, un experimento en California se confirma mediante un acelerador de un estilo diferente que funciona en Ginebra con otro equipo distinto que incluye, en cada experimento, los controles necesarios y todas las comprobaciones para que puedan confirmar con muchas garantías, el resultado finalmente obtenido. Es un proceso largo y muy complejo, la consecuencia de muchos años de investigación de muchos equipos diferentes.

relatividad/#">Einstein también concluyó que si un cuerpo pierde una energía L, su masa disminuye en L/c2. relatividad/#">Einstein generalizó esta conclusión al importante postulado de que la masa de un cuerpo es una medida de su contenido en energía, de acuerdo con la ecuación m=E/c2 ( o la más popular E=mc2).

Otras de las conclusiones de la teoría de relatividad/#">Einstein en su modelo especial, está en el hecho de que para quien viaje a velocidades cercanas a c (la velocidad de la luz en el vacío), el tiempo transcurrirá más lento. Dicha afirmación también ha sido experimentalmente comprobada.

Todos estos conceptos, por nuevos y revolucionarios, no fueron aceptados por las buenas y en un primer momento, algunos físicos no estaban preparados para comprender cambios tan radicales que barrían de un plumazo, conceptos largamente arraigados.

http://4.bp.blogspot.com/_zBAdWxgEeX0/R87vhcBGPII/AAAAAAAACI4/MCE-Wi6d2v0/s320/galatomo.jpg

       Todo lo grande está hecho de cosas pequeñas

Fue Max Planck, el Editor de la Revista que publicó el artículo de Albert relatividad/#">Einstein, quien al leerlo se dió cuenta de la enorme importancia de lo que allí se decía. A partir de aquel momento, se convirtió en su valedor, y, en verdad, relatividad/#">Einstein, reconoció publicamente tal ayuda.

En la segunda parte de su teoría, la Relatividad General, relatividad/#">Einstein concluyó que el espacio y el tiempo están distorsionados por la materia y la energía, y que esta distorsión es la responsable de la gravedad que nos mantiene en la superficie de la Tierra, la misma que mantiene unidos los planetas del Sistema Solar girando alrededor del Sol y, también la que hace posible la existencia de las Galaxias.

 Image of the sky in the region of the centre of the Milky Way

    ¡La Gravedad! Siempre está presente e incide en los comportamientos de la materia. La gravedad presente en un agujero negro gigante hace que en ese lugar, el tiempo deje de existir, se paralice y el espacio, se curve en una distorsión infinita. Es decir, ni espacio ni tiempo tienen lugar en la llamada singulariudad.

Nos dio un conjunto de ecuaciones a partir de los cuales se puede deducir la distorsión del tiempo y del espacio alrededor de objetos cósmicos que pueblan el Universo y que crear esta distorsión en función de su masa. Se han cumplido 100 años desde entonces y miles de físicos han tratado de extraer las predicciones encerradas en las ecuaciones de relatividad/#">Einstein (sin olvidar a Riemann ) sobre la distorsión del espaciotiempo.

Un relatividad/#">agujero negro es lo definitivo en distorsión espaciotemporal, según las ecuaciones de relatividad/#">Einstein: está hecho única y exclusivamente a partir de dicha distorsión. Su enorme distorsión está causada por una inmensa cantidad de energía compactada: energía que reside no en la materia, sino en la propia distorsión. La distorsión genera más distorsión sin la ayuda de la materia. Esta es la esencia del relatividad/#">agujero negro.

             Las ecuaciones de campo de la relatividad general de Einstein… ¡Nos dicen tántas cosas!

Si tuviéramos un relatividad/#">agujero negro del tamaño de la calabaza más grande del mundo, de unos 10 metros de circunferencia, entonces conociendo las leyes de la geometría de Euclides se podría esperar que su diámetro fuera de 10 m.: л = 3,14159…, o aproximadamente 3 metros. Pero el diámetro del agujero es mucho mayor que 3 metros, quizá algo más próximo a 300 metros. ¿ Cómo puede ser esto ? Muy simple: las leyes de Euclides fallan en espacios muy distorsionados.

 

    Con Einstein llegó la cosmología moderna, otra manera de mirar el Universo

Con esta teoría de la Relatividad General, entre otros pasos importantes, está el hecho de que dió lugar al nacimiento de la Cosmología que, de alguna manera, era como mirar con nueva visión a lo que l Universo podía significar, Después de relatividad/#">Einstein, el Universo no fue el mismo.

El análisis de la Gravitación que aquí se miuestra interpreta el Universo como un continuo espacio-tiempo de cuatro dimensiones en el el que la presencia de una masa (como decía antes) curva el espacio para crear un campo gravitacional.

De la veracidad y comprobación de las predicciones de ésta segunda parte de la Teoría Relativista, tampoco, a estas alturas cabe duda alguna, y, lo más curioso del caso es que, después de casi un siglo (1.915), aún los físicos están sacando partido de las ecuaciones de campo de la teoría relativista en su versión general o de la Gravedad.

Tan importante es el trabajo de relatividad/#">Einstein que, en las nuevas teorías, en las más avanzadas, como la Teoría M (que engloba las cinco versiones de la Teoría de Cuerdas), cuando la están desarrollando, como por arte de magía y sin que nadie las llame, surgen, emergen, las ecuaciones de relatividad/#">Einstein de la Relatividad General.

 

La luz se propaga en cualquier medio pero en el vacío, mantiene la mayor velocidad posible en nuestro Universo, y, hasta el momento, que se sepa, nada ha corrido más que la luz en ese medio. Algunos han publicado ésta o aquella noticia queriendo romper la estabilidad de la relatividad especial y han publicado que los neutrinos o los taquiones van más rápidos que la luz. Sin embargo, todo se quedó en eso, en una noticia sin demostración para captar la atención del momento.

La luz se propaga en el vacío a una velocidad aproximada a los 30.000 millones (3×1010) de centímetros por segundo. La cantidad c2 representa el producto c×c, es decir:

3×1010 × 3×1010, ó 9×1020.

Por tanto, c2 es igual a 900.000.000.000.000.000.000. Así pues, una masa de un gramo puede convertirse, en teoría, en 9×1020 ergios de energía.

El ergio es una unida muy pequeña de energía que equivale a: “Unidad de trabajo o energía utilizado en el sistema c.g.s y actúa definida como trabajo realizado por una fuerza de 1 dina cuando actúa a lo largo de una distancia de 1 cm: 1 ergio = 10-7 julios”. La kilocaloría, de nombre quizá mucho más conocido, es igual a unos 42.000 millones de ergios. Un gramo de materia convertido en energía daría 2’2×1010 (22 millones) de kilocalorías.  Una persona puede sobrevivir cómodamente con 2.500 kilocalorías al día, obtenidas de los alimentos ingeridos. Con la energía que representa un solo gramo de materia tendríamos reservas para unos 24.110 años, que no es poco para la vida de un hombre.

Emilio Silvera

¿Que es el principio de exclusión de Pauli?

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

«

 

 

 

El principio de exclusión de Pauli es un principio cuántico enunciado por Wolfgang Ernst Pauli en 1925. Establece que no puede haber dos fermiones con todos sus números cuánticos idénticos (esto es, en el mismo estado cuántico de partícula individual) en el mismo sistema cuántico ligado.1 Formulado inicialmente como principio, posteriormente se comprobó que era derivable de supuestos más generales: de hecho, es una consecuencia del teorema de la estadística del spin.

Debido al principio de exclusión de Pauli, es imposible que dos fermiones ocupen el mismo cuántico (al contrario de lo que ocurre con los bosones). La condensación Bose-Einstein es de importancia fundamental para explicar el fenómeno de la superfluidez. A temperaturas muy bajas (del orden de 2×10-7 K) se puede formar un condensado de Bose-Einstein, en el que varios miles de átomos dorman una única entidad (un superátomo). Este efecto ha sido observado con átomos de rubidio y litio.

                                                          Condensado de Bose-Einstein

Como ha habréis podido suponer, la condensación Bose-Einstein es llamada así en honor al físico Satyendra Nath Bose (1.894 – 1.974) y a Albert Einstein. Así que, el principio de exclusión de Pauli tiene aplicación no sólo a los electrones, sino también a los fermiones; pero no a los bosones.

http://www.mpe.mpg.de/410729/orbits3d_small_gif.gif

Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de ésta teoría en vez de las de la mecánica clásica.  En estadística cuantica, los estados de energía se considera que están cuantizados.  La estadística de Bose-Einstein se aplica si cualquier de partículas puede ocupar un estado cuántico dado. Dichas partículas (como dije antes) son los bosones que, tienden a juntarse.

         Los bosones tienen un momento angular n h / 2p, donde n es cero o un entero y h es la constante de Planckbosones idénticos, la función de ondas es siempre simétrica.  Si solo una partícula puede ocupar un cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n+½) h/2p y cualquier función de ondas de fermiones idénticos es siempre antisimétrica.

http://farm5.static.flickr.com/4140/4745204958_afd02b2486.jpg

La mejor teoría para explicar el mundo subatómico nació en 1928 cuando el teórico Paul Dirac combinó la mecánica cuántica con la relatividad especial para explicar el comportamiento del electrón. El resultado fue la mecánica cuántica relativista, que se transformó en un ingrediente primario en la teoría cuántica de campos. Con unas pocas suposiciones y unos ajustes ad-hoc, la teoría cuántica de campos ha probado ser suficientemente poderosa para formar la base del modelo estándar de las partículas y las fuerzas.

El campo magnético de las estrellas de neutrones

Si nos fijamos en todo lo que estamos hablando aquí, es fácil comprender cómo   un campo magnético la partícula cargada que gira, pero ya no resulta tan fácil saber por qué ha de hacer lo mismo un neutrón descargado. Lo cierto es que cuando un rayo de neutrones incide sobre un hierro magnetizado, no se comporta de la misma que lo haría si el hierro no estuviese magnetizado. El magnetismo delneutrón sigue siendo un misterio; los físicos sospechan que contiene cargas positivas y negativas equivalente a cero, aunque por alguna razón desconocida, logran crear un campo magnético cuando gira la partícula.

Particularmente creo que, si el neutrón tiene masa, si la masa es energía (E = mc2), y si la energía es electricidad y magnetismo (según Maxwell), el magnetismo del neutrón no es tan extraño, sino que es un aspecto de lo que en realidad es materia. La materia es la luz, la energía, el magnetismo, en  definitiva, la fuerza que reina en el universo y que está presente de una u otra forma en todas partes (aunque no podamos verla).

Sea fuere, la rotación del neutrón nos da la respuesta a esas preguntas:

¿Qué es el antineutrón? Pues, simplemente, un neutrón cuyo movimiento rotatorio se ha invertido; su polo sur magnético, por decirlo así, está arriba y no abajo. En realidad, el protón y el antiprotón, el electrón y el positrón, muestran exactamente el mismo fenómeno de los polos invertidos.

Es indudable que las antipartículas pueden combinarse formar la antimateria, de la misma que las partículas corrientes forman la materia ordinaria.

La primera demostración efectiva de antimateria se tuvo en Brookhaven en 1.965, donde fue bombardeado un blanco de berilio con 7 protones BeV y se produjeron combinaciones de antiprotones y antineutrones, o sea, un antideuterón. entonces se ha producido el antihelio 3, y no cabe duda de que se podría crear otros antinúcleos más complicados aún si se abordara el problema con más interés.

Pero, ¿existe en realidad la antimateria? ¿Hay masas de antimateria en el universo? Si las hubiera, no revelarían su presencia a cierta distancia. Sus efectos gravitatorios y la luz que produjeran serían idénticos a los de la materia corriente. Sin embargo, cuando se encontrasen las masas de las distintas materias, deberían ser claramente perceptibles las reacciones masivas del aniquilamiento mutuo resultante del encuentro. Así pues, los astrónomos observan especulativamente las galaxias, tratar de encontrar alguna actividad inusual que delate interacciones materia-antimateria.

La verdad es que, el momento, el éxito ha sido nulo y la antimateria, si existió alguna vez, quedó destruída en esos primeros momentos del Big Bang y, desapareció debido a que, la materia bariónica era algo mayor que la antimateria, es decir, había más protones que antiprotones.

Los físicos hablan de antipartícula y se están refiriendo a una partícula subatómica que tiene la misma masa que otra partícula y valores iguales pero opuestos de otra propiedad o propiedades. Por ejemplo, la antipartícula del electrón es el positrón, que tiene una carga positiva igual en módulo a la carga negativa del electrón. El antiprotón tiene una carga negativa igual al módulo de la carga positiva del protón. El neutrón y el antineutrón tienen momentos magnéticos con signos opuestos en relación con sus espines. La existencia de antipartículas es predicha por la mecánica cuántica relativista.

Cuando una partícula y su antipartícula colisionan ocurre la aniquilación. La antimateria consiste en materia hecha de antipartículas. Por ejemplo, el antihidrógeno consiste en un antiprotón con un positrón orbitando. El antihidrógeno ha sido creado artificialmente en laboratorio. El espectro del antihidrógeno debería ser idéntico al del hidrógeno y, precisamente por eso, es tan difícil para los astrónomos localizar antimateria (si es que la hay).

Parece que el Universo está formado mayoritariamente de materia (ordinaria) y la explicación de la ausencia de grandes cantidades de antimateria debe ser incorporada en  modelos cosmológicos que requieren el uso de teorías de gran unificación de las partículas elementales.

Y, a todo esto, no debemos olvidarnos de la otra materia, esa que llamamos oscura y que, en realidad, deja al descubierto nuestra inmensa ignorancia, ya que, todo el Universo está empapado de ella, y, sin embargo, aún no hemos sido capaces de discernir lo que dicha materia oscura pueda ser, como se formó, o de qué está hecha y cómo se generó en el Universo, en verdad es un gran misterio qur todos los Astrónomos del mundo persiguen incansables.

Ahora se habla de otras dimensiones, y, nuestro cerebro está conformado en tres espaciales y una temporal ( la relatividad especial) y, desde luego, nos cuesta “ver” dimensiones más altas y no podemops crear en nuestras mentes imágenes que nos lleven a 5, 10, 11 o cualquier de dimensiones que están fuera de nuestro alcance mental pero, las matemáticas nos dicen que podrían muy bien existir y, para ello, han ideado una hermosa Teoría del Todo que llaman de supercuerdas o Teoría M.

File:Calabi-Yau.png

Por mucho que esforzamos nuestra imaginación, visualizar esas dimensiones extra… ¡No será nada fácil! Nuestro muntro es tridimensional más el Tiempo que, desde Einstein, es la cuarta dimensión, Sin embargo, aunque con la numerología se trabaja con más dimensiones, y, los físicos de cuerdas logran que la Cuántica y la Relatividad (lo pequeño y lño grande) se junten sin alborotos, en la realidad cotidiana, donde las matemáticas quedan fuera, esas dimensiones más altas… ¡No se ven por ninguna parte!

Según los físicos, si es verdad que dichas dimensiones están ahí, ¿no podría esa materia y energía oscura estar alojada en alguna de ellas? Tengo un registrado en la Sociedad de Autores científicos que, precisamente se refiere a eso, a que la materia oscura pueda estar fuera de nuestra visión y que no la podamos detectar precisamente por no tenerla a la vista, y, mediante fluctuaciones del vacío, esa cantidad ingente de materia oscura deja pasar a los gravitones, los bosones intermediarios de la fuerza de Gravedad, que llegan a nuestro propio espacio, a nuestras dimensiones, y, se deja sentir haciendo que las galaxias se alejen las unas de las otras a mayor velociodad de lo que lo harían si la única materia presente fuese la Bariónica.

En fin, amigos, es tanto lo que no sabemos que, mejor será la búsqueda de éste y de otros misterios que, como el de la masa de las partículas, aún se nos escapa y tenemos que construir maravillas como el LHC para tratar de que responda a nuestras preguntas.

        Una máquina gigantesca que quiere viajar hasta las cuerdas vibrantes

Pero, una cosa es cierta, nuestra osadía que nos lleva a comentar sobre cosas que no llegamos a comprender y, como por ejemplo, los taquiones, son simplemente objetos creados en nuestra inagotable imaginación. Los taquiones, si lo recordais, son partículas hipotéticas que viajan a mayor velocidad que la de la luz y, según la teoría electromagnética, una partícula cargada que viaja a través de un medio con velocidad mayor que la de la luz en ese medio emite radiación Cerenkov y, un taquión cargado emitirá radiación Cerenkov incluso en el vacío.

Claro que, por el momento no se han detectado partículas con esas caracterísiticas y, si llegan a hacer acto de presencia, ¿qué hacemos con la relatividad especial de Einstein que nos dice que nada en nuestro Universo podrá ir a más velocidad que la luz?

¡Es un serio problema! Mejor que el dichoso Taquión no aparezca.

Por otra parte, nunca podremos dejar de sorprendernos cuando nos sumergimos en el “universo” de la mecánica cuántica y en el mundo subatómico de las partículas. El 18 abril 2012, investigadores del Instituto Kavli de TU Delft y de la Fundación FOM han logrado una primera detección de partículas Majorana. Etore Majorana fue un brillante físico italiano que llevó a cabo sus investigaciones en los años treinta del siglo pasado, ahondando en la teoría cuántica y como una partícula especial que podría existir, una partícula que sería en sí misma su propia antipartícula: el fermion de Majorana. Eso sitúa a partícula en la frontera entre materia y antimateria.

¿Será cierto aquello de que, todo lo que podamos imaginar se puede convertir en realidad… ¡con el paso del tiempo!

emilio silvera

La Física no duerme

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 

    Se quiere publicar los resultados completos obtenidos en BaBar detector Y Belle

” Durante la última década BaBar y Belle han estudiado la física de la parte inferior y el encanto mesones, leptones tau, estados quarkonium pesados​​, etc, que se produjeron en el PEP-II y anillos KEKB e + e-almacenamiento. Las dos colaboraciones desarrolladas contiuously cada vez más sofisticadas técnicas para extraer la máxima cantidad de información de los datos.

A menudo, estas técnicas se han utilizado en muchos análisis. Sin embargo, como la mayoría de BaBar de y más de 600 publicaciones de Belle son en la revista Physical Review Letters, Physical Review D Rapid Communications, y Physics Letters, donde el límite de páginas impuestas por las revistas no permiten una descripción completa de los análisis, muchos detalles de esta obra nunca se han publicado. La física de los B-Fábricas abordarán este problema proporcionando descripciones de todas las técnicas desarrolladas por los experimentos, y una visión global de las mediciones. Esto proporcionará una referencia esencial para los físicos que trabajan en la próxima generación de Fábricas Súper sabor”

Future Analysis

“Más de ocho años de datos de física de partículas cristalinas se mantienen disponibles para su análisis o re-análisis por lo menos hasta 2018, ahora ese proyecto a largo plazo de acceso a datos de BaBar es completa. El proyecto conserva un conjunto completo de datos de BaBar – todos femtobarns 530-plus inversas de ella – por, en cierto sentido, el tiempo de parada para ello, integrándola en un seguro de las actualizaciones, correcciones de errores y parches capullo computacional. Cualquier cosa que pueda interrumpir el ambiente de computación en donde se guarda cuidadosamente los datos se aloja por una disposición inteligente de los servidores, software y máquinas virtuales en red.

El proyecto BaBar LTDA es parte de un creciente movimiento para preservar los datos conseguidos con tanto esfuerzo para las generaciones futuras, en lugar de permitir que se desvanezca en el olvido, atrapado en medios de almacenamiento que han quedado obsoletas. BaBar tomó datos de las colisiones electrón-positrón en PEP II colisionador de SLAC 1999-2008, mientras que en busca de indicios de por qué la materia y la antimateria no llena el universo en su lugar.

photo

Photos: Reidar Hahn, Fermilab

Cuando el experimento BaBar en el SLAC National Accelerator Laboratory cerró en abril de 2008, que puso fin a casi nueve años de la toma de datos en las desintegraciones de partículas subatómicas llamadas mesones B. Pero eso era apenas el final de la historia de los 500 científicos que trabajan en el experimento. En noviembre se celebraba la publicación de su artículo 400, y que esperan que los próximos años van a producir al menos 100 más.

No sólo son investigadores BaBar ocupados explorar las sutilezas de sus preguntas originales, pero también están utilizando datos BaBar para arrojar luz sobre otros misterios que pueden y de hecho surgir. Ahora los datos están listos.

“Somos el primer esfuerzo de conservación de datos para llegar a un estado tan madura”, a pesar de los numerosos criterios del proyecto LTDA debía cumplir, dijo Tina Cartaro, coordinador de informática de Babar. Los datos tuvieron que ser fácil de administrar y fácil de mantener con un mínimo de esfuerzo, agregó la coordinadora Tina Cartaro.”

Entre 1999 y 2008, en el acelerador de partículas del SLAC, se produjeron más de 500 millones de mesones B, y sus contrapartidas de antimateria llamados B-bar. Así, los científicos observaron cómo estas partículas incumplían la simetría CP. El problema para observar la ruptura de la simetría T residía en que los mesones B se desintegran irreversiblemente en pocas billonésimas de segundo, impidiendo invertir su situación inicial y final. La solución se ha encontrado mediante la correlación cuántica entre los dos B, que permite que la información de la partícula que se desintegra primero se utilice en ese momento para determinar el estado de su partícula compañera que aún vive. Los investigadores han descubierto que el estado de este último mesón B se transforma en otro unas seis veces más a menudo en un sentido que en el inverso.

Observan la ruptura de simetría temporal en un líquido de spín quiral gracias al efecto Hall anómalo

En física no se deja de experimentar para saber como funciona la Naturaleza y si sus leyes son estables.   Por ejemplo, el magnetismo de un imán es debido a los momentos magnéticos libres (espines) de los átomos que lo constituyen. En un material paramagnético, al aplicar un campo magnético, estos espines se alinean paralelamente al campo, en otro caso están orientados al azar. Un imán permanente es un material ferromagnético en el que el acoplamiento entre los espines es suficientemente fuerte para mantener su alineamiento. Muchos materiales paramagnéticos dejan de serlo a muy baja temperatura debido a una ruptura espontánea de la isotropía (simetría continua de rotación) en su estado fundamental. Un paramagneto cuántico es un material que mantiene su paramagnetismo a temperaturas muy bajas.

“Ruptura de simetría en el tiempo en las leyes de la Física Una investigación liderada por el Instituto de Física Corpuscular, centro mixto del CSIC y la Universidad de Valencia, ha obtenido evidencias de la ruptura de la simetría en el tiempo en las leyes de la Física. El hallazgo, que se publica en la revista Physical Review Letters, ha contado con el apoyo de la colaboración internacional BaBar del laboratorio SLAC (Stanford Linear Accelerator Center) del Departamento de Energía de Estados Unidos en la Universidad de Stanford (California).

En experimentos previos con partículas conocidas como mesones K y B, se observó que no se cumplía la simetría CP. El teorema CPT indica que, para cualquier sistema de partículas, las simetrías deben mantenerse equilibradas, es decir, si la simetría CP no se cumple, la simetría T tampoco. El investigador Fernando Martínez Vidal añade que “la clave para medir directamente la ruptura de la simetría T nos la dio el experimento BaBar del SLAC, que fue diseñado para el estudio en profundidad de la asimetría entre materia y antimateria”.

“Cualquier indicio de ruptura de la simetría CPT requeriría un serio replanteamiento de nuestro entendimiento de la Naturaleza”

Eso es lo que han dicho reputados físicos reconocidos mundialmente, y, si eso es así (que lo es), parece que estamos entrando en una nueva era del conocimiento. El tiempo discurre inexorablemente. En la historia del universo y en los sistemas complejos, la evolución temporal está asociada al aumento de entropía. Dicho de otro modo, con el paso del tiempo, el desorden siempre crece a partir de una situación inicial más ordenada.

La-Entropia-y-el-fin-del-Universo.jpg

 

               El Universo como sistema cerrado está aumentando constantemente su entropía. Acodáos de la sencilla y maravillosa ecuación  S = k log W que figura en la cabecera de la lápida de Boltzmann como reconocimiento a su ingenio.  La sencilla ecuación (como todas las que en Física han tenido una enorme importancia, es la mayor aportaciópn de Boltzmann y una de las ecuaciones más importantes de la Física. El significado de las tres letras que aparecen (aparte la notación para el logaritmo es el siguiente: S es la entropía de un Sistema; W el número de microestados posibles de sus partículas elementales y k una constante de proporcionalidad que hoy día recibe el nombre de constante de Boltzmann y cuyo valor es k = 1,3805 x 10-23 J(K (si el logaritmo se toma en base natural). En esta breve ecuación se encierra la conexión entre el micromundo y el macromundo, y por ella se reconoce a Boltzmann como el padre de la rama de la Física comocida como Mecánica Estadistica.

El tiempo discurre inexorablemente. En la historia del universo y en los sistemas complejos, la evolución temporal está asociada al aumento de entropía. Dicho de otro modo, con el paso del tiempo, el desorden siempre crece a partir de una situación inicial más ordenada.

Para explicarlo, podemos imaginar que vemos hacia atrás una película en la que un jarrón cae al suelo y se rompe en pedazos. Veremos como retroceden las imágenes y las piezas rotas del jarrón se vuelven a juntar para mostrarse de nuevo perecto. Nos percataríamos muy rápido de que lo que observamos es imposible desde el punto de vista de las leyes físicas, porque sabemos que no es posible que los pedazos vuelen del suelo y se ordenen formando un jarrón. Y eso es porque desde nuestro punto de vista, “

                     Lo que se rompe roto queda en el pasado y todo corre hacia el futuro

Ahora bien, para una partícula aislada, el paso del tiempo parece el mismo hacia delante y hacia atrás, es decir, su movimiento es reversible o temporalmente simétrico. Imaginemos que ahora vemos una película en la que aparece una bola de billar que choca contra una banda. Si no nos lo dicen, no seríamos capaces de saber si la proyección de la película va hacia delante o hacia atrás. Esto se debe a que, en ambos sentidos temporales, el movimiento de la bola de billar cumple las mismas leyes físicas. Este concepto se conoce como simetría bajo inversión temporal y nos dice que, en el mundo de las partículas, las teorías físicas son válidas tanto para un sentido de su movimiento como para su inverso, lo que equivale a decir que funcionan igual hacia delante como hacia atrás en el tiempo.

El tiempo tiene una dirección preferente

El investigador José Bernabéu explica: “La ruptura de la simetría temporal o simetría T en física de partículas está relacionada con la asimetría CP existente entre materia y antimateria, necesaria para generar el universo actual de materia en algún momento de su historia. La simetría C afirma que, sabiendo que a cada partícula de la naturaleza le corresponde una antipartícula con carga opuesta, las leyes de la física serían las mismas al intercambiar las partículas con carga positiva con las de carga negativa”.

En el Universo que observamos si existe la antimateria, no la hemos podido localizar de manera innegable y, es posible que ande por ahí y que, incluso, algunos de los fenómenos energéticos de grandes explosiones Gamma que se han detectado pudieran ser el resultado del encuentra de objetos de materia con otros de antimateria pero… ¡No lo sabemos! Si el telescopio Hubble, por ejemplo, captara la imagen de una hermosa galaxias de antimatería, no lo sabríamos, ya que sería exacta a la imagen de la misma galaxia de materia.

 

 

 

Dos representaciones dimensionales de paridad son dadas por un par de estados cuánticos que van entre ellos sobre la paridad. Sin embargo, esta representación puede reducirse siempre a combinaciones lineales de estados; cada uno de ellos es par o impar bajo la paridad. Se dice que todas las representaciones irreductibles de la paridad son de dimensión 1.

 

 

 

 

La paridad es la simetría de Alicia en el país de las maravillas a través del espejo. La simetría P de una ley física indica que dicha ley es invariante si reflejamos el universo en un espejo. La teoría electrodébil de la fuerza nuclear débil en desintegraciones de partículas que involucran neutrinos viola la simetría P lo que fue toda una revolución en su momento (Premio Nobel de Física en 1957, justo un año después del descubrimiento). La cromodinámica cuántica, la teoría de la fuerza fuerte, no viola la paridad (en el mismo sentido que la teoría electrodébil). Sin embargo, como se teorizó hace más de 10 años (Dmitri Karzeev et al., PRL 1998) y se ha descubierto experimentalmente…

Pero hablábamos de simetría y la simetría P, que señala que las leyes de la física permanecerían inalteradas bajo inversiones especulares, es decir, el universo se comportaría igual que su imagen en un espejo. Estas dos simetrías combinadas dan lugar a la simetría carga-paridad o simetría CP. En experimentos previos con partículas conocidas como mesones K y B, se observó que no se cumplía la simetría CP. El teorema CPT indica que, para cualquier sistema de partículas, las simetrías deben mantenerse equilibradas, es decir, si la simetría CP no se cumple, la simetría T tampoco.

La simetría CPT es un principio fundamental de invariancia o simetría de las leyes físicas que establece que bajo transformaciones simultáneas que involucren la inversión de la carga eléctrica, la paridad y el sentido del tiempo las ecuaciones de evolución temporal de un proceso físico y las de un proceso análogo en que:

  1. Conjugación de carga (C).Todas las partículas se sustituyen por sus correspondientes antipartículas.
  2. Inversión de paridad (P). Se invierte la paridad espacial de proceso (esto tiene que ver con el intercambio de derecha e izquierda, y con el cambio en el espin de las partículas).
  3. Inversión temporal (T). Se invierte el sentido del tiempo.

son invariantes y vienen descritos por las mismas ecuaciones y arrojan los mismos resultados. Pero la Física es amplia y podríamos también, hablar aquí de sus teorías como, por ejmplo…

Partículas y campos, clásicos y cuánticos. Las nociones clásicas de partícula y campo comparadas con su contrapartida cuántica. Una partícula cuántica está deslocalizada: su posición se reparte en una distribución de probabilidad. Un campo cuántico es equivalente a un colectivo de partículas cuánticas.

Partículas y campos, clásicos y cuánticos. Las nociones clásicas de partícula y campo comparadas con su contrapartid cuántica. Una partícula cuántica está deslocalizada: su posición se reparte en una distribución de probabilidad. Un campo cuántico es equivalente a un colectivo de partículas cuánticas.

La teoría cuántica de campos es una disciplina de la físicaque aplica los principios de la mecñanica cuántica a los sistemas clásicos de campos contiinuos, por ejemplo, el campo electromanético. Una consecuencia inmediata de esta teoría es que el comportamiento cuántico de un campo continuo es equivalente al de un sistema de partículasn 1 cuyo número no es constante, es decir, que pueden crearse o destruirse. También se la denomina teoría de campos cuánticos, TCC o QFT, sigla en inglés de quantum field theory.

Su principal aplicación es la fñisica de altas energías, donde se combina con los postulados de la relatividad especial. En este régimen se usa para estudiar las partículas subatómicas y sus interacciones, y permite explicar fenómenos como la relación entre espín y estadística, la la simetría CPT, la existencia de la antiomateria, etc.

Dispersión de <a href=neutrones. La dispersión inelástica de neutrones en un cristal es el resultado de la interacción de un neutrón lanzado contra los átomos en vibración de la red cristalina. En teoría cuántica de campos, el proceso se modeliza de manera más sencilla al introducir los cuantos de las ondas sonoras del cristal, los fonones, entendiéndolo como la absorción o emisión de un fonón por el neutrón." width="280" height="422" data-file-width="985" data-file-height="1483" />

Dispersión de neutrones. La dispersión inelásctivca de neutrones en un cristal es el resultado de la interacción de un neutrón lanzado contra los átomosá en vibración de la red cristalina.  En teoría cuántica de campos, el proceso se modeliza de manera más sencilla al introducir los cuantos de las ondas sonoras del cristal, los fonones,  entendiéndolo como la absorción o emisión de un fonón por el neutrón.

Pero sigamos con el Teorema CPT, en vitud del cual la operación combinada de cambiar la conjunción de carga C, la paridad P y la inversión temporal T, denotada CPT, es una simetría fundamental de las teorías cuánticas de campo relativistas. A pesar de todo lo que se diga, no se conoce ninguna experiencia de la violación del Teorema CPT. Cuando C, P y T (o dos cualquiera de ellas) son violadas, los principios de la Teoría cuántica de campos relativista no se ven afectados. Sin embargo, la violación de la invariancia CPT cambiaría drásticamente los fundamentos de la teoría cuántica de campos relativista. No se conoce si las supercuerdas  o las supersimetrías obedecen versiones del Teorema CPT.

La simetría CPT es una simetría fundamental de las leyes físicas bajo transformaciones que implican la inversión simultánea de la carga, la paridad, y el tiempo.  Una consecuencia de esta derivación es que la violación de la CPT indica automáticamente una violación de Lorentz. La implicación de la simetría CPT es que una “imagen en espejo” de nuestro universo – con todos los objetos que tienen sus posiciones reflejadas en un plano imaginario, toda momentos invierte y con toda la materia reemplazado por antimateria – evolucionaría exactamente bajo nuestras leyes físicas. La transformación CPT convierte nuestro universo su “imagen en espejo” y viceversa en. La simetría CPT es reconocida como una propiedad fundamental de las leyes físicas.

La teoría de las partículas elementales considera tres formas básicas de simetría: simetría especular, simetría de carga y simetría temporal (en el lenguaje de la física la simetría especular es denominada P, de paridad; la simetría de carga, C y la simetría temporal,T).

En la simetría especular todos los sucesos ocurren exactamente igual si son observados directamente o reflejados en un espejo. Ello implica que no existe ninguna diferencia entre izquierda y derecha y nadie sería capaz de distinguir su propio mundo de otro reflejado en un espejo. La simetría de carga predice que las partículas cargadas se comportarán exactamente igual que sus antipartículas, las cuales tiene exactamente las mismas propiedades pero carga opuesta. Y de acuerdo con la simetría temporal, las cosas sucederían exactamente igual con independencia de que el tiempo transcurra hacia delante o hacia atrás.

Publica emilio silvera

Fuentes diversas.

Nuevos materiales, nuevos procesos, nuevos dispositivos

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 


En los últimos años se han desarrollado materiales que, debido a su estructura nanométrica, presentan nuevas propiedades, y por tanto tienen aplicaciones en campos tan diversos como son la transmisión de información mediante luz, el almacenamiento de datos, la generación y el transporte de energía eléctrica, la síntesis de catalizadores, la elaboración de textiles más resistentes, o la implantación de nuevos implantes óseos.

El gran número de nuevos materiales y dispositivos demostradores que se han desarrollado en estos años ha sido fruto, por un lado del desarrollo de sofisticadas técnicas de síntesis, caracterización y manipulación que se han puesto a punto y, por otro, del gran avance en los métodos de computación en la nanoescala (técnicas ab-initio, dinámica molecular, etc.) que se han probado en las grandes instalaciones dedicadas al cálculo científico de altas prestaciones. Es precisamente la combinación de experimentos punteros con métodos teóricos precisos un elemento esencial para comprender un gran número de procesos y mecanismos que operan en la nanoescala. En concreto, una de las aportaciones teóricas más importantes al desarrollo de la Nanotecnología ha llegado de la mano de la Teoría de Funcionales de la Densidad (DFT, en sus siglas en inglés) por la que en 1998 Walter Kohn recibió el Premio Nobel en Química, compartido  con John A. Pople, “padre” de la Química Cuántica. Con respecto al desarrollo experimental, cabe resaltar el alto grado de desarrollo de las técnicas SPM para ver y manipular la materia a escala nanométrica en multitud de ambientes diferentes (ultra alto vacío, humedad controlada, celdas catalíticas, temperaturas variables,…). Esta capacidad nos ha permitido diseñar nuevos experimentos con los que comprender el comportamiento de nuevos materiales y dispositivos. Dado la gran variedad de materiales y sus  aplicaciones, es imposible en un artículo presentar una visión completa de la situación de la Nanotecnología, por lo que nos vamos a limitar a presentar algunos ejemplos que ilustran el estado actual de este campo.

Hacia la electrónica molecular

Debido a su tamaño nanométrico, las estructuras moleculares pueden poner de manifiesto nuevas propiedades electrónicas. Sin embargo, la necesidad de poder producir estructuras nanométricas de forma masiva, tal y como requieren las aplicaciones industriales hace que la manipulación individual de nano-objetos como las moléculas pase a un segundo plano, requiriéndose alternativas más útiles para incorporar la Nanotecnología a los procesos de fabricación. Por esta razón, en los últimos años se están estudiando profusamente  las condiciones de formación y las propiedades de capas autoensambladas de diferentes moléculas orgánicas sobre superficies. En estos casos la superficie no sólo proporciona un soporte, sino que posee un papel activo en la formación de diferentes patrones moleculares en dos dimensiones. Así, la posibilidad de generar sistemas autoensamblados de moléculas con propiedades bien definidas y dirigidas hacia la realización de funciones concretas abre un camino para cambiar desde el imperante paradigma del silicio en la electrónica hacia otro basado en la electrónica molecular. Este nuevo paradigma será mucho más rico por la gran diversidad de componentes moleculares que pueden entrar en juego. Entre los componentes prometedores para la Nanotecnología, que están relacionados con las moléculas orgánicas, y que habrá que tener en cuenta en el futuro de la microelectrónica, estarán los fullerenos, los nanotubos de carbono y el grafeno, de los que hablamos a continuación.

Los fullerenos o “bucky-balls”

Con este nombre se denomina al conjunto de distintas moléculas cerradas sobre sí mismas con formulación. El más conocido, por lo estable y abundante en naturaleza es el llamado Cn. El más conocido, por lo estable y abundante en la Naturaleza es el llamado C60, que está formado por 12 pentágonos y 20 exágonos, dispuestos como en un balón de futbol. Las aplicaciones Nanotecnológicas que se pueden derivar del uso de esta molécula están todavía en fase de estudio y son muy variadas. Sin embargo, aunque actualmente no existen aplicaciones concretas ya se han sintetizado más de mil nuevas moléculas basadas en fullereno y hay más de cien patentes internacionales registradas. El carácter rectificador de los fullerenos les hace atractivos para su uso en electrónica molecular.

La formación de este tipo de estructuras se produce más fácilmente de lo que podemos imaginar, pues son uno de los principales integrantes de la carbonilla y se generan abundantemente en cualquier combustión. Sin embargo, a día de hoy uno de los principales problemas para su utilización es el de conseguir una síntesis controlada de fullereno. Esto requiere complicadas técnicas, tales como la vaporización del grafito o la pirolisis láser, que normalmente producen exclusivamente los fullerenos más estables. Recientemente se ha propuesto un nuevo método para conseguirlo basado en principios “nano”. Se trata de partir de una molécula precursora sintetizada de forma tal que sea como un fullereno abierto, con los enlaces rotos saturados por hidrógeno. Esta molécula se puede plegar sobre sí misma mediante una transformación topológica de manera que de lugar a un fullereno. Se trata de partir de una estructura plana (un recortable) para posteriormente ensamblar un objeto en tres dimensiones. Este plegado se consigue mediante un proceso des-hidrogenación catalizada por una superficie. Una vez que la molécula plana ha perdido estos hidrógenos se cierran sobre sí misma de forma expontánea formando un fullereno.

Este proceso se ha podido seguir, entre otras técnicas, mediante imágenes de microscopía túnel in-situ. Los mecanismos existentes en el proceso se pueden entender gracias a los cálculos ab-initio que apoyan la investigación experimental. Esta combinación pone de manifiesto como una molécula plana de carbono sin hidrógeno se pliega expontáneamente. La belleza de este nuevo método de síntesis reside en que si se sintetizan moléculas precursoras planas con diferentes topologías se pueden conseguir moléculas cerradas de diferentes formas, tamaños e incluso que contengan átomos diferentes al Carbono. Así se ha sintetizado por primera vez la molécula C57 N3 sobre una superficie.

¡La Naturaleza! La NASA encontró fulerenos esféricos o buxkybolas en la nebulosa Tc1 a 6.000 años-luz. Posiblemente sean una de las moléculas más bellas que podamos encontrar, es una de las formas más estables del carbono, y sus 60 átomos se distribuyen formando 20 hexágonos y 12 pentágonos que ofrecen una forma idéntica al clásico balón de fútbol.

Nanotubos de Carbono

Si el descubrimiento del C60 fue un hito importante para la Nanotecnología, el de los llamados Nanotubos de Carbono lo ha superado con creces. Los Nanotubos de Carbono, unas diez mil veces más finos que un cabello, presentan excelentes propiedades físicas y su fabricación resulta relativamente económica. Un cable fabricado de Nanotubos de Carbono resultaría diez veces más ligero que uno de acero con el mismo diámetro pero sería ¡cien veces más resistente! A estas impresionantes propiedades mecánicas se le añaden unas interesantes propiedades eléctricas, puesto que pueden ser tanto conductores como aislantes, según la topología que presenten.

Un Nanotubo de Carbono se obtiene mediante el plegado sobre sí mismo de un plano atómico de grafito (enrollándolo). Según como se pliegue el plano grafítico se obtiene un Nanotubo que puede conducir la corriente eléctrica, ser semiconductor o ser aislante. En el primer caso, los Nanotubos de Carbono son muy buenos conductores a temperatura ambiente, pudiendo transportar elevadas densidades de corriente. En el segundo presentan propiedades rectificadoras. Por otra parte, si inducimos defectos en la estructura podemos generar moléculas semiconductoras y así formar diodos o transistores. Es decir, tenemos todos los elementos en nuestras manos para construir nanocircuitos basados en Carbono.

Grafeno

A un solo plano atómico de grafito se le llama grafeno, y éste, a diferencia del grafito, es difícil de obtener. Recientemente, mediante cálculos teóricos, se han realizado predicciones acerca de las importantes propiedades electrónicas que podría tener este material. Entre ellas una altísima movilidad electrónica y una baja resistividad, de manera que estos planos atómicos podrían ser los futuros sustitutos del silicio en los dispositivos electrónicos. Ahora bien, al día de hoy, estas propuestas provienen esencialmente de cálculos teóricos y, por tanto, antes de que el grafeno pase a sustituir al silicio en la electrónica del futuro, es necesario verificar las predicciones teóricas en el laboratorio. Actualmente, éste es un campo muy activo de investigación, y muchos grupos están trabajando en la obtención de capas de grafeno soportadas sobre diferentes materiales, como polímeros o aislantes, para poder determinar sus propiedades eléctricas y comprobar las predicciones teóricas.

El estudio de grafeno sobre metales de transición es un campo muy activo de investigación ya que las capas de grafeno crecen de manera fácil, muy controladas y con un bajo número de defectos sobre estas superficies. Además el grafeno sobre un substrato forma patrones conocidos como redes de Moiré, en las que la periodicidad atómica de las dos redes cristalinas (substrato y grafeno), coincide cada dos-tres nm, dando lugar a deformaciones de la capa de grafeno, que se reflejan como prominencias en la imagen STM.

Nanohilos

No sólo las moléculas, los Nanotubos o el grafeno son las apuestas para sustituir al silicio. Otros elementos como los Nanohilos fabricados a partir de materiales semiconductores o los Nanohilos metálicos tendrán también cierto protagonismo. En concreto, los Nanohilos semiconductores presentan un gran potencial como transistores pero también presentan aplicaciones en campos como octoelectrónica o en la fabricación de censores biológicos. Por otro lado los Nanohilos metálicos, cuya síntesis controlada es más difícil, poseen gran interés como interconectores. En el caso de los Nanohilos formados de materiales Ni, Co o Fe se puede aprovechar también su potencial comportamiento magnetorresisitivo para ser usados en dispositivos de almacenamiento magnético. Los Nanohilos metálicos son interesantes a su vez porque los efectos de tamaño inducen en ellos la aparición de transiciones de fase martensíticas y la aparición de configuraciones no cristalinas.

En el siguiente hablaremos de las Nanopartículas y la fuente de estos conocimientos aparece publicada en…


Imagen de la Página Inicial de la Revista

Editadas por la RSEF.

Publica: emilio silvera

Nuevos Materiales, nuevos procesos, nuevos dispositivos. II

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

https://www.youtube.com/watch?v=5po3PmnpMxc&list=PLvRiw-zVApcpfzHUuoFV9tMIYcfN-Vjf_

Miguel Ángel

https://www.facebook.com/video.php?v=10152657763624179

 

 

 

Una investigación ha desarrollado una nueva estructura cuántica capaz de emitir fotones individuales de color rojo. El avance, que se publica en la revista Nature Materials, se basa en el confinamiento cuántico que se genera en cada uno de los puntos y que les permite modular la energía de la luz que emiten.

En este trabajo han participado investigadores de la Universidad de Zaragoza, el Institut de Recerca en Energia de Catalunya (IREC), la Universidad de Barcelona y del Instituto de Ciencia de Materiales de Barcelona del CSIC. El investigador Jordi Arbiol de este último explica:

“El resultado final son hilos unidimensionales, de tamaño nanométrico, compatibles con la tecnología electrónica actual, que permitirían crear dispositivos a mayor escala con un control total de la emisión de luz, fotón a fotón”.

Pero centrémonos en el trabajo que aquí se prenta hoy y que comienza hablando de los…

nanohilos cuánticos

Nanohilos

No sólo las moléculas, los Nanotubos o el grafeno son las apuestas para sustituir al silicio. Otros elementos como los Nanohilos fabricados a partir de materiales semiconductores o los Nanohilos metálicos tendrán también cierto protagonismo. En concreto, los Nanohilos semiconductores presentan un gran potencial como transistores pero también presentan aplicaciones en campos como octoelectrónica o en la fabricación de censores biológicos. Por otro lado los Nanohilos metálicos, cuya síntesis controlada es más difícil, poseen gran interés como interconectores. En el caso de los Nanohilos formados de materiales Ni, Co o Fe se puede aprovechar también su potencial comportamiento magnetorresisitivo para ser usados en dispositivos de almacenamiento magnético. Los Nanohilos metálicos son interesantes a su vez porque los efectos de tamaño inducen en ellos la aparición de transiciones de fase martensíticas y la aparición de configuraciones no cristalinas.” Veamos que pasa con las Nanopartículas.

Nanopartículas

Quizás, junto a los nanotubos de carbono, las nanopartículas representan los materiales que tienen una repercución tecnológica más inmediata. Además de sus propiedades intrínsecas, las nanopartículas representan los materiales que tienen una repercusión tecnológica más inmediata. Además de sus propiedades intrínsecas, las nanopartículas, debido a su pequeño tamaño, pueden convertirse en diminutos dispositivos capaces de  realizar otras funciones, como transportar un medicamento específico por el torrente sanguíneo sin obstruirlo. Para lograr esto, las nanopartículas deben ser el soporte de capas de moléculas autoensambladas que confieren una funcionalidad adicional a las mismas.

Como su propio nombre indica, el término “nanopartícula” designa una agrupación de átomos o moléculas que dan lugar a una partícula con dimensiones nanométricas. Es decir, que su tamaño está comprendido entre 1 y 100 nm. Dependiendo de cuáles sean los átomos o moléculas que se agrupan se originarán diferentes tipos de nanopartículas. Así, por ejemplo, tendremos nanopartículas de oro, de plata o nanopartículas magnéticas si están formadas por átomos de Fe o Co. Su pequeño tamaño hace que la relación superficie/volumen crezca y por tanto que estas estructuras tengan unas propiedades características y esencialmente distintas a las que presenta el material en volumen.

Una estrategia para la formación de nanopartículas es recubrirlas con distintas capas de manera tal que cada una aporte funcionalidades diferentes al sistema. Así, por ejemplo, recientemente se han descrito nanopartículas cuyo interior está formado por un material magnético, como el Co, seguido de una capa intermedia de SiO2 que aporta estabilidad al sistema y finalmente una superficie de oro.

El tamaño final de la nanopartícula es de 3 nm, y esta estructura laminar hace que tengan un núcleo magnético que posibilite su guiado, y una superficie de oro que facilite  el autoensamblado de moléculas orgánicas o biológicas para diferentes  aplicaciones. Entre éstas destaca su uso como biosensores. Para ello se inmoviliza material biológico, como ácido desoxirribonucleico (ADN) o el llamado ácido nucléico péptidico (PNA, del inglés peptide nucleic acid), que siendo un ácido nucléico artificial, presenta un “esqueleto” molecular formado por enlaces peptidicos y una estructura de bases nucleicas exactamente igual a la del ADN. El PNA puede reconocer cadenas complementarias de ADN, incluso con mayor eficiencia para la hibridación que la que representa el ADN para reconocer su hebra complementaria. Por este motivo, el PNA se ha propuesto como sonda para la fabricación de biosensores altamente eficientes. Estas macromoléculas unidas a superficies o nanopartículas son capaces de detectar diferentes analítos de interés, particularmente otars moléculas biológicas.

Sin embargo, el concepto de nanopartícula debe concebirse en un sentido más amplio ya que no sólo puede estar basada en un núcleo inorgánico, pudiéndose sintetizar nanopartículas poliméricas. Yendo un poco más allá una cápsida vírica puede entenderse como una nanopartícula formada por una carcasa proteica. Esta cápsida vírica tiene dimensiones  nanométricas y, en muchos casos, burla con facilidad las membranas celulares. Por esta razón este tipo de “nanopartículas” se proponen para su uso en nanomedicina, y son el objeto de estudios básicos  en los que las herramientas como los microscopios de fuerzas atómicas juegan un papel esencial. En particular, estas herramientas nos permiten caracterizar las propiedades mecánicas y las condiciones de ruptura de cápsidas víricas así como la forma en la que dichas cápsidas se comportan ante, por ejemplo, cambios controlados de humedad.

En un discurso recientemente impartido en la Universidad Europea de Madrid, William F. Clinton, ex-Presidente de los EE.UU, afirmó que ” el cometido del siglo XXI será salvar al mundo del cambio climático, regenerar la economía y crear empleo. El futuro más allá será la Nanotecnología y la biotecnología”. El propio W.F. Clinton fue el impulsor de la Iniciativa Nacional de Nanotecnología durante su mandato, convirtiendo durante los últimos 10 años a EE.UU en el líder mundial en la generación de conocimientos básicos y aplicados en el ámbito de la Nanotecnología.

Nadie pone en duda las afirmaciones de W.F. Clinton sobre el papel de la Nanotecnología en nuestro futuro a medio y largo plazo, por lo uqe es imperativo estar suficientemente preparados para construir este nuevo paradigma científico. En el caso concreto de España, las dos últimas ediciones del Plan Nacional de I+D+I han encumbrado las investigaciones en Nanociencia y Nanotecnología a la categoría de Acción Estratégica. En la actualidad se están poniendo en marcha varios centros dedicados a Nanotecnología. Dichas iniciativas son producto, por lo general, de costosos impulsos puntuales, locales, dirigidos por científicos con iniciativa, pero no son fruto de una actuación de conjunto, planificada siguiendo una estrategia  quiada por unos objetivos ambiciosos, en los que impere la coordinación y el uso eficiente de los recursos. La actual coyuntura económica no invita al optimismo a este respecto, por lo que sería necesario poner en marcha iniciativas que promuevan la adquisición de infraestructuras, la formación de técnicos, la coordinación entre centros emergentes, etc.

Otro punto sobre el que no hay que descuidarse tiene que ver con la formación, en todos los niveles educativos, en Nanotecnología. En este sentido son numerosas las universidades españolas que ofrecen cursos de master y/o doctorado con contenidos relacionados con la Nanotecnología. Sin embargo, muchos de estos cursos tienen pocos estudiantes inscritos, al igual que ocurre con muchos estudios de grado relacionados con las ciencias básicas. La tarea de fascinar y atraer a nuestros jóvenes hacia la ciencia debe comenzar mucho antes. En este sentido, los conceptos inherentes a la Nanotecnología deben formar parte del conocimiento que debe llegar a los estudiantes de educación secundaria, como ocurre en países como Alemania, Finlandia, Taiwán, Japón, EE.UU., etc. Además, la Nanotecnología es una materia que causa cierta fascinación a los adolescentes por lo que puede ser un buen punto de partida para incentivar las vocaciones científicas. Esta ha sido una de las principales razones por las que los autores de este artículo junto con otros investigadores (Carlos Briones del Centro de Astrobiología y Elena Casero de la Universidad Autónoma de Madrid) accedieron a la petición de la Fundación Española de Ciencia y Tecnología (FECyT) para escribir una Unidad Didáctica de Ciencia y Tecnología. Dicho libro ya se encuentra en todos los institutos españoles de educación secundaria y bachillerato, y se puede descargar desde la web de la FECyT. Esperemos que esta pequeña contribución, junto con otras de mayor calado que deben promoverse desde las diversas administraciones públicas, permita tomar la senda que nos lleve a medio plazo hacia la tan ansiada sociedad basada en el conocimiento.

Imagen de la Página Inicial de la Revista

Fuente: Revista Española de Física. Volumen 23 Nº 4 de 2009

Los Autores:

D. José Ángel Martín Gago, del Instituto de Ciencia de Materiales de Madrid, Concejo Superior de Investigaciones científicas, Centro de Astrobiología /CSIC/INTA), Instituto Nacional de Técnica Aerpespacial, y, D. Pedro A. Serena Domingo, del Instituo de Ciencia y Materiales de Madrid y del Consejo Superior de Investigaciones Científicas.