domingo, 15 de junio del 2025 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Los pros y los contras de las máquinas más listas

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Inteligencia artificial

 

El aprendizaje automático es uno de los campos con más proyección  en inteligencia artificial.

 

 

 

Tenemos la clave para fabricar máquinas listas. Intel

 

Reportaje de Pablo G. Bejerano
 

Los miles de millones de dispositivos que se conectan a internet cada día generan una cantidad abrumadora de información. Son montones de terabytes de datos que aparecen de la nada diariamente.

Esto abre el apetito por obtener valor de la información. Y la inteligencia artificial es clave aquí. El término se suele asociar con la robótica, una herencia cultural de la ciencia ficción, pero lo cierto es que la inteligencia artificial es algo mucho más abstracto que robots humanoides caminando o que los dilemas del superordenador Hal en 2001: una odisea del espacio.

Ojo cámara (con lente fish eye es decir con una visual muy panóptica) de color rojo (para detectar por filtro cromático incluso la “luz” IR no perceptible por el ser humano), usado para representar a HAL 9000 en uno de sus aspectos de control prácticamente orweliano.

Podría decirse que la inteligencia artificial asoma la cabeza por primera vez en los años 60 con sistemas predictivos y a partir de ahí evoluciona a velocidad de crucero. Hoy se usa para evitar fraudes bancarios, en el reconocimiento de voz, en el filtro anti spam del correo electrónico, incluso en el etiquetado de fotos automático de Facebook o en los videojuegos.

Lo que está por venir en inteligencia artificial –ya se ha investigado mucho sobre ello– son los coches autónomos, la medicina de alta precisión o el procesamiento del lenguaje natural que le pediremos a los Siri, Google Now o Cortana en los próximos años. Son algunas de las áreas para las que el aprendizaje automático o machine learning es necesario.

Creada una máquina que aprende como una persona

Que las máquinas aprendan es fundamental porque es uno de los elementos que retrasará su obsolescencia prematura, reforzando su autonomía. Este aprendizaje es uno de los temas que han sobrevolado la Conferencia Internacional de Desarrolladores (IDF) de Intel.

Hoy el 7% de todos los servidores presentes en el mundo están dedicados a tareas de aprendizaje automático. Y más del 97% de estos servidores funcionan con procesadores de Intel. Si bien en campos como los coches autónomos la compañía se ve amenazada por los productos de su competidora Nvidia.

En todo caso, esta rama de la inteligencia artificial es la que tiene mayor proyección. Intel proporciona el hardware sobre el que los desarrolladores pueden programar sus algoritmos de inteligencia artificial. Para entrenar a los algoritmos la compañía ofrece el procesador Xeon Phi, mientras que para ejecutar una tarea determinada, ya aprendida, cuenta con el Xeon.

                                                                        Un centro de datos de Intel. Intel

 

“Trabajamos con instituciones académicas y desarrolladores para asegurarnos de que pueden usar el hardware optimizado”, comenta Nidhi Chappell, responsable de aprendizaje automático en la división de centros de datos de Intel. “Hay muchos beneficios en tener el software y el hardware optimizado. ¿Podrías trabajar con procesamiento del lenguaje natural en un Xeon no optimizado? Sí, pero cuanto más optimices los elementos, tanto en software como en el hardware, más rápido harás los trabajos”.

Se necesita que el rendimiento del hardware sea muy alto, pero también que sea fácil de poner en marcha. Y otra de las claves para optimizar este aspecto es la compatibilidad con diferentes tipos de algoritmos. “Queremos habilitar nuestros productos para soluciones que estén basadas en código abierto”, indica Chappell. “Pues muchas de las cargas de trabajo en deep learning, como el procesamiento del lenguaje natural o el etiquetado de imágenes, están basadas en frameworks (marcos de trabajo para desarrollar software) de código abierto”.

Los algoritmos del ‘Deep learning’

 

 

 

 

El Deep learning o aprendizaje profundo, considerado una parte del aprendizaje automático, se basa en redes neuronales artificiales, inspiradas en el funcionamiento de sistemas biológicos. Muchos algoritmos que usan deep learning proceden de empresas o universidades, como Google o Berkeley, y una parte de ellos están bajo código abierto. Lo que hace Intel es asegurarse de que la arquitectura de sus productos está optimizada para estos algoritmos.

El conocimiento que los nutre proviene de compañías privadas, de centros académicos y también de instituciones públicas. No todo se pone a disposición del público, pero compartir la información y los progresos técnicos es uno de los motores para el aprendizaje de las máquinas.

Cloudera, una de las empresas presentes en el IDF, trabaja en big data con plataformas de código abierto. Su portavoz en el congreso de Intel, Johnny Pak, cree que la colaboración es necesaria para no estancarse. “El código abierto ayudará al desarrollo rápido de la inteligencia artificial. La posibilidad de construir sobre el trabajo de otros es lo que va a ayudar a avanzar”, reflexiona.

                                                   El conocimiento proviene de múltiples fuentes. Intel

 

Aprender bien la lección

 

 

 

El aprendizaje automático tiene otra cara. Se puede descontrolar, como le ocurrió al bot Tay, programado por Microsoft para aprender de la gente a través de sus interacciones en Twitter. Su cuenta en la red social pronto empezó a lanzar mensajes xenófobos tras el troleo de algunos usuarios y la compañía tuvo que suspender este experimento social.

“Siempre se necesitará un marco para limitar al algoritmo”, es la opinión de Pak. “Una máquina no es más que un conjunto de algoritmos. Lo que significa que las máquinas no tienen la libertad que las personas tenemos”. Así, esa especie de libertad social que Tay tuvo para aprender acabó por volverse en su contra. “Si vas a usar algoritmos en un entorno social creo que tienes que poner unos límites, de la misma forma que nosotros tenemos límites sociales”, sentencia Pak.

Es una forma de controlar la toma de decisiones. Por cierto, para una persona estas decisiones no siempre están basadas en el razonamiento lógico y no siempre se obtiene así el mejor resultado. La intuición a veces es un factor determinante y no es algo que se aprenda de forma lógica. ¿Pueden los algoritmos actuales dotar a una máquina de intuición?

El caso que más se acerca a una toma de decisiones intuitiva por una máquina es el del sistema Alpha Go, desarrollado por Google y que venció Lee Sedol, el campeón mundial del Go, un juego mucho más complejo de aprender para una máquina que por ejemplo el ajedrez.

Pak apunta que la toma de decisiones de Alpha Go a veces no partía de la lógica. “No estaba calculando, como sí hacen en ajedrez, millones de interacciones para determinar qué es lo que va a hacer el jugador. Tenía que vislumbrar cuál era el mejor movimiento. Y ganó. Lee solo gano una partida”. Y es que ni siquiera los científicos detrás de Alpha Go predecían cómo se iba a comportar su programa.

Guardar

Curvatura del Espacio – Tiempo

Autor por Emilio Silvera    ~    Archivo Clasificado en Densidad Crítica    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Así representan algunos como sería el camino para burlar la velocidad de la luz y desplazarnos por el espaciotiempo a distancias inmensas en tiempos y espacios más cortos. Es el famoso agujero de gusano o el doblar el espacio trayendo hacia tí el lugar que deseas visitar.

Hay que entender que el espacio–tiempo es la descripción en cuatro dimensiones del universo en la que la posición de un objeto se especifica por tres coordenadas en el espacio y una en el tiempo. De acuerdo con la relatividad especial, no existe un tiempo absoluto que pueda ser medido con independencia del observador, de manera que eventos simultáneos para un observador ocurren en instantes diferentes vistos desde otro lugar. El tiempo puede ser medido, por tanto, de manera relativa, como lo son las posiciones en el espacio (Euclides) tridimensional, y esto puede conseguirse mediante el concepto de espacio–tiempo. La trayectoria de un objeto en el espacio–tiempo se denomina por el nombre de línea de universo. La relatividad general nos explica lo que es un espacio–tiempo curvo con las posiciones y movimientos de las partículas de materia.

Los moelos de universo que pudieran ser, en función de la Densidad Crítica (Ω) sería plano, abierto o cerrado. La Materia tiene la palabra.

La curvatura del espacio–tiempo es la propiedad del espacio–tiempo en la que las leyes familiares de la geometría no son aplicables en regiones donde los campos gravitatorios son intensos. La relatividad general de Einstein, nos explica y demuestra que el espacio–tiempo está íntimamente relacionado con la distribución de materia en el universo, y nos dice que el espacio se curva en presencia de masas considerables como planetas, estrellas o galaxias (entre otros).

En un espacio de sólo dos dimensiones, como una lámina de goma plana, la geometría de Euclides se aplica de manera que la suma de los ángulos internos de un triángulo en la lámina es de 180°. Si colocamos un objeto masivo sobre la lámina de goma, la lámina se distorsionará y los caminos de los objetos que se muevan sobre ella se curvaran. Esto es, en esencia, lo que ocurre en relatividad general.

Los Modelos Cosmológicos son variados y todos, sin excepción, nos hablan de una clase de universo que está conformado en función de la materia que en él pueda existir, es decir, eso que los cosmólogos llaman el Omega negro. La Materia determinará en qué universo estamos.

En los modelos cosmológicos más sencillos basados en los modelos de Friedmann, la curvatura de espacio–tiempo está relacionada simplemente con la densidad media de la materia, y se describe por una función matemática denominada métrica de Robertson–Walker. Si un universo tiene una densidad mayor que la densidad crítica, se dice que tiene curvatura positiva, queriendo decir que el espacio–tiempo está curvado sobre sí mismo, como la superficie de una esfera; la suma de los ángulos de un triángulo que se dibuje sobre la esfera es entonces mayor que 180°. Dicho universo sería infinito y se expandiría para siempre, es el universo abierto. Un universo de Einstein–de Sitter tiene densidad crítica exacta y es, por consiguiente, espacialmente plano (euclideo) infinito en el espacio y en el tiempo.

La geometría del espacio-tiempo en estos modelos de universos está descrita por la métrica de Robertson-Walker y es, en los ejemplos precedentes, curvado negativamente, curvado positivamente y plano, respectivamente (Alexander AlexandrovichFriedmann). Y, las tres epresentaciones gráficas de los espacios que dan lugar a los tres posibles formas de universo antes referida en función de la densidad crítica que hará un universo plano, un universo abierto o un universo curvo y cerrado.

¿Cómo medirán una hora aquel que pasa ese Tiempo con el Ser amado en comparación con aquel otro que, lleno de dolor, la ve transcurrir lentamente en la cama de un Hospital?

Hemos mencionado antes la relatividad del tiempo que para el mismo suceso será distinto en función de quién sea el que cronometre; por ejemplo, el tiempo transcurre más despacio para el astronauta que en nave espacial viaja a velocidades próximas a c, la velocidad de la luz. Según la teoría de la relatividad especial de Einstein, en el caso antes señalado, el tiempo del astronauta viajero avanza más lentamente en un factor que denotamos con la ecuación , cuando lo mide un sistema de referencia que viaja a una velocidad v relativa al otro sistema de referencia; c es la velocidad de la luz. Este principio ha sido verificado de muchas maneras; por ejemplo, comparando las vidas medias de los muones rápidos, que aumentan con la velocidad de las partículas en una cantidad predicha en este factor de la anterior ecuación.

gemelos en el tiempo

Un ejemplo sencillo de la dilatación del tiempo es la conocida paradoja de los gemelos. Uno viaja al espacio y el otro lo espera en la Tierra. El primero hace un viaje a la velocidad de la luz hasta Alfa de Centauri y regresa. Cuando baja de la nave espacial, tiene 8’6 años más que cuando partió de la Tierra. Sin embargo, el segundo gemelo que esperó en el planeta Tierra, al regreso de su hermano, era ya un  anciano jubilado. El tiempo transcurrido había pasado más lento para el gemelo viajero. Parece mentira que la velocidad con la que podamos movernos nos puedan jugar estas malas pasadas.

Otra curiosidad de la relatividad especial es la que expresó Einstein mediante su famosa fórmula de E = mc2, que nos viene a decir que masa y energía son dos aspectos de una misma cosa. Podríamos considerar que la masa (materia), es energía congelada. La bomba atómica demuestra la certeza de esta ecuación.

Durante diez dias del mes de enero de 1999 astrofísicos italianos y estadounidenses efectuaron un experimento que llamaron Boomerang. El experimento consistió en el lanzamiento de un globo con instrumentos que realizó el mapa mas detallado y preciso del fondo de radiación de microondas (CMB) obtenido hasta el momento. Su conclusión: el universo no posee curvatura positiva o negativa, es plano.

La densidad crítica está referida a la densidad media de materia requerida para que la gravedad detenga la expansión de nuestro universo. Así que si la densidad es baja se expandirá para siempre, mientras que una densidad muy alta colapsará finalmente. Si tiene exactamente la densidad crítica ideal, de alrededor de 10-29 g/cm3, es descrito por el modelo al que antes nos referimos conocido como de Einstein–de Sitter, que se encuentra en la línea divisoria de estos dos extremos. La densidad media de materia que puede ser observada directamente en nuestro universo representa sólo el 20% del valor crítico. Puede haber, sin embargo, una gran cantidad de materia oscura que elevaría la densidad hasta el valor crítico. Las teorías de universo inflacionario predicen que la densidad presente debería ser muy aproximada a la densidad crítica; estas teorías requieren la existencia de materia oscura.

 Los cosmólogos y astrofísicos, en sus obervaciones, notaron que las galaxias se alejaban las unas de las otras a mayor velocidad de la que correspondería en función de la materia que se puede ver en el Universo, había algo que las hacía correr más de la cuenta, así que, el primero en poner nombre all fenómeno que se ha dado en llamar  “materia oscura” fue el astrofísico suizo Fritz Zwicky, del Instituto Tecnológico de California (Caltech) en 1933. Con su invento (intuición), dejó zanjado el tema que traía de cabeza a todos los cosmólogos del mundo, encantados con que al fín, las cuentas cuadraran.

Mencionamos ya la importancia que tiene para diseñar un modelo satisfactorio del universo, conocer el valor de la masa total de materia que existe en el espacio. El valor de la expansión o de la contracción del universo depende de su contenido de materia. Si la masa resulta mayor que cierta cantidad, denominada densidad crítica, las fuerzas gravitatorias primero amortiguarán y luego detendrán eventualmente la expansión. El universo se comprimirá en sí mismo hasta alcanzar un estado compacto y reiniciará, tal vez, un nuevo ciclo de expansión. En cambio, si el universo tiene una masa menor que ese valor, se expandirá para siempre. Y, en todo esto, mucho tendrá que decir “la materia oscura” que al parecer está oculta en alguna parte.

El  símbolo Ω (parámetro de densidad) lo utilizan los cosmólogos para hablar de la densidad del universo.

Ω =r /rcrit

Tenemos así que para Ω>1 tenemos que el universo se contraería en un futuro Big Crunch, para Ω<1 e universo debería expandirse indefinidamente (Big Rip) y para Ω=1 el universo se debería expandir pero deteniéndose su expansión asintóticamente.

Además Las observaciones del fondo de microondas como las WMAP dan unas observaciones que coinciden con lo cabría esperar si la densidad total del universo fuera igual a la densidad crítica.

Conforme a lo antes dicho, la densidad media de materia está referida al hecho de distribuir de manera uniforme toda la materia contenida en las galaxias a lo largo de todo el universo. Aunque las estrellas y los planetas son más densos que el agua (alrededor de 1 g/cm3), la densidad media cosmológica es extremadamente baja, como se dijo antes, unos 10-29 g/cm3, o 10-5 átomos/cm3, ya que el universo está formado casi exclusivamente de espacios vacíos, virtualmente vacíos, entre las galaxias. La densidad media es la que determinará si el universo se expandirá o no para siempre.

No dejamos de enviar ingenios al espacio para tratar de medir la Densidad Crítica y poder saber en qué clase de universo nos encontramos: Plano, cerrado o abierto.

En presencia de grandes masas de materia, tales como planetas, estrellas y galaxias, está presente el fenómeno descrito por Einstein en su teoría de la relatividad general, la curvatura del espacio–tiempo, eso que conocemos como gravedad, una fuerza de atracción que actúa entre todos los cuerpos y cuya intensidad depende de las masas y de las distancias que los separan; la fuerza gravitacional disminuye con el cuadrado. La gravitación es la más débil de las cuatro fuerzas fundamentales de la naturaleza. Isaac Newton formuló las leyes de la atracción gravitacional y mostró que un cuerpo se comporta gravitacionalmente como si toda su masa estuviera concentrada en su centro de gravedad. Así, pues, la fuerza gravitacional actúa a lo largo de la línea que une los centros de gravedad de las dos masas (como la Tierra y la Luna, por ejemplo).

Todos conocemos la teoría de Einstein y lo que nos dice que ocurre cuando grandes masas, como planetas, están presentes: Curvan el espacio que lo circundan en función de la masa. En la imagen se quiere representar tal efecto.

En la teoría de la relatividad general, la gravitación se interpreta como una distorsión del espacio que se forma alrededor de la masa que provoca dicha distorsión, cuya importancia iría en función de la importancia de la masa que distorsiona el espacio que, en el caso de estrellas con gran volumen y densidad, tendrán una importancia considerable, igualmente, la fuerza de gravedad de planetas, satélites y grandes objetos cosmológicos, es importante.

Esta fuerza es la responsable de tener cohexionado a todo el universo, de hacer posible que existan las galaxias, los sistemas solares y que nosotros mismos tengamos bien asentados los pies a la superficie de nuestro planeta Tierra, cuya gravedad tira de nosotros para que así sea.

Un sistema solar en el que los planetas aparecen cohexionados alrededor del cuerpo mayor, la estrella. Todos permanecen unidos gracias a la fuerza de Gravedad que actúa y los sitúa a las adecuadas distancias en función de la masa de cada uno de los cuerpos planetarios.

No obstante, a escala atómica la fuerza gravitacional resulta ser unos 1040 veces más débil que la fuerza de atracción electromagnética, muy potente en el ámbito de la mecánica cuántica donde las masas de las partículas son tan enormemente pequeñas que la gravedad es despreciable.

No pocas veces hemos querido utilizar la fuerza electromagnética para crear escudos a nuestro alrededor, o, también de las naves viajeras, para evitar peligros exteriores o ataques. Es cierto que, habiéndole obtenido muchas aplicaciones a esta fuerza, aún nos queda mucho por investigar y descubrir para obtener su pleno rendimiento.

La gravitación cuántica es la teoría en la que las interacciones gravitacionales entre los cuerpos son descritas por el intercambio de partículas elementales hipotéticas denominadas gravitones. El gravitón es el cuanto del campo gravitacional. Los gravitones no han sido observados, aunque se presume que existen por analogía a los fotones de luz.

ONDA CORPUSCULO

 

Describe a las partículas como una especie de campo de materia que se esparce por el espacio de modo similar a una onda. Hay una relación entre la localización de la partícula y los lugares del espacio donde el campo es más potente. La mecánica cuántica introduce un postulado en el que cuando se realiza una medida de la posición de la partícula se produce lo que se llama colapso de función de onda que asemeja al campo como una particula localizada. Se usa en el microscopio de electrones para obsevar objetos menores que los observados por la luz visible.

Para saber dónde se encuentra una partícula hay que iluminarla. Pero no se puede utilizar cualquier tipo de luz: hay que usar luz cuya longitud de onda sea por lo menos, inferior a la partícula que se desea iluminar. Pero sucede que cuanto más corta es la longitud de onda, más elevada es la frecuencia, de modo que esa luz transporta una muy elevada energía. Al incidir sobre la partícula ésta resulta fuertemente afectada.
El científico puede finalmente averiguar donde esta la partícula, pero a cambio de perder toda información acerca de su velocidad. Y a la inversa, si consigue calcular la velocidad, debe renunciar a conocer su posición exacta.

emite3.gif (3517 bytes)

La superficie de un cuerpo negro es un caso límite, en el que toda la energía incidente desde el exterior es absorbida, y toda la energía incidente desde el interior es emitida. No existe en la naturaleza un cuerpo negro, incluso el negro de humo refleja el 1% de la energía incidente.

Se denomina cuerpo negro a aquel cuerpo ideal que es capaz de absorber o emitir toda la radiación que sobre él incide. Las superficies del Sol y la Tierra se comportan aproximadamente como cuerpos negros.

La teoría cuántica es un ejemplo de talento que debemos al físico alemán Max Planck (1.858 – 1.947) que, en el año 1.900 para explicar la emisión de radiación de cuerpo negro de cuerpos calientes, dijo que la energía se emite en cuantos, cada uno de los cuales tiene una energía igual a hv, donde h es la constante de Planck (E = hv o ħ = h/2π) y v es la frecuencia de la radiación. Esta teoría condujo a la teoría moderna de la interacción entre materia y radiación conocida como mecánica cuántica, que generaliza y reemplaza a la mecánica clásica y a la teoría electromagnética de Maxwell.  En la teoría cuántica no relativista se supone que las partículas no son creadas ni destruidas, que se mueven despacio con respecto a la velocidad de la luz y que tienen una masa que no cambia con la velocidad. Estas suposiciones se aplican a los fenómenos atómicos y moleculares y a algunos aspectos de la física nuclear. La teoría cuántica relativista se aplica a partículas que viajan cerca de la velocidad de la luz, como por ejemplo, el fotón.

                                           La radiación está presente en todos los objetos y cuerpos

Por haberlo mencionado antes me veo obligado a explicar brevemente el significado de “cuerpo negro”, que está referido a un cuerpo hipotético que absorbe toda la radiación que incide sobre él. Tiene, por tanto, una absortancia y una emisividad de 1. Mientras que un auténtico cuerpo negro es un concepto imaginario, un pequeño agujero en la pared de un recinto a temperatura uniforme es la mejor aproximación que se puede tener de él en la práctica.

La radiación de cuerpo negro es la radiación electromagnética emitida por un cuerpo negro. Se extiende sobre todo el rango de longitudes de onda y la distribución de energía sobre este rango tiene una forma característica con un máximo en una cierta longitud de onda, desplazándose a longitudes de onda más cortas al aumento de temperaturas (ley de desplazamiento de Wien).

Existen en el Universo configuraciones de fuerzas y energías que aún no podemos comprender. La vastedad de un Universo que tiene un radio de 13.700 millones de años, nos debe hacer pensar que, en esos espacios inmensos existen infinidad de cosas y se producen multitud de fenómenos que escapan a nuestro entendimiento. Son fuerzas descomunales que, como las que puedan emitir agujeros negros gigantes, estrellas de neutrones magnetars y explosiones de estrellas masivas en supernovas que, estando situadas a miles de millones de años luz de nuestro ámbito local, nos imposibilita para la observación y el estudio a fondo y sin fisuras, y, a pesar de los buenos instrumentos que tenemos hoy, siguen siendo insuficientes para poder “ver” todo lo que ahí fuera sucede.

¡El Universo! Todo lo que existe.

emilio silvera

Física, la era cuántica y otros fascinantes conceptos

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

gran-muralla-galaxias

Los científicos para lograr conocer la estructura del universo a su escala más grande, deben retroceder en el tiempo, centrando sus teorías en el momento en que todo comenzó. Para ello, como  todos sabeis, se han formulado distintas teorías unificadoras de las cuatro fuerzas de la naturaleza, con las cuales se han modelado acontecimiento y condiciones en el universo primitivo casi a todo lo largo del camino hasta el principio. Pero cómo se supone que debió haber habido un «antes», aparece una barrera que impide ir más allá de una frontera que se halla fijada a los 10-43 [s] después del Big Bang, un instante conocido como «momento de Planck», en homenaje al físico alemán Max Planck.

El momento de Planck es la unidad de momento, denotada por m P c {\displaystyle m_{P}c} {\displaystyle m_{P}c} en el sistema de unidades naturales conocido como las unidades de Planck.

Se define como:

{\displaystyle m_{P}c={\frac {\hbar }{l_{P}}}={\sqrt {\frac {\hbar c^{3}}{G}}}\;\approx \;6.52485\;kg{\frac {m}{s}}}

donde

En unidades del SI. el momento de Planck equivale a unos 6,5 kg m/s. Es igual a la masa de Planck multiplicada por la velocidad de la luz, con frecuencia asociada con el momento de los fotones primordiales en ciertos modelos del Big Bang que aún perduran.

Esta barrera existe debido a que antes del momento de Planck, durante el período llamado la «era de Planck o cuántica», se supone que las cuatro fuerza fundamentales conocidas de la naturaleza eran indistinguibles o se hallaban unificadas , que era una sola fuerza. Aunque los físicos han diseñado teorías cuánticas que unen tres de las fuerzas, una por una, a través de eras que se remontan al momento de Planck, hasta ahora les ha sido prácticamente imposible armonizar las leyes de la teoría cuántica con la gravedad de la relatividad general de Einstein, en un sólo modelo teórico ampliamente convincente y con posibilidades claras de ser contrastado en experimentos de laboratorio y, mucho menos, con observaciones.

Si hablamos de singularidades en agujeros negros, debemos dejar la R.G. y acudir a la M.C. “…según las leyes de la Relatividad, el eje más horizontal siempre es espacio, mientras que el más vertical siempre es tiempo. Por tanto, al cruzar el horizonte lo que nosotros entendemos por tiempo y espacio ¡habrán intercambiado sus papeles! Puede sonar raro y, definitivamente, es algo completamente anti intuitivo, pero es la clave de que los agujeros negros sean como son y jueguen el papel tan importante que juegan en la física teórica actual. Al fin y al cabo, dentro no es lo mismo que fuera…”

Si ahora queremos cuantizar, es decir encontrar la versión cuántica, la gravedad escrita como RG lo que tenemos que hacer es encontrar la teoría cuántica para la métrica.  Sin embargo, esto no conduce a una teoría apropiada, surgen muchos problemas para dar sentido a esta teoría, aparecen infinitos y peor que eso, muchos cálculos no tienen ni tan siquiera un sentido claro.  Así que hay que buscar otra forma de intentar llegar a la teoría cuántica.

gravedad cuantica

Como tantas veces hemos comentado, los trabajos que se han realizado sobre poder construir una teoría cuántica de la gravedad nos llevan a un número sorprendente de implicaciones. Por un lado, sólo se ha podido conceptuar a la gravedad cuántica, siempre y cuando, el universo tenga más de cuatro dimensiones. Además, se llega a considerar que en la era de Planck, tanto el universo como la gravedad pudieron ser una sola cosa compacta estructurada por objetos cuánticos infinitamente diminutos, como los que suponemos que conforman las supercuerdas. A esta escala, el mismísimo espaciotiempo estaría sometido a imprescindibles fluctuaciones muy semejantes a las que causan las partículas al nacer y desaparecer de la existencia en el espaciotiempo ordinario. Esta noción ha conducido a los teóricos a describir el universo de la era cuántica como una especie de extremadamente densa y agitada espuma que pudo haber contenido las vibrantes cuerdecillas que propugnan los cosmólogos cuerdistas.

Los físicos especulan que el cosmos ha crecido a desde una «nada» primigenia que al nacer comenzó el principio del tiempo y que, en ese parto, contenía toda la materia y toda la energía.

¿Qué es la espuma cuántica?

Según la física cuántica, “la nada” no existe. En vez de esto, en la escala más pequeña y elemental del universo hallamos una clase de “espuma cuántica”.

John Wheeler explicó el término de “espuma cuántica” en 1955. A este nivel subatómico, la energía se rige por el principio de Incertidumbre de Heisenberg; sin embargo, para comprender este principio y cualquier aseveración de física cuántica, es importante antes entender que el universo se rige por cuatro dimensiones: tres comprendidas por el espacio que un objeto ocupa (vectores “X”, “Y” y “Z”) y una última, que es el tiempo.

La Física actual no puede describir lo que sucedió en el Big Bang. La Teoría Cuántica y la Teoría de la Relatividad fracasan en éste estado inicial del Universo infinitamente denso y caliente. Tan solo una teoría de la Gravedad  Cuántica que integre ambos pilares fundamentales de la Física, podría proporcionar una idea acerca de cómo comenzó el Universo.

Según los primeros trabajos sobre la teoría cuántica de la gravedad, el propio espaciotiempo varió en su topografía, dependiendo de las dimensiones del universo niño. Cuando el universo era del tamaño de un núcleo atómico (ver imagen de abajo), las condiciones eran relativamente lisas y uniformes; a los 10-30 cm (centro) es evidente una cierta granulidad; y a la llamada longitud de Planck, todavía unas 1.000 veces más pequeño (abajo), el espacio tiempo fluctúa violentamente.

 

La Gravedad de Einstein y la Cuántica de Planck… ¡No casan!

Los físicos han intentado con denuedo elaborar una teoría completa de la gravedad que incluya la mecánica cuántica. Los cálculos de la mayoría de las teorías propuesta de la «gravedad cuántica» arrojan numerosos infinitos. Los físicos no están seguros si el problema es técnico o conceptual. No obstante, incluso prescindiendo de una teoría completa de gravedad cuántica, se puede deducir que los efectos de la teoría cuántica, habrían sido cruciales durante los primeros 10-43 segundos del inicio del universo, cuando éste tenía una densidad de 1093 gramos por centímetro cúbico y mayor. (El plomo sólido tiene una densidad de aproximadamente diez gramos por centímetro cúbico.) Este período, que es el que corresponde a la era de Planck, y a su estudio se le llama cosmología cuántica. Como el universo en su totalidad habría estado sujeto a grandes incertidumbres y fluctuaciones durante la era de Planck o era cuántica, con la materia y la energía apareciendo y desapareciendo de un vacío en grandes cantidades, el concepto de un principio del universo podría no tener un significado bien definido. En todo caso, la densidad del universo durante este período es de tal magnitud que escapa a nuestra comprensión. Para propósitos prácticos, la era cuántica podría considerarse el estado inicial, o principio, del universo. En consecuencia, los procesos cuánticos ocurridos durante este período, cualquiera sea su naturaleza, determinaron las condiciones iniciales del universo.

Observaciones astronómicas indican que el universo tiene una edad de 13,73 ± 0,12 millardos de años (entre 13 730 y 13 810 millones de años) y por lo menos … Sin embargo…

El universo estaba a 3.000° Hace doce mil quinientos millones de años; a 10 mil millones de grados (1010° K) un millón de años antes, y, tal vez, a 1028° K un par de millones más temprano. Pero, y antes de ese tiempo ¿qué pasaba? Los fósiles no faltan, pero no sabemos interpretarlos. Mientras más elevada se va haciendo la temperatura del universo primigenio, la situación se va complicando para los científicos. En la barrera fatídica de los 1033° K –la temperatura de Planck–, nada funciona. Nuestros actuales conocimientos de la física dejan de ser útiles. El comportamiento de la materia en estas condiciones tan extremas deja de estar a nuestro alcance de juicio. Peor aún, hasta nuestras nociones tradicionales pierden su valor. Es una barrera infranqueable para el saber de la física contemporánea. Por eso, lo que se suele decir cómo era el universo inicial en esos tempranos períodos, no deja de tener visos de especulación.

Los progresos que se han obtenido en física teórica se manifiestan a menudo en términos de síntesis de campos diferentes. Varios  son los ejemplos que de ello encontramos en diversos estudios especializados, que hablan de la unificación de las fuerzas fundamentales de la naturaleza.

En física se cuentan con dos grandes teorías de éxito: la cuántica y la teoría de la relatividad general.

Cada una de ellas ha demostrado ser muy eficiente en aplicaciones dentro de los límites de su ámbito propio. La teoría cuántica ha otorgado resultados más que satisfactorios en el estudio de las radiaciones, de los átomos y de sus interacciones. La ciencia contemporánea se presenta como un conjunto de teorías de campos, aplicables a tres de las grandes interacciones: electromagnética, nuclear fuerte, nuclear débil. Su poder predictivo es bastante elocuente, pero no universal. Esta teoría es, por ahora, incapaz de describir el comportamiento de partículas inmersas en un campo de gravedad intensa. Ahora, no sabemos si esos fallos se deben a un problema conceptual de fondo o falta de capacidad matemática para encontrar las ecuaciones precisas que permitan la estimación del comportamiento de las partículas en esos ambientes.

La teoría de la relatividad general, a la inversa, describe con gran precisión el efecto de los campos de gravedad sobre el comportamiento de la materia, pero no sabe explicar el ámbito de la mecánica cuántica. Ignora todo acerca de los campos y de la dualidad onda-partícula, y en ella el «vacío» es verdaderamente vacío, mientras que para la física cuántica hasta la «nada» es «algo»…

                  Nada está vacío, ya que, de donde surge es porque había

Claro está, que esas limitaciones representativas de ambas teorías no suelen tener mucha importancia práctica. Sin embargo, en algunos casos, esas limitantes se hacen sentir con agresividad frustrando a los físicos. Los primeros instantes del universo son el ejemplo más elocuente.

El científico investigador, al requerir estudiar la temperatura de Planck, se encuentra con un cuadro de densidades y gravedades extraordinariamente elevadas. ¿Cómo se comporta la materia en esas condiciones? Ambas teorías, no dicen mucho al respecto, y entran en serias contradicciones e incompatibilidades. De ahí la resistencia de estas dos teorías a unirse en una sólo teoría de Gravedad-Cuantíca, ya que, cada una de ellas reina en un universo diferente, el de lo muy grande y el de lo muy pequeño.

Todo se desenvuelve alrededor de la noción de localización. La teoría cuántica limita nuestra aptitud para asignar a los objetos una posición exacta. A cada partícula le impone un volumen mínimo de localización. La localización de un electrón, por ejemplo, sólo puede definirse alrededor de trescientos fermis (más o menos un centésimo de radio del átomo de hidrógeno). Ahora, si el objeto en cuestión es de una mayor contextura másica, más débiles son la dimensión de este volumen mínimo. Se puede localizar un protón en una esfera de un décimo de fermi, pero no mejor que eso. Para una pelota de ping-pong, la longitud correspondiente sería de unos 10-15 cm, o sea, bastante insignificante.La física cuántica, a toda partícula de masa m le asigna una longitud de onda Compton: lc = h / 2p mc

Por su parte, la relatividad general igualmente se focaliza en la problemática del lugar que ocupan los objetos. La gravedad que ejerce un cuerpo sobre sí mismo tiende a confinarlo en un espacio restringido. El caso límite es aquel del agujero negro, que posee un campo de gravedad tan intenso que, salvo la radiación térmica, nada, ni siquiera la luz, puede escapársele. La masa que lo constituye está, según esta teoría, irremediablemente confinada en su interior.

En lo que hemos inmediatamente descrito, es donde se visualizan las diferencias entre esos dos campos del conocimiento. Uno alocaliza, el otro localiza. En general, esta diferencia no presenta problemas: la física cuántica se interesa sobre todo en los microobjetos y la relatividad en los macroobjetos. Cada cual en su terreno.

Sin embargo, ambas teorías tienen una frontera común para entrar en dificultades. Se encuentran objetos teóricos de masa intermedia entre aquella de los microobjetos como los átomos y aquella de los macroobjetos como los astros: las partículas de Planck. Su masa es más o menos la de un grano de sal: 20 microgramos. Equivale a una energía de 1028 eV o, más aún, a una temperatura de 1033° K. Es la «temperatura de Planck».

Ahora bien, si queremos estimar cuál debería ser el radio en que se debe confinar la masita de sal para que se vuelva un agujero negro, con la relatividad general la respuesta que se logra encontrar es de que sería de 10-33 cm, o sea ¡una cien mil millonésima de mil millonésima de la dimensión del protón! Esta dimensión lleva el nombre de «radio de Planck». La densidad sería de ¡1094 g/cm3! De un objeto así, comprimido en un radio tan, pero tan diminuto, la relatividad general sólo nos señala que tampoco nada puede escapar de ahí. No es mucha la información.

Si recurrimos a la física cuántica para estimar cuál sería el radio mínimo de localización para un objeto semejante al granito de sal, la respuesta que encontramos es de un radio de 10-33 cm. Según esta teoría, en una hipotética experiencia se lo encontrará frecuentemente fuera de ese volumen. ¡Ambos discursos no son coincidentes! Se trata de discrepancias que necesitan ser conciliadas para poder progresar en el conocimiento del universo. ¿Se trata de entrar en procesos de revisión de ambas teoría, o será necesaria una absolutamente nueva? Interrogantes que solamente el devenir de la evolución de la física teórica las podrá responder en el futuro.

Dibujo20121227 SUSY particles - SM particles - in spanish

No sabemos por qué existen los fermiones y los bosones gauge que han sido observados en los experimentos. Todas las piezas del puzzle encajan a la perfección, pero la imagen mostrada en el puzzle no la han elegido las leyes físicas que conocemos, nos viene impuesta por la Naturaleza. Lo único que podemos decir es que la Naturaleza es así y nos gustaría saber el porqué, pero aún estamos muy lejos de descubrirlo (si es que es posible hacerlo sin recurrir a un principio antrópico).

De todas las maneras, en lo que se refiere a una Teoría cuántica de la Gravedad, tendremos que esperar a que se confirmen las teorías de supergravedad, supersimetría, cuerdas, la cuerda heterótica, supercuerdas y, la compendiada por Witten Teoría M. Aquí, en estas teorías (que dicen ser del futuro), sí que están apasiblemente unidas las dos irreconcialbles teorías: la cuántica y la relativista, no sólo no se rechazan ni emiten infinitos, sino que, se necesitan y complementan para formar un todo armónico y unificador.

¡Si pudiéramos verificarla!

Pero, contar con la energía de Planck (1019 GeV), no parece que, al menos de momento, no sea de este mundo. Ni todos los aceleradores de partículas del mundo unidos, podrían llegar a conformar una energía semejante.

emilio silvera

Los Quarks invisibles

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Una vez que se ha puesto orden entre las numerosas especies de partículas, se puede reconocer una pauta. Igual que Dimitri Ivanovich Mendeleev descubrió el sistema periódico de los elementos químicos en 1869, así también se hizo visible un sistema similar para las partículas. Esta pauta la encontraron independientemente el americano Murray Gell-Mann y el israelí Yuval Ne’eman. Ocho especies de mesones, todos con el mismo espín, u ocho especies de bariones, con el mismo espín, se podían reagrupar perfectamente en grupos que llamaremos multipletes. El esquema matemático correspondiente se llama SU(3). Grupletes de ocho elementos forman un octete “fundamental”. Por esta razón Gell-Mann llamó a esta teoría el “óctuplo camino”. Lo tomó prestado del budismo de acuerdo con el cual el camino hacia el nirvana es el camino óctuplo.

Pero las matemáticas SU(3) también admiten multipletes de diez miembros. Cuando se propuso este esquema se conocían nueve bariones con espín 3/2. Los esquemas SU(3) se obtienen al representar dos propiedades fundamentales de las partículas, la extrañeza S frente al isoespín I₃ , en una gráfica.

Imagen de trazas en la cámara de burbujas del primer evento observado incluyendo bariones Ω, en el Laboratorio Nacional Brookhaven.

De esta manera, Gell-Mann predijo un décimo barión, el omega-menos (Ω¯), y pudo estimar con bastante precisión su masa porque las masas de los otros nueve bariones variaban de una forma sistemática en el gráfico (también consiguió entender que las variaciones de la masa eran una consecuencia de una interacción simple). Sin embargo, estaba claro que la Ω¯, con una extrañeza S = -3, no tenía ninguna partícula en la que desintegrarse que no estuviera prohibida por las leyes de conservación de la interacción fuerte. De modo que, la Ω¯ sólo podía ser de tan sólo 10¯²³ segundos como los demás miembros del multiplete, sino que tenía que ser del orden de 10¯¹⁰ segundos. Consecuentemente, esta partícula debería viajar varios centímetros antes de desintegrarse y esto la haría fácilmente detectable. La Ω¯ fue encontrada en 1964 con exactamente las mismas propiedades que había predicho Gell-Mann.

Murray Gell-Mann, nacido en Nueva York en el año 1929, recibió el premio Nobel de Física en 1969 por su aporte en la teoría de las partículas atómicas.

Murray Gell-Mann, nacido en Nueva York en el año 1929, recibió el premio Nobel de Física en 1969 por su aporte en la teoría de las partículas atómicas.

Se identificaron estructuras multipletes para la mayoría de los demás bariones y mesones y Gell-Mann también consiguió explicarlas. Sugirió que los mesones, igual que los bariones, debían estar formados por elementos constitutivos “más fundamentales aún”. Gell-Mann trabajaba en el Instituto de Tecnología de California en Pasadena (CalTech), donde conversaba a menudo con Richard Feynman. Eran ambos físicos famosos pero con personalidades muy diferentes. Gell-Mann, por ejemplo, es conocido como un entusiasta observador de Pájaros, familiarizado con las artes y la literatura y orgulloso de su conocimiento de lenguas extranjeras. Feynman fue un hombre hecho a sí mismo, un analista riguroso que se reía de cualquier cosa que le recordara la autoridad establecida. Hay una anécdota que parece no ser cierta de hecho, pero que me parece tan buena que no puedo evitar el contarla; podía haber sucedido de esta forma. Gell-Mann le dijo a Feynman que tenía un problema, que estaba sugiriendo un nuevo tipo de ladrillos constitutivos de la materia y que no sabía qué nombre darles. Indudablemente debía haber de haber pensado en utilizar terminología latina o griega, como ha sido costumbre siempre en la nomenclatura científica. “Absurdo”, le dijo Feynman; “tú estás hablando de cosas en las que nunc ase había pensado antes. Todas esas preciosas pero anticuadas palabras están fuera de lugar. ¿Por qué no los llamas simplemente “shrumpfs”, “quacks” o algo así?”.

Cuando algún tiempo después le pregunté a Gell-Mann, éste negó que tal conversación hubiera tenido lugar. Pero la palabra elegida fue quark, y la explicación de Gell-Mann fue que la palabra venía de una frase de Fynnegan’s Wake de James Joyce; “¡Tres quarks para Muster Mark!”. Y, efectivamente así es. A esas partículas les gusta estar las tres juntas. Todos los bariones están formados por tres quarks, mientras que los mesones están formados por un quark y un antiquark.

Los propios quarks forman un grupo SU(3) aún más sencillo. Los llamaremos “arriba (u)”, “abajo” (d), y “extraño” (s). Las partículas “ordinarias” contienen solamente quarks u y d. Los hadrones “extraños” contienen uno o más quarks s (o antiquarks ŝ).

La composición de quarks de espín 3/2 se puede ver en la tabla 5. La razón por la que los bariones de espín ½ sólo forman un octete es más difícil de explicar. Está relacionada con el hecho de que en estos estados, al menos dos de los quarks tienen que ser diferentes unos de otros.

Realmente, la idea de que los hadrones estuvieran formados por ladrillos fundamentales sencillos había sido también sugerida por otros. George Zweig, también en el CalTech, en Pasadena, había tenido la misma idea. Él había llamado a los bloques constitutivos “ases!, pero es la palabra “quark” la que ha prevalecido. La razón por la que algunos nombres científicos tienen más éxito que otros es a veces difícil de comprender.

Pero en esta teoría había algunos aspectos raros. Aparentemente, los quarks (o ases) siempre existen en parejas o tríos y nunca se han visto solos. Los experimentadores habían intentado numerosas veces detectar un quark aislado en aparatos especialmente diseñados para ello, pero ninguno había tenido éxito.

Los quarks –si se pudieran aislar- tendrían propiedades incluso más extrañas. Por ejemplo, ¿cuáles serían sus cargas eléctricas? Es razonable suponer que tanto los quarks u como los quarks s y d deban tener siempre la misma carga. La comparación de la tabla 5 con la tabla 2 sugiere claramente que los quarks d y s tienen carga eléctrica -1/3 y el quark u tiene carga +2/3. Pero nunca se han observado partículas que no tengan carga múltiplo de la del electrón o de la del protón. Si tales partículas existieran, sería posible detectarlas experimentalmente. Que esto haya sido imposible debe significar que las fuerzas que las mantienen unidas dentro del hadrón son necesariamente increíblemente eficientes.

Aunque con la llegada de los quarks se ha clarificado algo más la flora y la fauna de las partículas subatómicas, todavía forman un conjunto muy raro, aún cuando solamente unas pocas aparezcan en grandes cantidades en el universo (protones, neutrones, electrones y fotones). Como dijo una vez Sybren S. de Groot cuando estudiaba neutrinos, uno realmente se enamora de ellos. Mis estudiantes y yo amábamos esas partículas cuyo comportamiento era un gran misterio. Los leptones, por ser casi puntuales, son los más sencillos, y por tener espín se ven afectados por la interacción que actúa sobre ellos de forma muy complicada, pero la interacción débil estaba bastante bien documentada por entonces.

Los hadrones son mucho más misteriosos. Los procesos de choque entre ellos eran demasiado complicados para una teoría respetable. Si uno se los imagina como pequeñas esferas hachas de alguna clase de material, aún quedaba el problema de entender los quarks y encontrar la razón por la que se siguen resistiendo a los intentos de los experimentadores para aislarlos.

Si queréis saber más sobre el tema, os recomiendo leer el libro Partículas de Gerard ´t Hooft

Moléculas, sustancias, cuerpos…

Autor por Emilio Silvera    ~    Archivo Clasificado en Física-química    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

«

 

 

El material más abundante del Universo es el Hidrógeno cuyos átomos contienen un sólo protón y un sólo electrón. Sin embargo, a partir de él se pueden conseguir todos los elementos que existen mediante una transición de fase que, generalmente, se produce en las estrellas.

Es allí, en las estrellas, en sus hornos nucleares y en las explosiones de supernovas, donde a miles de millones de grados de temperatura, se crean los elementos más complejos que el hidrógeno y  el helio.  Aparece el litio, el carbono, el silicio o el nitrógeno y el hierro.

De estos materiales estamos nosotros hechos, y, lógicamente, se fabricaron en las estrellas.

En una supernova, en orden decreciente tenemos la secuencia de núcleos H, He, O, C, N, Fe, que coincide bastante bien con una ordenación en la tabla periódica que es:

H, He, (Li, Be, B) C, N, O…… Fe

¿Apreciáis la maravilla? Las estrellas brillan en el cielo para hacer posible que nosotros estemos aquí descubriendo los enigmas del Universo y…. de la vida inteligente.

El telescopio VLT (Very Large Telescope) de ESO ha obtenido imágenes de una fascinante región de formación de estrellas en la Gran Nube de Magallanes — una de las galaxias satélite de la Vía Láctea. Esta precisa imagen revela dos peculiares y brillantes nubes de gas: la rojiza NGC 2014 y su vecina azulada NGC 2020. Pese a que son muy diferentes, ambas fueron esculpidas por potentes vientos estelares procedentes de estrellas recién nacidas extremadamente calientes que también irradian el gas, provocando que brille de forma intensa. (para verla entera hay que pasar la rgla hacia la derehca).

Pero está claro que, todo el proceso estelar evolutivo inorgánico nos condujo desde el simple gas y polvo cósmico a la formación de estrellas y nebulosas solares hasta los planetas, la Tierra en particular, en cuyo medio ígneo describimos la formación de las estructuras de los silicatos, desplegándose con ello una enorme diversidad de composiciones, formas y colores, asistiéndose, por primera vez en la historia de la materia, a unas manifestaciones que contrastan con las que hemos mencionado en relación al proceso de las estrellas.

Desde el punto de vista del orden es la primera vez que nos encontramos con objetos de tamaño comparables al nuestro, en los que la ordenación de sus constituyentes es el rasgo más característico.

Al mismo tiempo nos ha parecido reconocer que esos objetos, es decir, sus redes cristalinas “reales”, almacenan información (memoria) que se nos muestra muy diversa y que puede cobrar interés en ciertos casos, como el de los microcristales de arcilla, en los que, según Cairos-Swith, puede incluso llegar a transmitirse.

Porque ¿qué sabemos en realidad de lo que llamamos materia inerte? Lo único que sabemos de ella son los datos referidos a sus condiciones físicas de dureza, composición, etc., en otros aspectos, ni sabemos si pueden existir otras propiedades distintas a las meramente-físicas.

¿No os hace pensar que nosotros estemos hechos, precisamente, de lo que llamamos materia inerte?

Pero el mundo inorgánico es sólo una parte del inmenso mundo molecular.  El resto lo constituye el mundo orgánico, que es el de las moléculas que contienen carbono y otros átomos y del que quedan excluidos, por convenio y características especiales, los carbonatos, bicarbonatos y carburos metálicos, los cuales se incluyen en el mundo inorgánico.

Según decía en páginas anteriores, los quarks u y d se hallan en el seno de los nucleones (protones y neutrones) y, por tanto, en los núcleos atómicos.  Hoy día, estos se consideran como una subclase de los hadrones.

La composición de los núcleos (lo que en Química se llama análisis cualitativo) es extraordinariamente sencilla ya que, como es sabido, constan de neutrones y protones que se pueden considerar como unidades que, dentro del núcleo, mantienen su identidad.  Tal simplicidad cualitativa recuerda, por ejemplo, el caso de las series orgánicas, siendo la de los hidrocarburos saturados la más conocida.  Recordad que su fórmula general es , lo que significa que una molécula de hidrocarburo contiene n átomos de carbono (símbolo C) y (2n+2) átomos de hidrógeno (símbolo H).

Resultado de imagen de El número de <a href=

  Protones y de neutrones determinan el elemento

El número de protones y neutrones determina al elemento, desde el hidrógeno (el más simple), al Uranio (el más complejo), siempre referido a elementos naturales que son 92, el resto, son artificiales, los conocidos transuránicos en cuyo grupo están el Einstenio o el Plutonio, artificiales todos ellos.

Los núcleos, como sistemas dinámicos de nucleones, pertenecen obviamente a la microfísica y, por consiguiente, para su descripción es necesario acudir a la mecánica cuántica. La materia, en general, aunque presumimos de conocerla, en realidad, nos queda mucho por aprender de ella.

Hablemos un poco de moléculas.

El papel primordial del agua en el metabolismo de los seres vivos se debe sus propiedades físicas y químicas, derivadas de la estructura molecular.

El número de especimenes atómicos es finito, existiendo ciertas razones para suponer que hacia el número atómico 173 los correspondientes núcleos serían inestables, no por razones intrínsecas de inestabilidad “radiactiva” nuclear, sino por razones relativistas.  Ya antes me referiría a las especies atómicas, naturales y artificiales que son de unos pocos millares; en cambio; el número de moléculas conocidas hasta ahora comprende varios millones de especimenes, aumentando continuamente el número de ellas gracias a las síntesis que se llevan a cabo en numerosos laboratorios repartidos por todo el mundo.

Una molécula es una estructura, con individualidad propia, constituida por núcleos y electrones.  Obviamente, en una molécula las interacciones deben tener lugar entre núcleos y electrones, núcleos y núcleos y electrones y electrones, siendo del tipo electromagnético.

Proteina supresora de tumores p53 encajada a una secuencia de ADN

Debido al confinamiento de los núcleos, el papel que desempeñan, aparte del de proporcionar la casi totalidad de la masa de la molécula, es poco relevante, a no ser que se trate de moléculas livianas, como la del hidrógeno.  De una manera gráfica podríamos decir que los núcleos en una molécula constituyen el armazón de la misma, el esqueleto, cuya misión sería proporcionar el soporte del edificio.  El papel más relevante lo proporcionan los electrones y en particular los llamados de valencia, que son los que de modo mayoritario intervienen en los enlaces, debido a que su energía es comparativamente inferior a la de los demás, lo que desempeña muy importante papel en la evolución.

Desde las moléculas más sencilla, como la del hidrógeno, con un total de 2 electrones, hasta las más complejas, como las de las proteínas, con muchos miles de ellos, existe toda una gama, según decía, de varios millones.  Esta extraordinaria variedad de especies moleculares contrasta con la de las especies nucleares e incluso atómicas.

Sin entrar en las posibles diferencias interpretativas de estas notables divergencias, señalaré que, desde el punto de vista de la información, las especies moleculares la poseen en mucho mayor grado que los nucleares y atómicas.

Dejando aparte los núcleos, la información que soportan los átomos se podría atribuir a la distribución de su carga eléctrica,  y en particular a la de los electrones más débilmente ligados.   Concretando un poco se podría admitir que la citada información la soportan los orbitales atómicos, pues son precisamente estos orbitales las que introducen diferencias “geométricas” entre los diferentes electrones corticales.

Justamente esa información es la que va a determinar las capacidades de unión de unos átomos con otros, previo el “reconocimiento” entre los orbitales correspondientes.   De acuerdo con la mecánica cuántica el número de orbitales se reduce a unos pocos.  Se individualizan por unas letras hablándose de orbitales, s, p, d, f, g, h.  Este pequeño número nos proporciona una gran diversidad.

La llamada hibridación (una especie de mezcla) de orbitales es un modo de aumentar el número de mensajes, esto es, la información, bien entendido que esta hibridación ocurre en tanto y en cuanto dos átomos se preparan para enlazarse y formar una molécula.  En las moléculas, la información, obviamente, debe de abarcar a todo el edificio, por lo que en principio parece que debería ser más rica que en los átomos.  La ganancia de información equivale a una disminución de entropía; por esta razón,  a la información se la llama también negantropía.

En términos electrónicos, la información se podría considerar proporcionada por un campo de densidad eléctrica, con valles, cimas, collados, etc., es decir, curvas isoelectrónicas, equivalentes formalmente a las de nivel en topografía.  Parece razonable suponer que cuanto más diverso sean los átomos de una molécula, más rica y variada podrá ser su información, la información que pueda soportar.

La enorme variedad de formas, colores, comportamientos, etc., que acompaña a los objetos, incluidos los vivientes, sería una consecuencia de la riqueza en la información que soportan las moléculas (y sus agregados) que forman parte de dichos objetos.  Ello explicaría que las moléculas de la vida sean en general de grandes dimensiones (macromoléculas).  La inmensa mayoría de ellas contiene carbono.  Debido a su tetravalencia y a la gran capacidad que posee dicho átomo para unirse consigo mismo, dichas moléculas pueden considerarse como un esqueleto formado por cadenas de esos átomos.

Estas moléculas se agrupan y forman biomoléculas; Monómeros, que enlazados unos a otros, forman largas cadenas y originan la enorme diversidad de macromoléculas existentes CO2 H2O N2 Hidratos de carbono Glucosa Peroxidasa.

El carbono no es el único átomo con capacidad para formar los citados esqueletos.  Próximos al carbono en la tabla periódica, el silicio, fósforo y boro comparten con dicho átomo esa característica, si bien en un grado mucho menor.

Refiriéndonos al silicio, que para nosotros es el más importante, señalaremos que las “moléculas” que dicho átomo forma con el oxígeno y otros átomos, generalmente metálicos, poseyendo gran nivel de información, difieren, en varios aspectos, de las moléculas orgánicas, es decir, de las que poseen un esqueleto de átomos de carbono.

El mundo de los silicatos es de una gran diversidad, existiendo centenares de especies minerológicas.  Esas diferencias se refieren, fundamentalmente, a que el enlace químico en el caso de las moléculas orgánicas es covalente, y cuando se forma la sustancia correspondiente (cuatrillones de moléculas) o es un líquido, como es el caso de los aceites, o bien un sólido que funde fácilmente.  Entre las moléculas que lo forman se ejercen unas fuerzas, llamadas de van der Waals, que, pueden considerarse como residuales de las fuerzas electromagnéticas, algo más débiles que éstas.  En cambio, en los silicatos sólidos (como en el caso del topacio) el enlace covalente o iónico no se limita a una molécula, sino que se extiende en el espacio ocupado por el sólido, resultando un entramado particularmente fuerte.

Al igual que para los cristales de hielo, en la mayoría de los silicatos la información que soportan es pequeña, aunque conviene matizar este punto.  Para un cristal ideal así sería en efecto, pero ocurre que en la realidad el cristal ideal es una abstracción, ya que en el cristal real existen aquí y allá los llamados defectos puntuales que trastocan la periodicidad espacial propia de las redes ideales.  Precisamente esos defectos puntuales podían proporcionar una mayor información.

Las moléculas orgánicas con enlaces dobles ó triples tienen también formas características.

Si prescindimos de las orgánicas, el resto de las moléculas que resultan de la combinación entre los diferentes átomos no llega a 100.000, frente a los varios millones de las primeras.  Resulta ranozable suponer que toda la enorme variedad de moléculas existentes, principalmente en los planetas rocosos, se haya formado por evolución de los átomos, como corresponde a un proceso evolutivo. La molécula poseería mayor orden que los átomos de donde procede, esto es, menor entropía. En su formación, el ambiente se habría desordenado al ganar entropía en una cierta cantidad tal, que arrojarse un balance total positivo.

No puedo, dejar pasar la oportunidad, aunque sea de pasada, remencionar las sustancias.

Resultado de imagen de Las moléculas orgánicasResultado de imagen de Las moléculas orgánicas

                                                          Tipos de energía que se almacena en moléculas orgánicas

Las así llamadas, son cuerpos formados por moléculas idénticas, entra las cuales pueden o no existir enlaces químicos.  Veremos varios ejemplos.  Las sustancias como el oxígeno, cloro, metano, amoníaco, etc., se presentan en estado gaseoso en condiciones ordinarias de presión y temperatura.  Para su confinamiento se embotellan, aunque existen casos en que se encuentran mezcladas en el aire (os podéis dar una vueltecita por el Polo químico de Huelva).

En cualquier caso, un gas como los citados consiste en un enjambre de las moléculas correspondientes.  Entre ellas no se ejercen fuerzas, salvo cuando colisionan, lo que hacen con una frecuencia que depende de la concentración, es decir, del número de ellas que están concentradas en la unidad de volumen; número que podemos calcular conociendo la presión y temperatura de la masa de gas confinada en un volumen conocido.

Decía que no existen fuerzas entre las moléculas de un gas.  En realidad, es más exacto que el valor de esas fuerzas es insignificante porque las fuerzas residuales de las electromagnéticas, a las que antes me referí, disminuyen más rápidamente con la distancia que las fuerzas de Coulomb; y esta distancia es ordinariamente de varios diámetros moleculares.

Podemos conseguir que la intensidad de esas fuerzas aumente tratando de disminuir la distancia media entre las moléculas.  Esto se puede lograr haciendo descender la temperatura, aumentando la presión o ambas cosas.  Alcanzada una determinada temperatura, las moléculas comienzan a sentir las fuerzas de Van der Waals y aparece el estado líquido; si se sigue enfriando aparece el sólido.  El orden crece desde el gas al líquido, siendo el sólido el más ordenado.  Se trata de una red tridimensional en la que los nudos o vértices del entramado están ocupados por moléculas.

Todas las sustancias conocidas pueden presentarse en cualquiera de los tres estados de la materia (estados ordinarios y cotidianos en nuestras vidas del día a día).

Si las temperaturas reinantes, como decíamos en páginas anteriores, es de miles de millones de grados, el estado de la materia es el plasma, el material más común del Universo, el de las estrellas (aparte de la materia oscura, que no sabemos ni lo que es, ni donde está, ni que “estado” es el suyo).

En condiciones ordinarias de presión, la temperatura por debajo de la cual existe el líquido y/o sólido depende del tipo de sustancia.  Se denomina temperatura de ebullición o fusión la que corresponde a los sucesivos equilibrios(a presión dada) de fases: vapor <-> líquido <-> sólido.  Estas temperaturas son muy variadas.  Por ejemplo, para los gases nobles son muy bajas; también para el oxígeno (O2) e hidrógeno (H2).  En cambio, la mayoría de las sustancias son sólidos en condiciones ordinarias (grasas,  ceras, etc.)

Las sustancias pueden ser simples y compuestas, según que la molécula correspondiente tenga átomos iguales o diferentes.  El número de las primeras es enormemente inferior al de las segundas.

El concepto de molécula, como individuo-físico y químico, pierde su significado en ciertas sustancias que no hemos considerado aun.  Entre ellas figuran las llamadas sales, el paradigma de las cuales es la sal de cocina.  Se trata de cloruro de  sodio, por lo que cualquier estudiante de E.G.B. escribiría sin titubear, su fórmula: Cl Na.  Sin embargo, le podríamos poner en un aprieto si le preguntásemos donde se puede encontrar aisladamente individuos moleculares que respondan a esa composición.  Le podemos orientar diciéndole que en el gas Cl H o en el vapor de agua existen moléculas como individualidades.  En realidad y salvo casos especiales, por ejemplo, a temperaturas elevadas, no existen moléculas aisladas de sal, sino una especie de molécula gigante que se extiende por todo el cristal.  Este edificio de cristal de sal consiste en una red o entramado, como un tablero de ajedrez de tres dimensiones, en cuyos nudos o vértices se encuentran, alternativamente, las constituyentes, que no son los átomos de   Cl  y  Na  sino los iones Cl y Na+.  El primero es un átomo de Cl que ha ganado un electrón, completándose todos los orbitales de valencia; el segundo, un átomo de Na que ha perdido el electrón del orbital s.

Cuando los átomos de Cl y Na interaccionan por aproximarse suficientemente sus nubes electrónicas, existe un reajuste de cargas, porque el núcleo de Cl atrae con más fuerza los electrones que el de Na, así uno pierde un electrón que gana el otro.  El resultado es que, la colectividad de átomos se transforma en colectividad de iones, positivos los de Na y negativos los de Cl.  Las fuerzas electromagnéticas entre esos iones determinan su ordenación en un cristal, el ClNa.  Por consiguiente, en los nudos de la red existen, de manera alternativa, iones de Na e iones de Cl, resultando una red mucho más fuerte que en el caso de que las fuerzas actuantes fueran de Van der Waals.  Por ello, las sales poseen puntos de fusión elevados en relación con los de las redes moleculares.

Hablemos de cuerpos.

Me referiré en primer lugar a los que constituyen nuestro entorno ordinario, que sería todo el entorno que abarca nuestro planeta.  En segundo lugar considerare los demás cuerpos y objetos del Universo.  El análisis de muestras de esos diversos cuerpos ha puesto de manifiesto que, en función de la composición, los cuerpos pueden ser simples y compuestos.  Los primeros son, precisamente, los llamados elementos químicos, a las que el insigne Lavoisier (conocido como padre de la Química), consideró como el último término a que se llega mediante la aplicación del análisis químico.

Hoy sabemos que son colectividades de átomos isotópicos.

La mayoría de ellos son sólidos y se encuentran en la Naturaleza (nuestro entorno terráqueo) en estado libre o en combinación química con otros elementos, formando los diversos minerales.

La ordenación de los iones en las redes se manifiesta externamente en multitud de formas y colores.  No obstante, debo señalar que, aun siendo abundante esta variedad, no es tan rica como la que corresponde a los cuerpos vivos, tanto animales como vegetales.   La explicación se basa en que el número de especimenes moleculares y su complejidad son mucho mayores que en el reino inorgánico.

Sería conveniente, salir al paso de una posible interpretación errónea.  Me refiero a que pudiera pensarse que los reinos que acabamos de mencionar constituyen clases disyuntas, esto es, sin conexión mutua.  Y no lo digo porque esté considerando el hecho de que el carbono forma compuestos inorgánicos y orgánicos (lo que también hace el silicio), sino porque haya existido, y aún pueda existir, una conclusión, mejor conexión evolutiva del mundo inorgánico y el viviente que no se puede descartar, de hecho, yo particularmente, estoy seguro de ello.  Estamos totalmente conectados con los ríos, las montañas y los valles, con la tierra que pisamos, el aire que respiramos y con todo el resto del Universo del que formamos parte.

La teoría de Cairos Swith considera que el eslabón entre ambos mundos se halla localizado en los microcristales de arcilla.  Mi teoría particular es que no hay eslabón perdido en dicha conexión, sino que es el tiempo el que pone, en cada momento, una u otra materia en uno u otro lugar.  Ahora, nos ha tocado estar aquí como ser complejo, pensante y sensitivo.  El eón que viene nos puede colocar formando parte de un enorme árbol, de un monte, o, simplemente estar reposando como fina arena en el lecho de un río.  Sin dudarlo, J. M. y P. formarán parte de un hermoso jardín perfumado y lleno de aromas que la brisa regalará a los que pasen cerca de allí.

El granito, por ejemplo, consiste básicamente en una mezcla de tres cuerpos compuestos: cuarzo, mica y feldespato. ¿Quién puede decir hoy lo que seremos mañana?

En todos los cuerpos que hemos estado considerando hasta ahora, las moléculas, los átomos o los iones se hallan situados en los nudos de la correspondiente red, así que, los electrones de esos individuos se encuentran también localizados en el entorno inmediato de esos lugares.  Podríamos decir que la densidad electrónica es una función periódica espacial, lo que significa que al recorrer la red siguiendo una determinada dirección irían apareciendo altibajos, es decir, crestas y valles de la densidad electrónica.

La estructura de los cuerpos metálicos, así como las aleaciones, merecen una consideración especial.  La estructura de los metales y aleaciones difiere de la de los demás cuerpos en un aspecto muy importante que consideraré a continuación.

Supongamos, para fijar las ideas, que tenemos un trozo de plata metálica pura. En los nudos de la red correspondientes los átomos han perdido su electrón de …

Me refiero a que en los cuerpos metálicos existe una deslocalización de los electrones que están menos fuertemente enlazados en los correspondientes núcleos, es decir, de los electrones de valencia.

Vamos a precisar un poco.  Supongamos, para fijar las ideas, que tenemos un trozo de plata metálica pura. En los nudos de la red correspondientes los átomos han perdido su electrón de valencia, pero ocurre que cada uno de estos electrones forma una colectividad que se halla desparramada o dispersa por todo el sólido.  Una primera imagen de esta situación fue establecida por el gran físico italiano Enrico Fermi, por lo que se habla de un gas electrónico, llamado también de Fermi, que llenaría los espacios libres, es decir, no ocupados por los iones metálicos.

Este gas electrónico es el responsable de las propiedades metálicas, tales como el brillo, conductibilidades eléctrica y térmica, etc.  La aplicación de la mecánica cuántica a la descripción del estado metálico conduce a la obtención del mapa de la densidad electrónica, o, como decía antes, a las características de la información correspondiente.

Sin entrar en detalles que desviarían nuestra atención hacia otros conceptos fuera de los límites de lo que ahora estoy pretendiendo, utilizaré el mismo lenguaje que para las estructuras de núcleos y átomos.

Recordemos que en la sociedad de los nucleones y electrones existen las relaciones verticales y las de estratificación, que se manifiestan en las capas y subcapas.  En el caso de los metales tendríamos una colectividad de núcleos, arropados con sus capas cerradas, ocupando los nudos de la red; únicamente los electrones de valencia de cada átomo forman la colectividad del gas electrónico.

La pregunta que nos debemos hacer es: ¿estos electrones, en número igual, por lo menos,  al de los átomos, se hallan estratificados?  La respuesta es que sí.  Existe una estratificación de estos electrones en las llamadas bandas.  El concepto de banda energética resulta de la consideración simultánea de dos aspectos: la cuantización energética (o la estratificación de los niveles energéticos en los átomos) y el grandísimo número de electrones existentes.  Este colectivo no podría ubicarse en un número finito y escaso de niveles.   Esta dificultad queda soslayada si se admite que cada uno de esos niveles atómicos de los N átomos que forman el cuerpo se funde en otros tantos niveles de cierta anchura donde ya pueden alojarse los electrones disponibles.

Esa fusión de los niveles atómicos da lugar a las bandas.  Esta imagen equivaldría a considerar un metal como un átomo gigante en el que los niveles energéticos poseyeran una anchura finita.

En cuanto a la información que puede soportar un metal, podríamos señalar que sería parecida a la del correspondiente átomo, pero mucha más extendida espacialmente.   Una información puntual, la del átomo, daría paso a otra espacial, si bien vendría a ser una mera repetición periódica de aquella.

¿Y los cuerpos que pueblan el resto del Universo?

https://sistemaplanetario.files.wordpress.com/2011/03/universo2.jpg

Cuando un cuerpo sobrepasa unas determinadas dimensiones, aparece algo que conocemos como fuerza gravitatoria y que se deja sentir en la forma que todos conocemos y, que da lugar, primeramente a la fusión de los diversos materiales que forman los cuerpos.

Así, por ejemplo, en el cuerpo que llamamos Tierra, la presión crece con la profundidad, por lo que, a partir de un determinado valor de ésta, aparece el estado líquido y con él una estratificación que trata de establecer el equilibrio hidrostático.

Dentro de nuestro sistema planetario se distinguen los planetas rocosos, hasta Marte y meteoritos inclusive, y el resto de ellos, desde Júpiter en adelante, incluido este.  Estos últimos difieren esencialmente de los primeros en su composición.  Recuérdese que la de Júpiter es mucho más simple que la de los planetas rocosos.  Consta fundamentalmente de hidrógeno, helio, agua, amoniaco y metano, con un núcleo rocoso en su interior.  El hidrógeno que rodea a este núcleo se encuentra en forma de hidrógeno atómico sólido.

También la composición del Sol (y todas las estrellas que brillan) es más simple que la de los planetas rocosos, su estado físico es el de plasma y su contenido está reducido (mayormente) a hidrógeno y helio.  Mas variedad de materiales existe en las estrellas supernovas, donde el primitivo hidrógeno ha evolucionado de la manera que expliqué en otra parte de este trabajo.

En cuanto a los derechos de la evolución estelar, enanas blancas, estrellas de neutrones y agujeros negros, señalaré que la composición de la primera es sencilla en cuanto al numero de “elementos” constituyentes; la segunda ya lo indica su propio nombre, constan de nucleones, particularmente neutrones que están fuertemente empaquetados (muy juntos) por la gravedad.  Una estrella de neutrones puede tener una densidad superior a la del agua, en millones de veces y del mismo orden que la de los núcleos atómicos.   El agujero negro, es un fenómeno aparte, su inmensa fuerza gravitatoria es tal que, ni la luz puede escapar de ella, es decir, su velocidad de escape es superior a 300.000 km/s, y, como según la relatividad, nada es en nuestro Universo, superior en velocidad, a la luz, resulta que nada podrá escapar de un agujero negro.

Allí dentro, en el interior del agujero negro, no existen ni el tiempo ni el espacio, es como un objeto que estando en nuestro Universo (deja sentir su fuerza gravitatoria y engulle estrellas), al mismo tiempo, no está aquí. Son muchas las cosas que aún nos queda por dedcubrir.

emilio silvera