Hemos llegado a poder discernir la relación directa que vincula el tamaño, la energía de unión y la edad de las estructuras fundamentales de la Naturaleza. Una molécula es mayor y más fácil de desmembrar que un átomo; lo mismo podemos decir de un átomo respecto al núcleo atómico, y de un núcleo con respecto a los quarks que contiene.
La cosmología sugiere que esta relación resulta del curso de la historia cósmica, que los quarks se unieron primero, en la energía extrema del Big Bang original, y que a medida que el Universo se expandió, los protones y neutrones compuestos de quarks se unieron para formar núcleos de átomos, los cuales, cargados positivamente, atrajeron a los electrones cargados con electricidad negativa estableciéndose así como átomos completos, que al unirse formaron moléculas.
Si es así, cuanto más íntimamente examinemos la Naturaleza, tanto más lejos hacia atrás vamos en el tiempo. Alguna vez he puesto el ejemplo de mirar algo que nos es familiar, el dorso de la mano, por ejemplo, e imaginemos que podemos observarlo con cualquier aumento deseado.
Con un aumento relativamente pequeño, podemos ver las células de la piel, cada una con un aspecto tan grande y complejo como una ciudad, y con sus límites delineados por la pared celular. Si elevamos el aumento, veremos dentro de la célula una maraña de ribosomas serpenteando y mitocondrias ondulantes, lisosomas esféricos y centríolos, cuyos alrededores están llenos de complejos órganos dedicados a las funciones respiratorias, sanitarias y de producción de energía que mantienen a la célula.
Ya ahí tenemos pruebas de historia. Aunque esta célula particular solo tiene unos pocos años de antigüedad, su arquitectura se remonta a más de mil millones de años, a la época en que aparecieron en la Tierra las células eucariota o eucarióticas como la que hemos examinado.
Para determinar dónde obtuvo la célula el esquema que le indicó como formarse, pasemos al núcleo y contemplemos los delgados contornos de las macromoléculas de ADN segregadas dentro de sus genes. Cada una contiene una rica información genética acumulada en el curso de unos cuatro mil millones de años de evolución.
Almacenado en un alfabeto de nucleótidos de cuatro “letras”- hecho de moléculas de azúcar y fosfatos, y llenos de signos de puntuación, reiteraciones para precaver contra el error, y cosas superfluas acumuladas en los callejones sin salida de la historia evolutiva-, su mensaje dice exactamente cómo hacer un ser humano, desde la piel y los huesos hasta las células cerebrales.
Si elevamos más el aumento veremos que la molécula de ADN está compuesta de muchos átomos, con sus capas electrónicas externas entrelazadas y festoneadas en una milagrosa variedad de formas, desde relojes de arena hasta espirales ascendentes como largos muelles y elipses grandes como escudos y fibras delgadas como puros. Algunos de esos electrones son recién llegados, recientemente arrancados átomos vecinos; otros se incorporaron junto a sus núcleos atómicos hace más de cinco mil millones de años, en la nebulosa de la cual se formó la Tierra.
Si elevamos el aumento cien mil veces, el núcleo de un átomo de carbono se hinchará hasta llenar el campo de visión. Tales núcleos átomos se formaron dentro de una estrella que estalló mucho antes de que naciera el Sol. Si podemos aumentar aún más, veremos los tríos de quarks que constituyen protones y neutrones.
Los quarks han estado unidos desde que el Universo sólo tenía unos pocos segundos de edad y ahora están en nosotros y en todos los objetos del universo, chicos o grandes, todo lo material está hecho de Quarks y Leptones desde una bacteria hasta una galaxia. Por supuesto, también nuestro cerebro y las neuronas que crean pensamientpos.
Al llegar a escalas cada vez menores, también hemos entrado en ámbitos de energías de unión cada vez mayores. Un átomo puede ser desposeído de su electrón aplicando sólo unos miles de electrón-voltios de energía. Sin embargo, para dispersar los nucleones que forman el núcleo atómico se requieren varios millones de electrón-voltios, y para liberar los quarks que constituyen cada nucleón se necesitaría cientos de veces más energía aún.
Introduciendo el eje de la historia, esta relación da testimonio del pasado de las partículas: las estructuras más pequeñas, más fundamentales están ligadas por niveles de energía mayores porque las estructuras mismas fueron forjadas en el calor del Big Bang.
Esto implica que los aceleradores de partículas, como los telescopios, funcionen como máquinas del tiempo. Un telescopio penetra en el pasado en virtud del tiempo que tarda la luz en desplazarse entre las estrellas; un acelerador recrea, aunque sea fugazmente, las condiciones que prevalecían en el Universo primitivo.
Hemos llegado a dominar técnicas asombrosas que nos facilitan ver aquello que, prohibido para nuestro físico, sólo lo podemos alcanzar mediante sofisticados aparatos que bien nos introduce en el universo microscópico de los átomos, o, por el contrario nos llevan al Universo profundo y nos enseña galaxias situadas a cientos y miles de millones de años-luz de la Tierra.
Cuando vemos esos objetos cosmológicos lejanos, cuando estudiamos una galaxia situada a 100.000 mil años-luz de nosotros, sabemos que nuestros telescopios la pueden captar gracias a que la luz de esa galaxia, viajando a 300.000 Km/s llegó a nosotros después de ese tiempo, y, muchas veces, no es extraño que el objeto que estamos viendo ya no exista o si existe, que su conformación sea diferente habiéndose transformado en diferentes transiciones de fase que la evolución en el tiempo ha producido.
Los Quarks y los Leptones forman la materia, los Bosones son intermediarios p transmisores de las fuerzas. Así está especificado en el Modelo Estándar de la Física e Partículas
En el ámbito de lo muy pequeño, vemos lo que está ahí en ese momento pero, como se explica más arriba, en realidad, también nos lleva al pasado, a los inicios de cómo todo aquello se formó y con qué componentes que, en definitiva, son los mismos de los que están formadas las galaxias, las estrellas y los planetas, una montaña y un árbol y, cualquiera de nosotros que, algo más evolucionado que todo lo demás, podemos contarlo aquí. Pero todo, sin excepción, está hecho de Quarks y Leptones.
Estas y otras muchas maravillas son las que nos permitirán, en un futuro relativamente cercano, que podamos hacer realidad muchos sueños largamente dormidos en nuestras mentes.
“El 14 de septiembre de 2015 el detector de LIGO en Livingston detectó una señal. Siete milisegundos más tarde el detector de LIGO en Hanford detectó la misma señal. Dichas señales son casi idénticas a las que predicen las simulaciones de relatividad numérica mediante supercomputadores para la fusión de dos agujeros negros de masa estelar. Un suceso que ocurrió hace mil trescientos millones de años que ahora podemos observar por primera vez desde la Tierra gracias a Advanced LIGO (AdvLIGO).”
Las ondas gravitatorias recién descubiertas ilustran la deformación del tejido del universo, un concepto aplicable a los viajes más rápidos que la luz, aunque solo según la teoría.
Volar a las estrellas arrugando el espacio Ricky Brian / Patrick Montgomery Paramount
Javier Yanes.
warp drives de Alcubierre
Mientras elaboraba su tesis doctoral en la Universidad de Gales, el físico mexicano Miguel Alcubierre veía un capítulo de Star Trek: La nueva generación, cuando tuvo una idea. Las naves de la serie se desplazan por el espacio a velocidades superiores a la de la luz gracias a sus warp drives o impulsores de curvatura, sistemas capaces de deformar el tejido del espacio-tiempo. ¿Sería posible proporcionar a los protagonistas de la serie un modelo teórico real que encajara con las ecuaciones de la relatividad general de Einstein?
Alcubierre, que hoy dirige el Instituto de Ciencias Nucleares de la Universidad Nacional Autónoma de México, lo consiguió. Y a la hora de poner un nombre a su hipotético propulsor, a sugerencia de su director de tesis, el físico hizo “un guiño a la ciencia ficción” y mantuvo el término warp drive, según cuenta a EL ESPAÑOL. Sin embargo, y desde la publicación de su teoría en 1994, la comunidad física se refiere a su propuesta como Alcubierre drive.
Arrugas en la alfombra cósmica
Esta semana hemos asistido al anuncio histórico de la primera detección de ondas gravitatorias, pequeñas sacudidas en el tejido del espacio-tiempo tal como lo definió Albert Einstein en su teoría general de la relatividad. Estas ondas creadas por las masas son normalmente minúsculas e indetectables; pero las producidas por un cataclismo entre objetos inmensamente pesados, como la fusión de dos agujeros negros, pueden llegar a cazarse en la Tierra gracias a la ínfima variación de longitud que provocan en un túnel alargado, lo que modifica el tiempo que la luz tarda en recorrerlo de un extremo a otro.
En esta deformación del espacio-tiempo se basa también la idea de Alcubierre. El físico mexicano imaginó una nave rodeada por una burbuja que es capaz de contraer el espacio-tiempo por delante de ella y expandirlo por detrás, avanzando en su arruga espacio-temporal como un surfista navega sobre una ola. Así, si queremos volar a una estrella lejana, no es la nave la que se aproxima a su destino, sino este el que se acerca gracias a esos pliegues en la alfombra cósmica.
Recreación de estos hipotéticos viajes. Les Bossinas NASA
“El objeto se mueve sin moverse en realidad”, dice el físico; “es el espacio el que hace el trabajo”. El modelo permite, según su autor, “viajar a velocidades arbitrarias, incluso mayores que las de la luz”, ya que en realidad la nave no quebranta este límite físico respecto a su entorno local. Y en un experimento mental ya clásico sobre los viajes a velocidad superluminal, si los tripulantes de la nave encendieran los faros delanteros, verían el chorro de luz proyectado hacia delante, ya que la luz emitida seguiría moviéndose más aprisa que el vehículo dentro de la burbuja.
Si finalmente logramos que el Espacio sew “arrugue” y venga a nosotros, haremos el viaje más rápido, incluso “burlando” a la velocidad de la Luz (que no venciéndola).
La publicación del modelo de Alcubierre provocó a su vez una onda expansiva en su propio tejido espacio-temporal, el de la física teórica a finales del siglo XX. Desde entonces, las cinco páginas del estudio del mexicano han sido descargadas de la web de la revista Classical and Quantum Gravity más de 25.000 veces, y su trabajo ha sido citado en más de un centenar de artículos, además de haber motivado obras de ciencia ficción y locas especulaciones en la imaginación popular.
Energía negativa y materia exótica:
La materia exótica y la energía negativa están relacionadas a través de conceptos físicos que desafían nuestra comprensión de la materia y del Espacio-Tiempo. La materia exótica, que incluye conceptos como la energía oscura y la masa negativa, podría ser la fuente de la expansión acelerada del universo y de la curvatura negativa. La energía negativa, por otro lado, es un concepto que se utiliza para explicar fenómenos cuánticos y la naturaleza de ciertos campos, como el gravitatorio.
El concepto de materia exótica:
Energía oscura:
Se considera una forma de energía con densidad de energía negativa, responsable de la expansión acelerada del universo.
Masa negativa:
Es una propiedad de la materia hipotética que podría tener efectos contrarios a la gravedad, como la creación de agujeros de gusano o la expansión del universo.
La fuerza de Casimir es una fuerza atractiva que se produce entre dos superficies separadas por un vacío, debido a las fluctuaciones cuánticas del campo electromagnético Este fenómeno fue predicho por el físico holandés Hendrik Casimir en 1948 y ha sido confirmado.
Claro que, en física, de la teoría a la práctica a menudo media una distancia tan insalvable como la del espacio interestelar. El primer problema fundamental de la burbuja de Alcubierre es la propia burbuja. “Para producir esta distorsión del espacio se requiere de algo que llamamos energía negativa, que es esencialmente equivalente a la anti-gravedad”, apunta el físico; “y hasta donde sabemos, eso no existe”, zanja. En la física clásica, la que podemos experimentar en nuestra vida diaria, hablar de energía negativa es un concepto tan absurdo como tratar de encender la oscuridad. “Pero en el extraño mundo de la mecánica cuántica, de hecho se predice la existencia de la energía negativa”, precisa a este diario el matemático de la Universidad Estatal Central de Connecticut (EEUU) Thomas Roman.
Según explica Roman, en 1992 el físico Stephen Hawking demostró que la energía negativa es un elemento necesario para viajar hacia atrás en el tiempo. En física, la idea de desplazarse más rápido que la luz está íntimamente ligada a la del viaje temporal, ya que sería posible sentarnos en una posición en la que viéramos cómo una señal transmitida a velocidad superluminal llega a su destinatario antes de haber sido enviada por el emisor. La energía negativa nace de la aplicación de estas condiciones a las ecuaciones de Einstein; por lo tanto, si se coloca en las fórmulas no sólo rompe la barrera de la luz, aunque sea en el papel, sino que también nos regala un billete al pasado.
Un investigador de la Universidad de British Columbia (UBC) dice haber desarrollado un modelo de máquina matemática para viajar en el tiempo.
Ben Tippett, profesor de Matemáticas y Física en el campus Okanagan de la UBC, publicó recientemente un estudio sobre la viabilidad del viaje en el tiempo. Tippett, cuyo campo de especialización es la teoría de Einstein de la relatividad general, estudia los agujeros negros y la ciencia ficción cuando no está enseñando. Usando matemáticas y física, él ha creado una fórmula que describe un método para viajar en el tiempo.
«La gente piensa en el viaje en el tiempo como algo de ficción», dice Tippett, que ha publicado su trabajo en Classical and Quantum Gravity. «Y tendemos a pensar que no es posible porque realmente no lo hacemos, pero, matemáticamente, es posible».
Desde que HG Wells publicó su libro ‘Time Machine’ en 1885, la gente ha tenido curiosidad por viajar en el tiempo, y los científicos han trabajado para resolver o refutar la teoría, dice. En 1915 Albert Einstein anunció su teoría de la relatividad general, indicando que los campos gravitacionales son causados por las distorsiones en la tela del espacio y del tiempo.
Captadas las ondas gravitatorias del choque de dos agujeros negros
Más de 100 años después, la Colaboración Científica LIGO -un equipo internacional de institutos de física y grupos de investigación- anunció la detección de ondas gravitatorias generadas por colisiones entre agujeros negros a miles de millones de años luz, confirmando la teoría de Einstein.
El tiempo debe ser simultáneo a las otras tres dimensiones
La división del espacio en tres dimensiones, con el tiempo en una dimensión separada por sí misma, es incorrecta, dice Tippett. Las cuatro dimensiones deben ser imaginadas simultáneamente, donde diferentes direcciones están conectadas, como un continuo espacio-tiempo.
Utilizando la teoría de Einstein, Tippett dice que la curvatura del espacio-tiempo explica las órbitas curvas de los planetas.
En el espacio-tiempo «plano» -o no curvado-, los planetas y las estrellas se moverían en líneas rectas. En las proximidades de una estrella masiva, la geometría espacio-tiempo se curva y las trayectorias rectas de los planetas cercanos seguirán la curvatura y se doblarán alrededor de la estrella.
«La dirección temporal de la superficie espacio-tiempo también muestra curvatura, hay evidencia que muestra que cuanto más cerca de un agujero negro estemos, el tiempo se mueve más lento», dice Tippett. «Mi modelo de una máquina del tiempo usa el espacio-tiempo curvado-para doblar el tiempo en un círculo para los pasajeros, no en una línea recta. Ese círculo nos remonta en el tiempo».
Si bien es posible describir este tipo de viajes en el tiempo usando una ecuación matemática, Tippett duda de que alguien nunca construirá una máquina para que funcione.
Las matemáticas, específicamente las de la Teoría de la Relatividad General, proporcionan el marco para entender cómo podría ser posible viajar en el tiempo. Conceptos como los agujeros de gusano y la dilatación del tiempo (en el que el tiempo se percibe más lento a velocidades cercanas a la luz) se basan en ecuaciones matemáticas que describen la curvatura del espacio-tiempo.
Sí, las matemáticas han demostrado que, teóricamente, es posible viajar en el Tiempo. Diversos modelos matemáticos han permitido explorar la viabilidad de viajes temporales, incluyendo la posibilidad de viajar al futuro, incluso sin una máquina del tiempo. Además, algunas teorías matemáticas sugieren que podría ser posible viajar al pasado, aunque con ciertas limitaciones y posibles paradojas.
Las ecuaciones de campo de Einstein son la representación matemática de la curvatura del espacio tiempo ocasionada por materia y energía.
Pero aunque la física cuántica teórica permita la existencia de esta energía, no es tan fácil obligar a la realidad a que lo acepte. Según la relatividad especial de Einstein, masa y energía son dos caras de una misma moneda (la famosa E=mc2), por lo que la energía negativa equivale a un tipo de materia que no tenemos, y que los físicos denominan “exótica”. “Las curvaturas del warp drive solo pueden ser causadas por este tipo de materia hipotética”, señala a EL ESPAÑOL Carlos Barceló, físico teórico del Instituto Astrofísico de Andalucía del CSIC (IAA). Barceló expone que “la materia que conocemos no tiene estas características”; pero del mismo modo que la física de partículas predice la energía negativa, “se ha especulado que quizá podría haber situaciones cuánticas en las que se genere materia de este tipo”.
Una nave sin control
El de la energía negativa, o la materia exótica, no es el único obstáculo en el modelo de Alcubierre. Su propio autor opone una segunda gran pega, el llamado “problema del horizonte”. Dado que el frente de la burbuja se desplazaría a una velocidad aparente mayor que la de la luz, los pilotos de la nave no podrían acceder a él, y esto tendría consecuencias bastante indeseables. Por un lado, no podrían enviar señales para detener o dirigir la burbuja, por lo que continuarían viajando indefinidamente a menos que la pompa estallara o alguien desde fuera hiciera algo al respecto.
¿Cómo serían este tipo de viajes? NASA
Pero también, y dado que los tripulantes de la nave estarían desconectados del exterior de la burbuja, si fuera posible crear una infraestructura que permitiera el desplazamiento –como han sugerido algunos teóricos–, ésta no podría ser colocada durante el propio viaje, como hacían los constructores de los ferrocarriles que iban tendiendo las vías a medida que la locomotora avanzaba. En este caso la locomotora no tendría puertas para salir al exterior, por lo que las vías deberían ser colocadas por un equipo que viajara a pie, o en este caso en una nave convencional, y por tanto muy lenta.
“Todo apunta a que la naturaleza rechaza la formación de burbujas como las de Alcubierre”, concluye Barceló. El físico del IAA agrega que además existen “problemas de inestabilidad“: en concreto, las altas temperaturas en el interior de la burbuja no solo la destruirían, sino que incinerarían todo su contenido, nave y tripulantes. El propio Alcubierre admite que su experimento mental no tiene “ninguna aplicación práctica hasta la fecha, y no la puede haber mientras los problemas mencionados no se puedan resolver, si es que tienen solución, que pueden muy bien no tenerla”.
Imposible, pero nada lo es
Y a pesar de todas las objeciones en contra, la cuestión de los propulsores de curvatura continúa provocando encendidas discusiones entre los físicos. Para los teóricos es puramente una manera de explotar las posibilidades de las ecuaciones, pero las conjeturas nacidas a raíz de algunos resultados experimentales afloran periódicamente a la luz pública, para entusiasmo de unos e indignación de otros.
Hace pocos meses, un grupo heterodoxo de la NASA llamado Laboratorio de Física de Propulsión Avanzada, o Eagleworks, causó una conmoción al sugerir que había construido un tipo de propulsor llamado EmDrive que se opone a toda la lógica física y en el que algunos teóricos ven la posibilidad de crear burbujas de distorsión del espacio-tiempo. El asunto fue tan comentado en los medios como irritante para la propia NASA, que prohibió a los ingenieros de Eagleworks pronunciarse públicamente. A raíz de aquello, la agencia archivó los artículos de su web relacionados con la idea del warp drive, reemplazándolos por una declaración que afirma: “Warp Drive o cualquier otro término para viajes más rápidos que la luz aún no son más que una especulación. El grueso del conocimiento científico concluye que esto es imposible”.
Al menos por el momento, deberemos conformarnos con posibilidades más al alcance de la tecnología. La NASA investiga activamente en el campo de los propulsores iónicos, una opción que no permitirá los viajes interestelares pero sí romper nuestras fronteras actuales, y que para Alcubierre “son de momento los sistemas más prometedores”. En un futuro muy lejano, imagina el físico, tal vez lleguemos a construir cohetes de antimateria; “pero de momento es ciencia ficción”, concluye. Respecto a lo que pueda depararnos el futuro, nos queda el consuelo de Barceló: “En ciencia natural nunca se puede decir de nada que es imposible”.
Publica: Emilio Silvera V.
El reportaje ha sido mejorado con algunas imágenes y comentarios.
Muchas veces hemos hablado del electrón que rodea el núcleo, de su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; tiene una masa de solamente 1/1.836 de la del núcleo más ligero (el del hidrógeno). La importancia del electrón es vital en el universo. Simplemente con que su carga fuera distinta en una pequeña fracción… ¡El mundo que nos rodea sería muy diferente! Y, ni la vida estaría presente en el Universo.
La Radiación de Cuerpo Negro no puede ser explicada clásicamente
Experimentos con electrones y positrones nos enseñaron cómo funciona el universo
Pero busquemos los “cuantos”. La física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había estado intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menor intensidad, por los objetos más fríos (radiación de cuerpo negro).
En esta gráfica a cada temperatura el cuerpo negro emite una cantidad estándar de energía que está representada por el área bajo la curva en el intervalo.
Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si utilizamos las leyes de la termodinámica para calcular la intensidad de una radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano y, desde luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para menores. Esta longitud de onda característica es inversamente proporcional a la temperatura absoluta de objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273º bajo cero). Cuando a 1.000º C un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.
Hierro al rojo vivo
Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda, y por tanto, proporcional a la frecuencia de radiación emitida. La fórmula es E = hν, donde E es la energía del paquete, ν es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo esta nueva condición, el resultado coincidió perfectamente con las observaciones.
Dualidad inda partícula
Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: él sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene energía, sino que cualquier cosa con energía se debe comportar como una “onda” que se extiende en una cierta región del espacio, y que la frecuencia ν de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse como una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilantes de campos de fuerza, pero esto lo veremos más adelante.
La primera es la imagen obtenida por los físicos en el laboratorio y, la segunda es la Imagen ilustrativa de la dualidad onda-partícula, con la cual se quiere significar cómo un mismo fenómeno puede tener dos percepciones distintas. Lo cierto es que, el mundo de lo muy pequeño es extraño y no siempre lo podemos comprender.
El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de de Broglie. Poco después, en 1926, Edwin Schrödinger descubrió cómo escribir la teoría ondulatoria de de Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de ondas cuánticas”.
Está bien comprobado que la mecánica cuántica funciona de maravilla…, pero, sin embargo, surge una pregunta muy formal: ¿Qué significan realmente estas ecuaciones?, Qué es lo que están describiendo? Cuando Isaac Newton, allá en 1867 formuló cómo debían moverse los planetas alrededor del Sol, estaba claro para todo el mundo qué significaban sus ecuaciones: que los planetas estaban siempre en una posición bien definida des espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades en el tiempo.
Pero para los electrones todo es diferente. Su comportamiento parece estar envuelto en misterio. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?
El “universo de las partículas nunca ha sido fácil de comprender y su rica diversidad, nos habla de un vasto “mundo” que se rige por su propias reglas que hemos tenido que ir conociendo y seguimos tratando de saber, el por qué de esos comportamientos extraños y a veces misteriosos. Así, la pregunta anterior, de ¿Qué puede significar todo eso?…
La pudo contestar Niels Bohr, de forma tal que, con su explicación se pudo seguir trabajando, y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la interpretación de Copenhague de la mecánica cuántica.
Las leyes de la mecánica cuántica han sido establecidas con mucha precisión; permite cómo calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas de manera simultánea. Por ejemplo, podemos determinar la velocidad de una partícula con mucha precisión, pero entonces no sabremos exactamente dónde se encuentra; o a la inversa, podemos determinar la posición con precisión, pero entonces su velocidad queda mal definida. Si una partícula tiene espín (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.
—
No es fácil explicar de forma sencilla de dónde viene esta incertidumbre, pero existen ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar. Para afinar un instrumento musical se debe escuchar una nota durante un cierto intervalo de tiempo y compararla, por ejemplo, con un diapasón que debe vibrar también durante un tiempo. Notas muy breves no tienen bien definido el tono.
Para que las reglas de la mecánica cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuando más grande y más pesado es un objeto, más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica. Me gustaría referirme a esta exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por holismo, y que podría definir como “el todo es más que la suma de sus partes”. Si la física nos ha enseñado algo es justo lo contrario. Un objeto compuesto de un gran número de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (partículas); basta que sepamos sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes. Por ejemplo, la constante de Planck, h, que es igual a 6’626075… × 10-34 Julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.
¿Qué sería de nosotros sin los amaneceres, y, la Tierra como sería sin luz?
Mucho ha sido el camino andado hasta nuestros tratando de conocer los secretos de la naturaleza que, poco a poco, nos van siendo familiares. Sin embargo, es más el camino que nos queda por recorrer. Es mucho lo que no sabemos y, tanto el micro-mundo como en el vasto mundo de muy grande, hay que cosas que aún, no hemos llegado a comprender.
El detector ATLAS funcionó, y rastrearon las partículas subatómicas…
Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los “trucos” ingeniosos descubiertos por Werner Heisemberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros como Erwin Schrödinger siempre presentaron serias objeciones a esta interpretación. Quizá funcione bien, pero ¿dónde está exactamente el electrón?, ¿en el punto x o en el punto y? En pocas palabras, ¿dónde está en realidad?, y ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.
Es cierto que, localizar y saber en qué punto exacto están esas pequeñas partículas… no es fácil
La mecánica cuántica puede ser definida o resumida así: en principio, con las leyes de la naturaleza que conocemos ahora se puede predecir el resultado de cualquier experimento, en el sentido que la predicción consiste en dos factores: el primer factor es un cálculo definido con exactitud del efecto de las fuerzas y estructuras, tan riguroso como las leyes de Isaac Newton para el movimiento de los planetas en el Sistema Solar; el segundo factor es una arbitrariedad estadística e incontrolable definida matemáticamente de forma estricta. Las partículas seguirán una distribución de probabilidades dadas, primero de una forma y luego de otra. Las probabilidades se pueden calcular utilizando la ecuación de Schrödinger de función de onda (Ψ) que, con muchas probabilidades nos indicará el lugar probable donde se encuentra una partícula en un momento dado.
Función de onda para una partícula bidimensional encerrada en una caja. Las líneas de nivel sobre el plano inferior están relacionadas con la probabilidad de presencia.
Muchos estiman que esta teoría de las probabilidades desaparecerá cuando se consiga la teoría que explique, de forma completa, todas las fuerzas; la buscada teoría del todo, lo que implica que nuestra descripción actual incluye variables y fuerzas que (aún) no conocemos o no entendemos. Esta interpretación se conoce como hipótesis de las variables ocultas.
Albert Einstein, Nathan Rosen y Boris Podolski idearon un “Gedankenexperiment”, un experimento hipotético, realizado sobre el papel, para el cual la mecánica cuántica predecía como resultado algo que es imposible de reproducir en ninguna teoría razonable de variables ocultas. Más tarde, el físico irlandés John Stewar Bell consiguió convertir este resultado en un teorema matemático; el teorema de imposibilidad.
(“El teorema de Bell o desigualdades de Bell se aplica en mecánica cuántica para cuantificar matemáticamente las implicaciones planteadas teóricamente en la paradoja de Einstein-Podolsky-Rosen y permitir así su demostración experimental. Debe su nombre al científico norirlandésJohn S. Bell, que la presentó en 1964.
El teorema de Bell es un metateorema que muestra que las predicciones de la mecánica cuántica (MC) no son intuitivas, y afecta a temas filosóficos fundamentales de la física moderna. Es el legado más famoso del físicoJohn S. Bell. El teorema de Bell es un teorema de imposibilidad, que afirma que:
Ninguna teoría física de variables ocultas locales puede reproducir todas las predicciones de la mecánica cuántica.”)
¿Cómo saber el número que saldrá cuando lanzamos los dados?
¡¡La mecánica cuántica!!, o, la perplejidad de nuestros sentidos ante lo que ese “universo cuántico” nos ofrece que, generalmente, se sale de lo que entendemos por sentido común. Ahí, en el “mundo” de los objetos infinitesimales, suceden cosas que no siempre podemos comprender. Y, como todo tiene una razón, no dejamos de buscarla en cada uno de aquellos sorprendentes sucesos que en ese lugar se producen. Podríamos llegar a la conclusión de que, la razón está en todo y solo la encontramos una vez que llegamos a comprender, mientras tanto, todo nos resulta extraño, irrazonable, extramundano y, algunas veces…imposible. Sin embargo, ahí está. Dos elementos actúan de común acuerdo para garantizar que no podamos descorrer el velo del futuro, de lo que será después (podemos predecir aproximaciones, nunca certezas), el principal de esos elementos es la ignorancia nunca podremos saber el resultado final de éste o aquél suceso sin tener la certeza de las condiciones iniciales. En la mayoría de los sistemas físicos son, en mayor o menor medida dada su complejidad, del tipo caótico es tal que, el resultado de las interacciones entre elementos son sumamente sensibles a pequeñísimas variaciones de los estados iniciales que, al ser perturbados mínimamente, hacen que el suceso final sea y esté muy alejado del que se creía al comienzo.
En su obra Materia y memoria, Henri Bergson decía:
“La percepción, en su conjunto, tienen su verdadera razón de ser en la tendencia del cuerpo a moverse”
Nosotros hablamos de los cinco sentidos de los que nos valemos para tener una percepción del mundo que nos rodea. Sabemos, que muchos de los animales que pueblan nuestro planeta tienen algunos de esos sentidos mucho más desarrollados que nosotros, y, sin embargo, es nuestra especie la que prevalece como superior de todas las demás. Nuestras mentes, han llegado a desarrollar un mayor y más completo conjunto de conexiones neuronales que han posibilitado una más amplia consciencia del mundo que nos rodea, de la Naturaleza.
La percepción, los sentidos y los pensamientos… Para poder entender la conciencia como proceso es preciso que entendamos cómo funciona nuestro cerebro, su arquitectura y desarrollo con sus funciones dinámicas. Lo que no está claro es que la conciencia se encuentre causalmente asociada a ciertos procesos cerebrales pero no a otros.
El cerebro humano -hay que reconocerlo-, es especial; su conectividad, su dinámica, su forma de funcionamiento, su relación con el cuerpo y con el mundo exterior, no se parece a nada que la Ciencia conozca. Tiene un carácter único y ofrecer una imagen fidedigna del cerebro no resulta nada fácil; es un reto tan extraordinario que no estamos preparados para cumplir en este momento. Estamos lejos de ofrecer esa imagen completa, y sólo podemos dar resultados parciales de esta increíble maravilla de la naturaleza.
Nuestro cerebro adulto, con poco más de 1,5 Kg de peso, contiene unos cien mil millones de células nerviosas o neuronas. La parte o capa ondulada más exterior o corteza cerebral, que es la parte del cerebro de evolución más reciente, contiene alrededor de treinta millones de neuronas y un billón de conexiones o sinapsis. Si contáramos una sinapsis cada segundo, tardaríamos 32 millones de años en acabar el recuento. Si consideramos el número posible de circuitos neuronales, tendremos que habérnoslas con cifras hiper-astronómicas. Un 10 seguido de, al menos, un millón de ceros (en comparación, el número de partículas del universo conocido asciende a 1079 “tan sólo” un 10 seguido de 79 ceros). ¡A que va a resultar que no somos tan insignificantes!
Con tan enorme cantidad de circuitos neuronales, ¿podremos algún día ser capaces de descifrar todos los secretos de nuestro universo? ¿De qué seremos capaces cuando podamos disponer de un cerebro totalmente evolucionado?
¡Tan frágil y tan fuerte! En tan pequeño conjunto reside el secreto mejor guardado por la Naturaleza que hizo posible, ese asombroso viaje que va, desde la materia inerte hasta los pensamientos. Han sido necesarios dies mil millones de años para que, las estrellas, pudieran fabricar los elementos bioquímicos necesarios para hacer posible tal transición que, por mucho que la queremos comprender…
El límite de lo que podremos conseguir tiene un horizonte muy lejano. Desde hablar o comunicarnos sin palabras sonoras -no es ninguna broma- , a la auto-transportación. Ahora mismo, simplemente con el pensamiento, podemos dar instrucciones a máquinas que obedecen nuestras órdenes. Sí, somos pura energía pensante, el poder de la mente no está totalmente desarrollado y, simplemente es cuestión de tiempo. Creo que no habrá límite alguno; el cuerpo que ahora nos lleva de un lugar a otro, ya no será necesario, y como los fotones que no tienen masa… ¿Podremos desplazarnos entre las estrellas a velocidades superl-umínicas? Mi imaginación se desboca y va mucho más allá de lo que la razón aconseja.
Creo que estoy corriendo demasiado en el tiempo, volvamos a la realidad. A veces mi mente se dispara. Lo mismo visito mundos extraordinarios con mares luminosos de neón líquido poblados por seres transparentes, que viajo a galaxias muy lejanas pobladas de estrellas de fusión fría circundadas por nubes doradas compuestas de anti-materia en la que, los positrones medio congelados, se mueven lentamente formando un calidoscopio de figuras alucinantes de mil colores. ¡La mente, qué tesoro!
Es cierto que existen otros mundos y, todos, están dentro de nuestras mentes
Cuando seamos capaces de convertir en realidad todo aquello en lo que podamos pensar, entonces, habremos alcanzado la meta. Para que eso sea una realidad… aún falta y, debemos ser conscientes de que nunca, podremos alcanzarlo todo. Si la Naturaleza y el Universo nos dejo, jugamos con ventaja y con tiempo por delante… ¿Qué se nos puede resistir? Nuestra manera de generar entropía negativa es dejar descendencia, así luchamos contra la desaparición de nuestra especie y de los logros que, durante milenios pudo alcanzar. Dejamos lo que logramos descubrir a los que nos siguen, ellos a los que vendrán después, y así hasta “el infinito”.
El mundo físico se representa gobernado de acuerdo a leyes matemáticas -fuerzas y constantes universales-. Desde este punto de vista, todo lo que hay en el universo físico está realmente gobernado en todos sus detalles por principios matemáticos, quizá por ecuaciones tales como las que describen nuestras mejores teorías.
Lo más seguro es que la descripción real del mundo físico esté pendiente de matemáticas futuras, aún por descubrir, fundamentalmente distintas de las que ahora tenemos. Llegarán nuevos Gauss, Riemann, Euler, Ramanujan, Cantor…, que con sus frescas y nuevas ideas, transformarán el pensamiento matemático y nuestra manera de ver el mundo.
¿Es, entonces, la Naturaleza matemática? Bueno, yo no me atrevería a negarlo… del todo. Una gran parte sí que lo es.
Sí, se podría decir que la Naturaleza está intrínsicamente ligada a las matemáticas, ya que los patrones y estructuras que encontramos en el mundo natural a menudo se describen y modelan utilizando conceptos matemáticos. Desde las proporciones de los seres vivos hasta las formas fractales en las rocas, las matemáticas nos ayudan a entender la organización y belleza de la naturaleza.
Ejemplos de matemáticas en la naturaleza:
Secuencia de Fibonacci:
Esta secuencia numérica (0, 1, 1, 2, 3, 5, 8, …) aparece en la disposición de las hojas de las plantas, en las espirales de las conchas de los caracoles, en la flor de girasol y en la ramificación de los árboles.
Proporción áurea (1,618):
Se encuentra en las proporciones de las estructuras de los seres vivos, como las proporciones de las manos, las de un cuerpo humano o incluso los anillos de un árbol.
Para llegar a comprenderlo, antes, tendremos que haber descifrado las funciones modulares de los cuadernos perdidos de Ramanujan, o por ejemplo, el verdadero significado del número 137, ése número puro adimensional que encierra los misterios del electrón (e–) -electromagnetismo -, de la constante de Planck (h) – el cuanto de acción – y de la luz (c) -la relatividad-, además de otros muchos secretos que nos quedan por desvelar.
Los resultados son lentos, no se avanza con la rapidez que todos deseamos. Poincaré expuso su conjetura para que el mundo la pudiera desvelar y no ha sido posible en más de un siglo, hasta que llegó Perelman para resolverla. Riemann expuso su geometría del espacio curvo, y hasta 60 años más tarde no fue descubierta por Einstein para hacer posible su formulación de la relatividad general, donde describe cómo las grandes masas distorsionan el espacio y el tiempo por medio de la fuerza de gravedad que generan para dibujar la geometría del Universo.
Rebote cuántico de la función de ondas del universo ψ para un espacio-tiempo de Friedmann-Robertson-Walker con campo escalar ϕ. v corresponde al volumen del universo en unidades de Planck. Complejidades como éstas son posibles gracias a los conceptos matemáticos creados por nuestras mentes. Por ejemplo, pensar en las complejas matemáticas topológicas requeridas por la teoría de supercuerdas puede producir incomodidad en muchas personas que, aún siendo físicos, no están tan capacitados para entender tan profundas y complejas ideas.
Bernhard Riemann introdujo muchas nuevas ideas y fue uno de los más grandes matemáticos. En su corta vida (1.826 – 1.866) propuso innumerables propuestas matemáticas que cambiaron profundamente el curso del pensamiento de los números en el planeta Tierra, como el que subyace en la teoría relativista en su versión general de la gravedad, entre otras muchas (superficie de Riemann, etc.). Riemann les enseñó a todos a considerar las cosas de un modo diferente.
La superficie de Riemann asociada a la función holomorfa “tiene su propia opinión” y decide por sí misma cuál debería ser el, o mejor, su dominio, con independencia de la región del plano complejo que nosotros podamos haberle asignado inicialmente. Durante su corta carrera, Riemann hizo avanzar las matemáticas en muchos campos y, en especial:
El Análisis.
La Teoría de números,
La Geometría, y la
Topología
Ahora podemos comprender la complejidad y la belleza de las superficies de Riemann. Este bello concepto desempeña un papel importante en algunos de los intentos modernos de encontrar una nueva base para la física matemática (muy especialmente en la teoría de cuerdas), y al final, seguramente, podremos desvelar el mensaje que encierra.
El caso de las superficies de Riemann es fascinante, aunque desgraciadamente sólo es para iniciados. Proporcionaron los primeros ejemplos de la noción general de variedad, que es un espacio que puede pensarse “curvado” de diversas maneras, pero que localmente (por ejemplo, en un entorno pequeño de cualquiera de sus puntos), parece un fragmento de espacio euclídeo ordinario.
La esfera de Riemann, superficie de Riemann compacta, el teorema de la aplicación de Riemann, las superficies de Riemann y aplicaciones complejas… He tratado de exponer en unas líneas la enorme importancia de este personaje para las matemáticas en general y la geometría en particular, y, para la física.
Lo cierto es que, si miramos hacia atrás en el tiempo, nos encontramos con el hecho cierto de que, Einstein pudo formular su bella teoría de la relatividad general gracias a una conferencia que dio Riemann y que, habiendo pedido ayuda a su amigo Marcel Grosmman, éste le mandara una copia en la que, aparecía el Tensor Métrico de Riemann que le dio a Einstein las herramientas de las que carecía.
En escritos anteriores consideramos dos aspectos de la relatividad general de Einstein, a saber, el principio de la relatividad, que nos dice que las leyes de la física son ciegas a la distinción entre reposo y movimiento uniforme; y el principio de equivalencia, que nos dice de qué forma sutil deben modificarse estas ideas para englobar el campo gravitatorio.
Ahora hay que hablar del tercer ingrediente fundamental de la teoría de Einstein, que está relacionada con la finitud de la velocidad de la luz. Es un hecho notable que estos tres ingredientes básicos puedan remontarse a Galileo; en efecto, parece que fue también Galileo el primero que tuvo una expectativa clara de que la luz debería viajar con velocidad finita, hasta el punto de que intentó medir dicha velocidad. El método que propuso (1.638), que implica la sincronización de destellos de linternas entre colinas distantes, era, como sabemos hoy, demasiado tosco. Él no tenía forma alguna de anticipar la extraordinaria velocidad de la luz.
Esta teoría del electromagnetismo de Maxwell tenía la particularidad de que requería que la velocidad de la luz tuviera un valor fijo y definido, que normalmente se conoce como c, y que un unidades ordinarias es aproximadamente 3 × 108 metros por segundo. Parece que tanto Galileo como Newton tenían poderosas sospechas respecto a un profundo papel que conecta la naturaleza de la luz con las fuerzas que mantienen la materia unida.
Pero la comprensión adecuada de estas ideas tuvo que esperar hasta el siglo XX, cuando se reveló la verdadera naturaleza de las fuerzas químicas y de las fuerzas que mantienen unidos los átomos individuales. Ahora sabemos que tales fuerzas tienen un origen fundamentalmente electromagnético (que vincula y concierne a la implicación del campo electromagnético con partículas cargadas) y que la teoría del electromagnetismo es también la teoría de la luz.
Para entender los átomos y la química se necesitan otros ingredientes procedentes de la teoría cuántica, pero las ecuaciones básicas que describen el electromagnetismo y la luz fueron propuestas en 1.865 por el físico escocés James Clark Maxwell, que había sido inspirado por los magníficos descubrimientos experimentales de Michael Faraday unos treinta años antes y que él plasmó en una maravillosa teoría.
Gracias a la luz, a la radiación electromagnética, podemos saber del universo lejano
Como he dicho antes, la teoría del electromagnetismo de Maxwell tenía la particularidad de que requería que la velocidad de la luz tuviera un valor fijo y definido, que normalmente se conoce como c, y que un unidades ordinarias es aproximadamente 3 × 108 metros por segundo.
Sin embargo, esto nos presenta un enigma si queremos conservar el principio de relatividad. El sentido común nos diría que si se mide que la velocidad de la luz toma el valor concreto c en el sistema de referencia del observador, entonces un segundo observador que se mueva a una velocidad muy alta con respecto al primero medirá que la luz viaja a una velocidad diferente, aumentada o disminuida, según sea el movimiento del segundo observador.
Pero el principio de relatividad exigiría que las leyes físicas del segundo observador (que definen en particular la velocidad de la luz que percibe el segundo observador) deberían ser idénticas a las del primer observador. Esta aparente contradicción entre la constancia de la velocidad de la luz y el principio de relatividad condujo a Einstein (como de hecho, había llevado previamente al físico holandés Hendrick Antón Lorentz y muy en especial al matemático francés Henri Poincaré) a un punto de vista notable por el que el principio de relatividad del movimiento puede hacerse compatible con la constancia de una velocidad finita de la luz.
Baste saber que, como quedó demostrado por Einstein, la luz, independientemente de su fuente y de la velocidad con que ésta se pueda mover, tendrá siempre la misma velocidad en el vacío, c, o 299.792.458 metros por segundo. Cuando la luz atraviesa un medio material, su velocidad se reduce. Precisamente, es la velocidad c el límite alcanzable de la velocidad más alta del universo. Es una constante universal y, como hemos dicho, es independiente de la velocidad del observador y de la fuente emisora.
¿Cómo funciona esto? Sería normal que cualquier persona creyera en la existencia de un conflicto irresoluble entre los requisitos de una teoría como la de Maxwell, en la que existe una velocidad absoluta de la luz, y un principio de relatividad según el cual las leyes físicas parecen las mismas con independencia de la velocidad del sistema de referencia utilizado para su descripción.
¿No podría hacerse que el sistema de referencia se moviera con una velocidad que se acercara o incluso superara a la de la luz? Y según este sistema, ¿no es cierto que la velocidad aparente de la luz no podría seguir siendo la misma que era antes? Esta indudable paradoja no aparece en una teoría, tal como la originalmente preferida por Newton (y parece que también por Galileo), en la que la luz se comporta como partículas cuya velocidad depende de la velocidad de la fuente. En consecuencia, Galileo y Newton podían seguir viviendo cómodamente con un principio de relatividad.
Galileo trató de medir su velocidad
Newton también quiso saber sobre los misterios de la Luz
Pero semejante imagen de la naturaleza de la luz había entrado en conflicto con la observación a lo largo de los años, como era el caso de observaciones de estrellas dobles lejanas que mostraban que la velocidad de la luz era independiente de la de su fuente. Por el contrario, la teoría de Maxwell había ganado fuerza, no sólo por el poderoso apoyo que obtuvo de la observación (muy especialmente en los experimentos de Heinrich Hertz en 1.888), sino también por la naturaleza convincente y unificadora de la propia teoría, por la que las leyes que gobiernan los campos eléctricos, los campos magnéticos y la luz están todos subsumidos en un esquema matemático de notable elegancia y simplicidad.
En la teoría de Maxwell, la luz toma forma de ondas, no de partículas, y debemos enfrentarnos al hecho de que en esta teoría hay realmente una velocidad fija a la que deben viajar las ondas luminosas. El punto de vista geométrico-espaciotemporal nos proporciona una ruta particularmente clara hacia la solución de la paradoja que presenta el conflicto entre la teoría de Maxwell y el principio de relatividad.
El día que podamos comprender lo que es la luz, habremos logrado secar todas las fuentes de nuestra inmensa ignorancia
Este punto de vista espaciotemporal no fue el que Einstein adoptó originalmente (ni fue el punto de vista de Lorentz, ni siquiera, al parecer, de Poincaré), pero, mirando en retrospectiva, podemos ver la potencia de este enfoque. Por el momento, ignoremos la gravedad y las sutilezas y complicaciones asociadas que proporciona el principio de equivalencia y otras complejas cuestiones, que estimo aburrirían al lector no especialista, hablando de que en el espacio-tiempo se pueden concebir familias de todos los diferentes rayos de luz que pasan a ser familias de líneas de universo, etc.
Baste saber que, como quedó demostrado por Einstein, la luz, independientemente de su fuente y de la velocidad con que ésta se pueda mover, tendrá siempre la misma velocidad en el vacío, c, o 299.792.458 metros por segundo. Cuando la luz atraviesa un medio material, su velocidad se reduce. Precisamente, es la velocidad c el límite alcanzable de la velocidad más alta del universo. Es una constante universal y, como hemos dicho, es independiente de la velocidad del observador y de la fuente emisora.
Aquí, en este mismo trabajo, tenemos un ejemplo de lo que la mente es. Comencé hablando de una cosa y, sin que me diera cuenta, he recorrido caminos que, ni pensaba recorrer cuando comencé a escribir.
Desde hace bastante tiempo ya que, los científicos de nuestra especie, a lo largo de la Historia, descubrieron que todo lo que somos está ahí, en el complejo órgano que llamamos cerebro. En ese “universo cognitivo” donde residen los 86.000 millones de neuronas que realizan fogonazos eléctricos llamados sinapsis en un proceso sin fin.
Aunque es mucho lo que hemos conseguido conocer de nuestro cerebro y su funcionamiento, mucho más es lo que nos queda por conocer. Ahí, en todo ese conglomerado de complejas estructuras que juntas, forman un todo, es de donde surge la Conciencia y, para poder entender como ocurre tal maravilla, debemos antes y es preciso que entendamos primero como funciona el cerebro: su arquitectura, su desarrollo y sus funciones dinámicas, su organización anatómica y la increíble dinámica que llega a generar. Todo ella nos llevará a tener una idea del por qué puede, a partir de está increíble “maquina de la naturaleza” surgir la conciencia.
Lo hemos comentado aquí en muchas ocasiones. El cerebro se cuenta entre los objetos más complicados del Universo y es, sin duda, una de las estructuras más notables que haya podido producir la evolución y, si pensamos que toda esa inmensa complejidad ha tenido su origen en los materiales creados en las estrellas, no tendremos otra opción que la del asombro. ¿A partir de la materia “inerte” llegaron los pensamientos?
Antes incluso del advenimiento de la moderna neurociencia, se sabía ya que el cerebro era necesario para la percepción, los sentimientos y los pensamientos. Lo que no está tan claro es por qué la conciencia se encuentra causalmente asociada a ciertos procesos cerebrales pero no a otros.
En tanto que objeto y sistema, el cerebro humano es especial: su conectividad, su dinámica, su forma de funcionamiento, su relación con el cuerpo al que ordena qué funciones debe desarrollar en cada momento dependiendo de tal o cual situación dada y también su relación con el mundo exterior a él que, por medio de los sentidos, le hace llegar información de todo lo que ocurre para que, pueda ado0ptar en cada momento, las medidas más adecuadas. Su carácter único hace que ofrecer una imagen fidedigna del cerebro, que pueda expresar todo lo que es, se convierta en un reto extraordinario que, en este momento, la ciencia no puede cumplir. Sin embargo, sí que puede, al menos, dar alguna que otra pista de lo que el cerebro y la conciencia puedan llegar a ser y aunque, aún lejos de una imagen completa, sí se puede dar una imagen parcial que siempre será mejor que nada, especialmente si nos da la suficiente información como para tener, una idea aproximada, de lo que el cerebro y la conciencia que surge de él, pueden llegar a ser.
Si nos paramos a pensar en el hecho cierto de que, el cerebro humano adulto, con poco más de un kilo de peso, contiene unos cien mil millones de células nerviosas o neuronas, La capa ondulada más exterior o corteza cerebral, que es la parte del cerebro de evolución más reciente, contiene alrededor de 30 mil millones de neuronas y más de un billón de conexiones o sinapsis. Si contáramos una sinapsis cada segundo, tardaríamos 32 millones de años en completar el recuento. Si consideramos el número posible de circuitos neuronales, tenemos que habérnosla con cifras hiper-astronómicas: 10 seguido de un millón de ceros. No existe en el Universo ninguna otra cosa de la que pueda resultar una cantidad igual. Incluso el número de partículas del universo conocido es de 10 seguido de tan sólo 79 ceros (El número de Eddington). En comparación con el número de circuitos neuronales…¡No es nada!
Santiago Ramón y Cajal fue un científico español y pionero en la neurociencia, famoso por su teoría de la neurona y sus detallados estudios del cerebro. Su trabajo revolucionó la comprensión del sistema nervioso, demostrando que las neuronas son unidades individuales, no una red continua como se creía antes.
El trabajo de Ramón y Cajal en el sistema nervioso:
La teoría de la neurona:
Cajal propuso la teoría de que el sistema nervioso está formado por células individuales (neuronas) que se comunican entre sí a través de sinapsis, no formando una red continua.
El estudio de las neuronas:
A través de técnicas de tinción, Cajal pudo observar la estructura de las neuronas en detalle, incluyendo sus dendritas, axones y sinapsis.
Plasticidad neuronal:
Cajal también reconoció la capacidad de las neuronas para reorganizarse y formar nuevas conexiones después de lesiones, una idea que fue pionera en su época y que ahora es una base fundamental de la neurociencia.
Impacto en la medicina:
El trabajo de Cajal fue fundamental para entender el funcionamiento del cerebro y el sistema nervioso, lo que tuvo un impacto significativo en la medicina y el tratamiento de enfermedades neurológicas.
Su legado:
Ramón y Cajal es considerado el padre de la neurociencia moderna y su trabajo ha influido enormemente en la investigación y el conocimiento del cerebro.
Cajal partió de la hipótesis – no demostrada científicamente hasta los años 1950 – de que las neuronas del cerebro estaban conectadas mediante sinapsis eléctricas que procesaban información-.
El conjunto de modelos del cerebro humano consiste en 300 partes. Se ha dado mayor énfasis a las partes internas del cerebro, tronco cerebral y cerebelo -con las estructuras completamente detalladas, manteniendo la estructura simple. Además de los principales vasos sanguíneos del cerebro, los nervios craneales también están incluidos en el conjunto, emanando de sus orígenes de forma exacta. Este elaborado sistema nervioso central disponible todo el mundo rompe límites y se ajusta perfectamente al cráneo y otras partes del conjunto.
Intrincado laberinto de conexiones sin fin
Aunque es mucho lo que hemos conseguido conocer de nuestro cerebro y su funcionamiento, mucho más es lo que nos queda por conocer. Ahí, en todo ese conglomerado de complejas estructuras que juntas, forman un todo, es de donde surge la Conciencia y, para poder entender como ocurre tal maravilla, debemos antes y es preciso que entendamos primero como funciona el cerebro: su arquitectura, su desarrollo y sus funciones dinámicas, su organización anatómica y la increíble dinámica que llega a generar. Todo ella nos llevará a tener una idea del por qué , a partir de está increíble “maquina” creada por la naturaleza” pudo surgir la conciencia.
“El cerebro es la estructura más compleja y enigmática en el universo. Contiene más neuronas que las estrellas existentes en la galaxia”.
Lo hemos comentado aquí en muchas ocasiones. El cerebro se entre los objetos más complicados del Universo y es, sin duda, una de las estructuras más notables que haya podido producir la evolución y, si pensamos que toda esa inmensa complejidad ha tenido su origen en los materiales creados en las estrellas, no tendremos otra opción que la del asombro. ¿A partir de la materia “inerte” llegaron los pensamientos, la consciencia y los sentimientos?
Antes incluso del advenimiento de la moderna neurociencia, se sabía ya que el cerebro era necesario para la percepción, los sentimientos y los pensamientos. Lo que no está tan claro es por qué la conciencia se encuentra causalmente asociada a ciertos procesos cerebrales pero no a otros.
“La sinapsis es el punto de encuentro y comunicación entre dos neuronas, o entre una neurona y otra célula, como una muscular o glandular. Es la forma mediante la cual viajan los impulsos nerviosos de nuestro cerebro. Imagina tu cerebro como una autopista neuronal por donde tienen que ir a toda velocidad los impulsos que comandan las funciones del cuerpo. En ese contexto, la sinapsis serían puentes que conectan diversos puntos de esa carretera. En palabras sencillas, la sinapsis es ese puente que permite el paso de información de una neurona a otra.”
Espacio entre el extremo de una neurona y otra célula. Los impulsos nerviosos se transmiten habitualmente a la célula vecina por medio de sustancias químicas que se llaman neurotransmisores. La neurona libera los neurotransmisores y otra célula del otro lado de la sinapsis los recibe.
En tanto que objeto y sistema, el cerebro humano es especial: su conectividad, su dinámica, su forma de funcionamiento, su relación con el cuerpo y con el mundo, no se parece a nada que la ciencia conozca. Su carácter único hace que el ofrecer una imagen del cerebro ofrezca un reto extraordinario. Aunque todavía estamos lejos de ofrecer una imagen completa, una imagen parcial siempre será mejor que nada, especialmente si nos da suficiente información como para generar una teoría satisfactoria de la conciencia.
¡Qué complejo es todo esto!
Y pensar que además, existen infinidad de secretos por desvelar, que existen cosas asombrosas que ni conocemos, que la inmensidad del Universo nunca podrá ser abarcada por el conocimiento humano, que siempre seguiremos haciendo preguntas que nadie podrá contestar… Y, entonces pregunto: ¿Qué haríamos si lo supiéramos todo?
Bueno creo que, en ese caso, caeríamos en la dejadez, desaparecería la curiosidad, estaríamos sumergidos en un mar de tristeza, sería el fin de la especie.