lunes, 09 de diciembre del 2019 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¡La Mente! Siempre misteriosa

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo y los pensamientos    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

GALEX: la galaxia de Andrómeda

Una galaxia es simplemente una parte pequeña del universo, nuestro planeta es una mínima fracción infinitesimal de esa galaxia, y nosotros mismos podríamos ser comparados (en relación a la inmensidad del cosmos) con una colonia de bacterias pensantes e inteligentes. Sin embargo, todo forma parte de lo mismo, y aunque pueda dar la sensación engañosa de una cierta autonomía, en realidad todo está interconectado y el funcionamiento de una cosa incide directamente en las demás. Recuerdo aquella película de Travolta: Fenomenón, en la que, en una escena hacía una demostración de poder mental: movía unas gafas de sol que se elevaban en el aire venciendo la gravedad. Al ser preguntado,  ¿Cómo puede hacer eso? Él contestó: “Es sencillo, simplemente es cuestión de relacionarse, de entenderse con el objeto que al fin y alcabo, está hecho de las mismas cosas que nosotros y existe una cierta afinidad que debemos encontrar”. Ya sabeis: “Todas las cosas son” y, con esas simples palabras el sabio, elevó a todas las cosas a la categoría de ser.

Sí, todas las cosas son, pero no de la misma manera y, la materia, en cada tiempo y lugar, estará conformada en un estado que puede comenzar en los simples objetos elementales que todo lo conforman y, en otros, podrá estar evolucionada hasta límites tan incríbles que de ella, pueden llegar a surgir los pensamientos y los sentimientos también.

 Psicoterapia Gestalt Valencia - Clotilde Sarrió

Es tanto lo que llevamos ahí dentro que, de momento, nos cuesta racionalizarlo todo de una manera coherente y que se pudiera considerar, como un todo lógico y controlado. No, no es así y, desde nuestro más profundo yo, a veces, surgen emociones y decisiones que, más tarde, a nosotros mismos nos pueden  sorprender. ¿Cómo es posible eso? ¿Acaso llevamos dentro otro yo que, en ocasiones excepcionales decide por nosotros? Nadie sabe como puede reaccionar ante situaciones inesperadas.

No, no será fácil llegar a dominar ese poder que nuestra intuición nos dice que tenemos…”dormido”. Puede ser que algún día lejos aún en el futuro, podamos despertar y llegar a comprender ese inmenso “universo” de complejidad que nuestra mente es. Entonces, y sólo entonces, podremos hablar de cuestiones más profundas y podremos comprender que, la Naturaleza y nosotros son la misma cosa. Desaparecerán los misterios y no tendremos que hacer preguntas, todas las respuestas estarán ante nosotros.

[clip_image002%255B5%255D.jpg]

Si pensamos en las fuerzas y energías en las que nos encontramos inmersos, pocas dudas pueden caber a estas alturas, el simple hecho de poder estar hablando de estas cuestiones… ¡es un milagro en sí mismo! Desmenuzar los componente del átomo, saber lo que ocurre en el interior profundo de las estrellas, conocer cómo la materia más simple se pueden transmutar, bajo ciertas condiciones, en otros más complejos que dispuestos en la debida proporción darán lugar a la bioquímica de la vida. El camino recorrido ha sido largo y hasta dramático, sin embargo,  hemos llegado más lejos de lo que podría haber pensado un observador inteligente que, desde la segura lejanía, hubiera podido seguir todo el proceso evolutivo desde que nacieron las primeras estrellas hasta que, diez mil millones de años más tarde, surgieron los mundos y la vida.

Después de miles de millones de años de evolución, en este planeta que llamamos Tierra, surgío la complejidad del protoplasma vivo que dio lugar al surgir de aquella primera célula replicante. Mucho, mucho tiempo después, se formaron las consciencias primarias que surgieron en los animales con ciertas estructuras cerebrales de alta complejidad, que podían ser capaces de construir una escena mental, pero con capacidad semántica o simbólica muy limitada y careciendo de un verdadero lenguaje. Todo lo demás llegaría más tarde, el paso del tiempo, la convivencia, las necesidades, la supervivencia y tener que vencer las dificultades que el mundo ponía ante aquellos seres, hizo que sus sentidos se agudizaran y crecieran hasta llegar a comprender, de manera limitada primero y más amplia después, dónde estaban y, posiblemente, hacia dónde se dirigían.

Nosotros, la Mente y el Mundo

La consciencia de orden superior (que floreció en los humanos y presupone la coexistencia de una conciencia primaria) viene acompañada de un sentido de la propia identidad y de la capacidad explícita de construir en los estados de vigilia escenas pasadas y futuras. Como mínimo, requiere una capacidad semántica y, en su forma más desarrollada, una capacidad lingüística.

Los procesos neuronales que subyacen en nuestro cerebro son en realidad desconocidos, y aunque son muchos los estudios y experimentos que se están realizando, su complejidad es tal que de momento los avances son muy limitados. Estamos tratando de conocer la máquina más compleja y perfecta que existe en el universo (al menos de lo que conocemos).

Si eso es así, resultará que después de todo no somos tan insignificantes como en un principio podría parecer, y sólo se trata de tiempo. En su momento y evolucionadas, nuestras mentes tendrán un nivel de conciencia que estará más allá de las percepciones físicas tan limitadas. Para entonces sí estaremos totalmente integrados y formando parte, como un todo, del universo que ahora presentimos.

El carácter especial de la conciencia me hace adoptar una posición que me lleva a decidir que no es un objeto, sino un proceso, y que desde este punto de vista puede considerarse un ente digno del estudio científico perfectamente legítimo. Y, todo eso, a veces, me lleva a pensar en el hecho de que, en lo más profundo de la materia, subyace la memoria que, de manera inexorable, la hace evolucionar hasta llegar a la vida que, no debe ser algo excepcional en el universo, sino que es, lo natural. Si no es así, ¿para qué tánta inmensidad?

La conciencia plantea un problema especial que no se encuentra en otros dominios de la ciencia. En la física y en la química se suelen explicar unas entidades determinadas en función de otras entidades y leyes. Podemos describir el agua con el lenguaje ordinario, pero podemos igualmente describir el agua, al menos en principio, en términos de átomos y de leyes de la mecánica cuántica. Lo que hacemos es conectar dos niveles de descripción de la misma entidad externa (uno común y otro científico de extraordinario poder explicativo y predictivo, ambos niveles de descripción), el agua líquida, o una disposición particular de átomos que se comportan de acuerdo con las leyes de la mecánica cuántica (se refiere a una entidad que está fuera de nosotros y que supuestamente existe independientemente de la existencia de un observador consciente).

En el caso de la conciencia, sin embargo, nos encontramos con una simetría. Lo que intentamos no es simplemente comprender de qué manera se puede explicar las conductas o las operaciones cognitivas de otro ser humano en términos del funcionamiento de su cerebro, por difícil que esto parezca. No queremos simplemente conectar una descripción de algo externo a nosotros con una descripción científica más sofisticada. Lo que realmente queremos hacer es conectar una descripción de algo externo a nosotros (el cerebro), con algo de nuestro interior: una experiencia, nuestra propia experiencia individual, que nos acontece en tanto que somos observadores conscientes.

Ya sabemos (o creemos saber)  qué se siente al ser nosotros mismos, qué significa ser nosotros mismos pero, queremos explicar por qué somos conscientes, saber qué es ese “algo” que nos hace ser como somos, explicar, en fin, cómo se generan las cualidades subjetivas experienciales. En suma, deseamos explicar ese “Pienso, luego existo” que Descartes postuló como evidencia primera e indiscutible sobre la cual edificar toda la filosofía.

  ¿Nos deja la Conciencia cuando dormimos?

Lo hemos comentado alguna vez: “Ninguna descripción, por prolija que sea, logrará nunca explicar claramente la experiencia subjetiva. Muchos filósofos han utilizado el ejemplo del color para explicar este punto. Ninguna explicación científica de los mecanismos neuronales de la discriminación del color, aunque sea enteramente satisfactoria, bastaría para comprender cómo se siente el proceso de percepción de un color. Ninguna descripción, ninguna teoría, científica o de otro tipo, bastará nunca para que una persona daltónica consiga experimentar un color.

Pensemos por un momento que tenemos un amigo ciego al que contamos lo que estamos viendo un día soleado del mes de abril: El cielo despejado, limpio y celeste, el Sol allí arriba esplendoroso y cegador que nos envía su luz y su calor, los árboles y los arbustos llenos de flores de mil colores que son asediados por las abejas, el aroma y el rumor del río, cuyas aguas cantarinas no cesan de correr transparentes, los pajarillos de distintos plumajes que lanzan alegres trinos en sus vuelos por el ramaje que se mece movido por una brisa suave, todo esto lo contamos a nuestro amigo ciego que, si de pronto pudiera ver, comprobaría que la experiencia directa de sus sentidos ante tales maravillas nada tiene que ver con la pobreza de aquello que le contamos, por muy hermosas palabras que para hacer la descripción empleáramos.”

Si pidiéramos a varias personas que, nos hicieran un sencillo relatom de todo lo que en la imagen de arriba están viendo, pocas de las opiniones serían coincidentes. Y, algunas… ¡Ni serían! La mente humana es tan compleja que no todos ante la misma escena vemos lo mismo. Nos enseñan figuras y dibujos y nos piden que expresemos (sin pensarlo) la primera idea que nos sugieren. De entre diez personas, sólo coinciden tres, los otros siete divergen en la apreciación de lo que el dibujo o las figuras les traen a la mente.

Esto nos viene a demostrar la individualidad de pensamiento, el libre albedrío para decidir (al menos en cierto ámbito restringido). Sin embargo, la misma prueba realizada en grupos de conocimientos científicos similares y específicos: físicos, matemáticos, químicos, etc, hace que el número de coincidencias sea más elevado; más personas ven la misma respuesta al problema planteado. Esto nos sugiere que la mente está en un estado virgen que cuenta con todos los elementos necesarios para dar respuestas pero que necesita experiencias y aprendizaje para desarrollarse.

¿Debemos concluir entonces que una explicación científica satisfactoria de la conciencia queda para siempre fuera de nuestro alcance? ¿O es de alguna manera posible, romper esa barrera, tanto teórica como experimental, para resolver las paradojas de la conciencia?

 

 

No creo que mirando en el fondo de la bola de cristal encontremos las respuestas que todos buscamos. Todas las respuestas están a nuestro alrededor, en la Naturaleza de la que tenemos que aprender. Muchas estarán dentro de nosotros mismos pero, como no nos conemos… no podemos encontrar lo que con tanto anhelo buscamos.

En lo más profundo de nuestro ser, todos deseamos la misma cosa. Sin embargo, por una desconocida razón que nunca he llegado a comprender, no todos buscamos esa “cosa” de la misma manera. Los seres humanos, tenemos comportamientos inadmisibles que debemos erradicar y, mientras que no seámos conscientes de que ¡todos somos uno!, será difícil alcanzar los objetivos comunes que eviten desigualdades inagmisibles e injusticias.

La respuesta a esta y otras preguntas, en mi opinión, radica en reconocer nuestras limitaciones actuales en este campo del conocimiento complejo de la mente, y como en la física cuántica, existe un principio de incertidumbre que, al menos de momento (y creo que en muchos cientos de años), nos impide saberlo todo sobre los mecanismos de la conciencia, y aunque podremos ir contestando a preguntas parciales, alcanzar la plenitud del conocimiento total de la mente no será nada sencillo, entre otras razones está el serio inconveniente que suponemos nosotros mismos, ya que con nuestro quehacer podemos, en cualquier momento, provocar la propia destrucción.

La libertad es una ficción cerebral

Estamos determinados, como el resto del Universo, por las leyes naturales

La libertad es una ficción cerebral, según confirman las últimas investigaciones sobre neurociencias. Estas investigaciones han determinado que la actividad cerebral previa a un movimiento, realizado por el sujeto en un tiempo por él elegido, es muy anterior (hasta 10 segundos) a la impresión subjetiva del propio sujeto de que va a realizar ese movimiento. Y aunque la falta de libertad es algo contraintuitivo, los experimentos indican que estamos determinados por las leyes de la Naturaleza. Por eso en Alemania algunos especialistas están reclamando la revisión del código penal para adecuarlo a los resultados de la neurociencia. Y aunque sigamos encarcelando a los que violen las leyes, cambiará la imagen que tenemos tanto de esos criminales como de nosotros mismos.

 

       No siempre podemos dominar los impulsos de la mente

No pocas veces, nuestras mentes se ven abocadas a tener que retener, ese primer impulso, esa iniciativa de libertad, o, de libre albedrío. La complejidad en la que estamos inmersos nos prohibe, en la mayor parte de las ocasiones, poder desarrollar y poner en práctica ese “estado de libertad” que ¿nos fue dado? pero que, en realidad, podría ser una ficción de la mente. Decidir lo que se dice decidir, como todo en el universo, es algo limitado.

Contornos de machos y hembras de overlaping en condiciones de servidumbre por la llama de la vela  Foto de archivo - 7483891

 

Claro que pretender que la llama de una vela ilumine nuestra ignorancia…, no será posible y necesitaremos algo más. La evolución de nuestra especie (llevamos cientos de miles de años evolucionando), es lenta, y, hasta alcanzar el estadio de “visión” perfecta del mundo, nos queda un largo camino por recorrer.

Sabemos (casi) de que está hecha la materia que podemos ver y detectar, suponemos y sospechamos que otra materia (más abundante) pulula por todo el Universo sin que podamos encontrarla, sospechamos de otras dimensiones, de otros universos y, desde luego, de otra Física. Sí, es verdad, todas son sospechas y, las sospechas en Física…tienen que ser demostradas, ya que, en caso contrario, se quedan en nada, en pensamientos vacíos.

Sospecho que, nuestros conocimientos de la mente…son muy limitados y que, todo esto, nos viene grande. Mientras sigamos preguntándo: ¿Quiénes somos? ¿De dónde venimos? ¿Hacia dónde vamos? ¿Estamos sólos en el Universo? Estamos dejando al descubierto nuestra gran ignorancia pero, el simple hecho de preguntar y de querer saber…nos pone en el camino correcto.

emilio silvera

¡La Luz! Esa maravilla

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

    Grandes pensadores quisieron explicar la naturaleza de la luz

Está claro que, los estudiosos de la época antigua y medieval estaban por completo a oscuras acerca de la naturaleza de la luz. Especulaban sobre que consistía en partículas emitidas por objetos relucientes o tal vez por el mismo ojo. Establecieron el hecho de que la luz viajaba en línea recta, que se reflejaba en un espejo con un ángulo igual a aquel con el que el rayo choca con el espejo, y que un rayo de luz se inclina (se refracta) cuando pasa del aire al cristal, al agua o a cualquier otra sustancia transparente.

Cuando la luz entra en un cristal, o en alguna sustancia transparente, de una forma oblicua (es decir, en un ángulo respecto de la vertical), siempre se refracta en una dirección que forma un ángulo menor respecto de la vertical.  La exacta relación entre el ángulo original y el ángulo reflejado fue elaborada por primera vez en 1.621 por el físico neerlandés Willerbrord Snell.  No publicó sus hallazgos y el filósofo francés René Descartes descubrió la ley, independientemente, en 1.637.

        Siempre nos gustó hacer experimentos con la luz

Los primeros experimentos importantes acerca de la naturaleza de la luz fueron llevados a cabo por Isaac Newton en 1.666, al permitir que un rayo de luz entrase en una habitación oscura a través de una grieta e las persianas, cayendo oblicuamente sobre una cara de un prisma de cristal triangular. El rayo se refracta cuando entra en el cristal y se refracta aún más en la misma dirección cuando sale por una segunda cara del prisma. (Las dos refracciones en la misma dirección se originan por que los dos lados del prisma de se encuentran en ángulo en vez de en forma paralela, como sería el caso en una lámina ordinaria de cristal.)

Newton atrapó el rayo emergente sobre una pantalla blanca para ver el efecto de la refracción reforzada.  Descubrió que, en vez de formar una mancha de luz blanca, el rayo se extendía en una gama de colores: rojo, anaranjado, amarillo, verde, azul, y violeta, en este orden.

Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores.  La amplia banda de sus componentes se denominó spectrum (palabra latina que significa “espectro”, “fantasma”).

Newton llegó a la conclusión de que la luz se componía de diminutas partículas (“corpúsculos”), que viajaban a enormes velocidades.

Le surgieron y se planteó algunas inquietudes cuestiones. ¿Por qué se refractaban las partículas de luz verde más que los de luz amarilla? ¿Cómo se explicaba que dos rayos de luz se cruzaran sin perturbase mutuamente, es decir, sin que se produjeran colisiones entre partículas?

                                                   Titán, la luna de Saturno, contempla la sonda que lleva su nombre

En 1.678, el físico neerlandés Christian Huyghens (un científico polifacético que había construido el primer reloj de péndulo y realizado importantes trabajos astronómicos) propuso una teoría opuesta: la de que la luz se componía de minúsculas ondas. Y si sus componentes fueran ondas, no sería difícil explicar los diversos difracciones de los diferentes tipos de luz a través de un medio refractante, siempre y cuando se aceptara que la luz se movía más despacio en ese medio refractante que en el aire.  La cantidad de refracción variaría con la longitud de las ondas: cuanto más corta fuese tal longitud, tanto mayor sería la refracción.   Ello significaba que la luz violeta (la más sensible a este fenómeno) debía de tener una longitud de onda mas corta que la luz azul, ésta, más corta que la verde, y así sucesivamente.

Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda.  Y, como es natural, si la luz estaba integrada por ondas, dos rayos podrían cruzarse sin dificultad alguna.  (Las ondas sonoras y las del agua se cruzan continuamente sin perder sus respectivas identidades.)

Peor la teoría de Huyqhens sobre las ondas tampoco fue muy satisfactoria. No explicaba por qué se movían en línea recta los rayos luminosos; ni por qué proyectaban sombras recortadas; ni aclaraba por qué las ondas luminosas no podían rodear los obstáculos, del mismo modo que pueden hacerlo las ondas sonoras y de agua.  Por añadidura, se objetaba que si la luz consistía en ondas, ¿cómo podía viajar por el vacío, ya que cruzaba el espacio desde el Sol y las Estrellas? ¿cuál era esa mecánica ondulatoria?

Esquema experimento Thomas Young

Interferencia: Sonido más sonido en algunos casos puede producir silencio. Esto sucede cuando dos ondas de sonido se superponen destructivamente, igual como se observa en las zonas nodales de una cuerda en vibración. ¿Será posible que en algún caso luz más luz produzca oscuridad? La respuesta es afirmativa. Quien lo demostrara en 1803, en un famoso experimento, fue Thomas Young (1773-1829). Éste consistió en hacer llegar un haz de luz simultáneamente a dos rendijas muy delgadas y muy cercanas, según se ilustra en el siguiente esquema.

Aproximadamente durante un siglo, contendieron entre sí estas teorías. La teoría corpuscular, de Newton, fue, con mucho, la más popular, en parte, porque la respaldó el famoso nombre de su autor.  Pero hacia 1.801, un físico y médico ingles, de nombre Thomas Young, llevó a cabo un experimento que arrastró la opinión pública al campo opuesto.  Proyectó un fino rayo luminoso sobre una pantalla, haciéndolo pasar antes por dos orificios casi juntos.  Si la luz estuviera compuesta por partículas, cuando los dos rayos emergieran de ambos orificios, formarían presuntamente en la pantalla una región más luminosa donde se superpusieran, y regiones menos brillantes, donde no se diera tal superposición.  Pero no fue esto lo que descubrió Young.  La pantalla mostró una serie de bandas luminosas, separadas entre sí por bandas oscuras.  Pareció incluso que, en esos intervalos de sombra, la luz de ambos rayos contribuía a intensificar la oscuridad.

Sería fácil explicarlo mediante la teoría ondulatoria. La banda luminosa representaba el refuerzo presado por las ondas de un rayo a las ondas del otro.  Dicho de otra manera: Entraba “en fase” dos trenes de ondas, es decir, ambos nodos, al unirse, se fortalecían el uno al otro.  Por otra parte, las bandas oscuras representaban puntos en que las ondas estaban “desfasadas” porque el vientre de una neutralizaba el nodo de la otra.  En vez de aunar sus fuerzas, las ondas se interferían mutuamente, reduciendo la energía luminosa neta a las proximidades del punto cero.

Considerando la anchura de las bandas y la distancia entre los dos edificios por los que surgen ambos rayos, se pudo calcular la longitud de las ondas luminosas, por ejemplo, de la luz roja a la violeta o los colores intermedios.  Las longitudes de onda resultaron ser muy pequeñas.  Así, la de la luz roja era de unos 0’000075 cm. (Hoy se expresan las longitudes de las ondas luminosas mediante una unidad muy práctica ideada por Angströn. Esta unidad, denominada, en honor a su autor Ángstrom (Á), es la cienmillonésima parte de un centímetro.  Así, pues, la longitud de onda de la luz roja equivale más o menos a 7.500 Á, y la de la luz violeta, a 3.900 Å, mientras que las de colores visibles en el espectro oscilan entre ambas cifras.)

La cortedad de estas ondas es muy importante. La razón de que las ondas luminosas se desplacen en línea recta y proyecten sombras recortadas se debe a que todas son incomparablemente más pequeñas que cualquier objeto; pueden contornear un obstáculo sólo si éste no es mucho mayor que la longitud de onda. Hasta las bacterias, por ejemplo, tienen un volumen muy superior de una onda luminosa y, por tanto, la luz puede definir claramente sus contornos bajo el microscopio. Sólo los objetos cuyas dimensiones se asemejan a la longitud de la onda luminosa (por ejemplo, los virus y otras partículas submicroscópicas) son lo suficientemente pequeños como para que puedan ser contorneados por las ondas luminosas.

Augustin Jean Fresnel (1788 – 1827)
Photo: German Museum Munich

Un físico francés, Augustin-Jean Fresnel, fue quien demostró por vez primera, en 1.818, que si un objeto es lo suficientemente pequeño, la onda luminosa lo contorneará sin dificultad. En tal caso, la luz determina el llamado fenómeno de “difracción”.  Por ejemplo, las finísimas líneas paralelas de una “reja de disfracción” actúan como una serie de minúsculos obtáculos, que se refuerzan entre si.  Puesto que la magnitud de la difracción va asociada a la longitud de onda, se produce el espectro.  A la inversa, se puede calcular la longitud de onda midiendo la difracción de cualquier color o porción del espectro, así como la separación de las marcas sobre el cristal.

Fraunhofer exploró dicha reja de difracción con objeto de averiguar sus finalidades prácticas, progreso que suele olvidarse, pues queda eclipsado por su descubrimiento más famoso: los rayos espectrales.  El físico americano Henry Augustus Rowlane ideó la reja cóncava y desarrolló técnicas para regularlas de acuerdo con 20.000 líneas por pulgada.  Ello hizo posible la sustitución del prisma por el espectroscopio.

Ante tales hallazgos experimentales, más el desarrollo metódico y matemático del movimiento ondulatorio, debido a Fresnel, pareció que la teoría ondulatoria de la luz había arraigado definitivamente, desplazando y relegando para siempre a la teoría corpuscular.

  Jacques Babinet

No sólo se aceptó las existencias de ondas luminosas, sino que también se midió su longitud con una precisión cada vez mayor.  Hacia 1.827, el físico francés Jacques Babinet sugirió que se empleara la longitud de onda luminosa (una cantidad física inalterable) como unidad para medir tales longitudes, en vez de las muy diversas unidades ideadas y empleadas por el hombre.  Sin embargo, tal sugerencia no se llevó a la práctica hasta 1.880 cuando el físico germano-americano Albert Abraham Michelson inventó un instrumento, denominado “interferómetro”, que podía medir las longitudes de ondas luminosas con una exactitud sin precedentes. En 1.893, Michelson midió la onda de la raya roja en el espectro del cadmio y determinó que su longitud era de 1/1.553.164 m.

Pero la incertidumbre reapareció al descubrirse que los elementos estaban compuestos por isótopos diferentes, cada uno de los cuáles aportaba una raya cuya longitud de onda difería ligeramente de las restantes.  En la década de 1.930 se midieron las rayas del criptón 86. Como quiera que este isótopo fuera gaseoso, se podía abordar con bajas temperaturas, para frenar el movimiento atómico y reducir el consecutivo engrosamiento de la raya.

                                                               Tubo de descarga lleno de kriptón puro

En 1.960, el Comité Internacional de Pesos y Medidas adoptó la raya del criptón 86 como unidad fundamental de longitud. Entonces se restableció la longitud de metro como 1.650.763’73 veces la longitud de onda de dicha raya espectral.  Ello aumento mil veces la precisión de las medidas de longitud.  Hasta entonces se había medido el antiguo metro patrón con un margen de error equivalente a una millonésima, mientras que en lo sucesivo se pudo medir la longitud de onda con un margen de error equivalente a una milmillonésima.

Ahora, después de todo esto, sabemos algo más sobre la luz. Pero…,  ¿qué pasa con su velocidad?

¡Veámoslo!

    La velocidad de la luz, desde hace mucho tiempo, fue un misterio que los estudiosos de la física de la Naturaleza querían desvelar

Está claro que, la luz se desplaza a enormes velocidades. Si pulsamos el interruptor de apagado de la lámpara de nuestro salón, todo queda a oscuras de manera instantánea y, de la misma manera e inmediata, todo se inunda de luz si con una potente linterna encendida, apuntamos hacia un rincón oscuro.

La velocidad del sonido es más lenta, por ejemplo, si vemos a un leñador que está cortando leña en un lugar alejado de nosotros, sólo oiremos los golpes momentos después de que caiga el hacha.  Así, pues, el sonido tarda cierto tiempo en llegar a nuestros oídos.  En realidad es fácil medir la velocidad de su desplazamiento: unos 1.206 km/h en el aire y a nivel del mar.

Galileo fue el primero en intentar medir la velocidad de la luz.  Se colocó en lo alto de una colina, mientras que su ayudante, se situaba en otro lugar alto de la colina vecina; luego sacó una linterna encendida: tan pronto como su ayudante vió la luz, hizo una señal con otra linterna.  Galileo repitió el experimento a distancias cada vez mayores, suponiendo que el tiempo requerido por su ayudante para responder mantendría una uniformidad constante, por lo cual, el intervalo entre la señal de su propia linterna y la de su ayudante representaría el tiempo empleado por la luz para recorrer cada distancia.  Aunque la idea era lógica, la luz viajaba demasiado aprisa como para que Galileo pudiera percibir las sutiles diferencias con un método tan rudimentario.

En 1.676, el astrónomo danés Olau Roemer logró cronometrar la velocidad de la luz a escala de distancias astronómicas.  Estudiando los eclipses de Júpiter en sus cuatro grandes satélites, Roemer observó que el intervalo entre eclipses consecutivos era más largo cuando la Tierra se alejaba de Júpiter, y más corto cuado se movía en su órbita hacía dicho astro.  Al parecer, la diferencia entre las duraciones del eclipse reflejaba la diferencia de distancias entre la Tierra y Júpiter. Y trataba, pues, de medir la distancia partiendo del tiempo empleado por la luz para trasladarse desde Júpiter hasta la Tierra.  Calculando aproximadamente el tamaño de la órbita terrestre y observando la máxima discrepancia en las duraciones del eclipse que, según Roemer, representaba el tiempo que necesitaba la luz para atravesar el eje de al órbita terrestre, dicho astrónomo computó la velocidad de la luz.  Su resultado, de 225.000 km/s., parece excelente si se considera que fue el primer intento, y resultó bastante asombroso como para provocar la incredulidad de sus coetáneos.

Sin embargo, medio siglo después se confirmaron los cálculos de Roemer en un campo totalmente distinto.  Allá por 1.728, el astrónomo británico James Bradley descubrió que las estrellas parecían cambiar de posición con los movimientos terrestres; y no por el paralaje, sino porque la traslación terrestre alrededor del Sol era una fracción mensurable (aunque pequeña) de la velocidad de la luz.  La analogía empleada usualmente es la de un hombre que camina con el paraguas abierto bajo un temporal.  Aun cuando las gotas caigan verticalmente, el hombre debe inclinar hacia delante el paraguas, porque ha de abrirse paso entre las gotas.

     James Bradley descubrió la aberración estelar

Cuanto más acelere su paso, tanto más deberá inclinar el paraguas.  De manera semejante la Tierra avanza entre los ligeros rayos que caen desde las estrellas, y el astrónomo debe inclinar un poco su telescopio y hacerlo en varias direcciones, de acuerdo con los cambios de la trayectoria terrestre (no olvidemos que nuestro planeta Tierra, es como una enorme nave espacial que nos lleva en un viaje eterno, alrededor del Sol, a la velocidad de 30 km/s. + -) Mediante ese desvío aparente de los astros (“aberración de la luz”), Bradley pudo evaluar la velocidad de la luz y calcularla con gran precisión.

Sus cálculos fueron de 285.000 km/s, bastante más exacto que los de Roemer, pero aún un 5’5% más bajos. Poco a poco, con medios tecnológicos más sofisticados y más conocimientos matemáticos, los científicos fueron obteniendo medidas más exactas aún, conforme se fue perfeccionando la idea original de Galileo y sus sucesores.

En 1.849, el físico francés Armand-Hippolyte-Louis Fizeau ideó un artificio mediante el cual se proyectaba la luz sobre un espejo situado a 8 km de distancia, que devolvía el reflejo al observador.  El tiempo empleado por la luz en su viaje de ida y vuelta no rebasó apenas la 1/20.000 de segundo, por Fizeau logró medirlo colocando una rueda dentada giratoria en la trayectoria del rayo luminoso.  Cuando dicha rueda giraba a cierta velocidad, regulada, la luz pasaba entre los dientes y se proyectaba contra el siguiente, al ser devuelta por el espejo; así, Fizeau, colocado tras la rueda, no pudo verla.  Entonces se dio más velocidad a la rueda, y el reflejo pasó por la siguiente muesca entre los dientes, sin intercepción alguna. De esa forma, regulando y midiendo la velocidad de la rueda giratoria, Fizeau pudo calcular el tiempo transcurrido y, por consiguiente, la velocidad a que se movía el rayo de luz.

Un año más tarde, Jean Foucault (quien realizaría poco después su experimento con los péndulos) precisó más estas medidas empleando un espejo giratorio en ve de una rueda dentada.  Entonces se midió el tiempo transcurrido desviando ligeramente el ángulo de reflexión mediante el veloz espejo giratorio.  Foucault obtuvo un valor de la velocidad de la luz de 300.883 km/s.  También, el físico francés utilizó su método para determinar la velocidad de la luz a través de varios líquidos.  Averiguó que era notablemente inferior a la alcanzada en el aire.  Esto concordaba también con la teoría ondulatoria de Huyghens.

albert michelson

Michelson fue más preciso aún en sus medidas.  Este autor, durante cuarenta años largos, a partir de 1.879, fue aplicando el sistema Fizeau-Foucault cada vez con mayor refinamiento, para medir la velocidad de la luz.  Cuando se creyó lo suficientemente informado, proyectó la luz a través de vacío, en vez de hacerlo a través del aire, pues este frena ligeramente su velocidad, y, empleó para ello tuberías de acero cuya longitud era superior a 1’5 km.  Según sus medidas, la velocidad de la luz en el vacío era de 299.730 km(seg. (sólo un 0’006% más bajo).  Demostraría también que todas las longitudes de ondas luminosas viajan a la misma velocidad en el vacío.

En 1.972, un equipo de investigadores bajo la dirección de Kenneth M. Eveson efectuó unas mediciones aún más exactas y vio que la velocidad de la luz era de 299.727’74 km/seg. Una vez se conoció la velocidad de la luz con semejante precisión, se hizo posible usar la luz, o por lo menos formas de ella, para medir distancias.

Aunque para algunos resulte alto tedioso el tema anterior, no he podido resistirme a la tentación de exponerlo, así podrá saber algo más sobre la luz y, habrán conocido a personajes que hicieron posible el que ahora nosotros, la conozcamos mejor.

electromagnetica 2.jpg

Podría continuar, hasta el final de este trabajo, hablando de la luz y sus distintas formas o aplicaciones: ondas de luz a través del espacio, de cómo se transmite la luz en el “vacío”, nos llega a través del espacio desde Galaxias situadas a miles de millones de años luz; las líneas de fuerzas electromagnéticas de Faraday y Maxwell de campos eléctricos y magnéticos cambiantes (todo ello explicado en un simple conjunto de cuatro ecuaciones, que describían casi todos los fenómenos referentes a esta materia electromagnética), o de los enigmas aún por descubrir (aunque predichos).

Ahora, en Física, se dice que la luz es una forma de radiación electromagnética a la que el ojo humano es sensible y sobre la cual depende nuestra consciencia visual del universo y sus contenidos.

Aparte de todo lo que antes hemos explicado, no sería justo finalizar el trabajo sin exponer aquí que, en 1905, Albert Einstein, inspirado en el cuanto de Planck, realizó un importante avance en el conocimiento de lo que es la luz. Demostró que el Efecto fotoeléstrico sólo podía ser explicado con la hipótesis de que la luz consiste en un chorro de fotones de energía electromagnética discretos. Aquello le valió el Nobel de Física y… ¡Le hurtaron otros dos por las dos partes de su teoría de la relatividad! Una revolución que lo cambió todo y que nunca podremos pagarle.

El conflicto entre la teoría ondulatoria y corpuscular de la luz fue resuelto con la evolución de la teoría cuántica y la mecánica ondulatoria que ha dejado claro que, los electrones y las otras partículas elementales tienen propiedades duales de partículas y onda.

sería mucho más largo, pero creo que está bien con lo dicho.

emilio silvera

Sí, cosas así nos llevan hacia el futuro

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Para no viajar muy atrás en el tiempo, fijaremos el punto de partida en 1687, fecha en que salió a la luz la Obra de Newton, sus Principas. El tiempo transcurrió hasta 1900, fecha en la que Planck publicó un artículo de ocho páginas con su idea del cuanto que sería la semilla que daría lugar al nacimiento de la mecánica cuántica. En 1905, aquel joven de la Oficina de Patentes de Berna, sorprendió al mundo de la Física con su Teoría de la Relatividad Especial. Se produjeron muchos desarrollos importantes para nuestras imágenes de la Física Fundamental. Uno de los mayores cambios ocurrido en ese período fue la comprensión, básicamente mediante los trabajos de Faraday y Maxwell en el siglo XIX, de que cierta noción de campo físico, que permea en el espacio, debe cohexistir con la previamente aceptada “realidad newtoniana” de las partículas individuales que interaccionan por medio de fuerzas instantáneas.

Conforme a lo que arriba decimos se producen fenómenos y se ponen en marcha mecanismos que hacen posible que, la imagen que vemos, pueda ser posible gracias a la presencia de fuerzas que, aunque no las podamos ver, su presencia se hace patente por los resultados que en su diversidad, son los mecanismos que llevan el ritmo del universo en el que vivímos.

Más tarde, esta noción de “campo” se convirtió también en un ingrediente crucial de la teoría de la Gravedad en un espaciotiempo curvo a la que llegó Einstein en 1915. Lo que ahora denominamos campos clásicos son el Campo Electromagnético de Maxwell y el Campo Gravitatorio de Einstein.

http://www.iac.es/cosmoeduca/relatividad/imagenes/charla3imag/gravedadestira640.jpg

La presencia del campo gravitatorio de una masa afecta al tiempo y al espacio. La gravedad hace que dos relojes atrasen. Un reloj en la superficie de la Tierra atrasa con respecto a un reloj en la Luna, toda vez que el campo gravitatorio de la Tierra es más potente. De la misma manera, nos podríamos preguntar ¿por qué la gravedad actúa sobre el espacio y alarga el tamaño de los objetos (estirándolos). ¿Dónde podríamos crecer más, si viviéramos en la Tierra o en la Luna?

Pero sigamos. Hoy día sabemos que hay mucho más en la Naturaleza del mundo físico que la sola física clásica. Ya en 1900 -como decimos antes- Max Planck había reveleado los primeros indicios de la necesidad de una “teoría cuántica”, aunque se necesitó un cuarto de siglo más antes de que pudiera ofrecerse una teoría bien formulada y global. También debería quedar claro que, además de todos estos profundos cambios que se han producido en los fundamentos “newtonianos” de la física, ha habido otros desarrollos importantes, tanto previos a dichos cambios como coexistentes con algunos de ellos en forma de poderosos avances matemáticos, dentro de la propia teoría newtoniana.

einst_planck.jpg

En 1905 un desconocido Albert Einstein publicaría unos espectaculares estudios sobre la teoría de la relatividad, pero muy pocos científicos, entre ellos Planck, reconocerían inmediatamente la relevancia de esta nueva teoría científica. Tanta fue su importancia que incluso Planck contribuyo a ampliarla.

Pero igualmente, la hipótesis de Einstein sobre la ligereza del quantum (el fotón), basada en el descubrimiento de Philipp Lenard de 1902 sobre el efecto fotoeléctrico fue rechazada por Planck, al igual que la teoría de James Clerk Maxwell sobre la electrodinámica.

En 1910 Einstein desafía la explicación de la física clásica poniendo el ejemplo del comportamiento anómalo del calor específico en bajas temperaturas. Planck y Nernst decidieron organizar la primera Conferencia de Solvay, para clarificar las contradicciones que aparecían en la física. En esta reunión celebrada en Bruselas en 1911, Einstein consiguió convencer a Planck sobre sus investigaciones y sus dudas, lo que hizo forjar una gran amistad entre ambos científicos, y conseguir ser nombrado profesor de física en la universidad de Berlín mientras que Planck fue decano.

Otra área importante de avance sobre la que había que llamar la atención es la termodinámica (y su refinamiento conocido como mecánica estadística). Esta estudia el comportamiento de sistemas de un gran número de cuerpos, donde los detalles de los mocimientos no se consideran importantes y el comportamiento del sistema se describe en términos de promedios de las magnitudes adecuadas. Esta fue una empresa iniciada entre mediados del XIX y principios del XX, y los nombres de Carnot Clausius, Maxwell, Boltzmann, Gibbs y Einstein son los protagonistas.

Termodinámica.- Parte de la física que estudia las relaciones existentes entre los fenómenos dinámicos y los caloríficos. Trata de la transformación de la energía mecánica en calor y del calor en trabajo. También describe y relaciona las propiedades físicas de sistemas macroscópicos de materia y energía. La termodinámica estudia los sistemas que se encuentran en equilibrio. Esto significa que las propiedades del sistema—típicamente la presión, la temperatura, el volumen y la masa— son constantes.

Un concepto esencial de la termodinámica es el de sistema macroscópico, que se define como un conjunto de materia que se puede aislar espacialmente y que coexiste con un entorno infinito e imperturbable. El estado de un sistema macroscópico en equilibrio puede describirse mediante propiedades medibles como la temperatura, la presión o el volumen, que se conocen como variables termodinámicas. Es posible identificar y relacionar entre sí muchas otras variables (como la densidad, el calor específico, la compresibilidad o el coeficiente de expansión térmica), con lo que se obtiene una descripción más completa de un sistema y de su relación con el entorno. Cuando un sistema macroscópico pasa de un estado de equilibrio a otro, se dice que tiene lugar un proceso termodinámico. Las leyes o principios de la termodinámica, descubiertos en el siglo XIX a través de meticulosos experimentos, determinan la naturaleza y los límites de todos los procesos termodinámicos.

¿Cuales son los Principios de la Termodinámica?

Cuando dos sistemas están en equilibrio mutuo, comparten una determinada propiedad. Esta propiedad puede medirse, y se le puede asignar un valor numérico definido. Una consecuencia de ese hecho es el principio cero de la termodinámica, que afirma que si dos sistemas distintos están en equilibrio termodinámico con un tercero, también tienen que estar en equilibrio entre sí. Esta propiedad compartida en el equilibrio es la temperatura. Si uno de estos sistemas se pone en contacto con un entorno infinito situado a una determinada temperatura, el sistema acabará alcanzando el equilibrio termodinámico con su entorno, es decir, llegará a tener la misma temperatura que éste.

                 Primer Principio.-

La cantidad de calor entregado a un sistema es igual al trabajo realizado por el sistema más la variación de su energía interna. Cuando un sistema se pone en contacto con otro más frío que él, tiene lugar un proceso de igualación de las temperaturas de ambos. Para explicar este fenómeno, los científicos del siglo XVIII conjeturaron que una sustancia que estaba presente en mayor cantidad en el cuerpo de mayor temperatura fluía hacia el cuerpo de menor temperatura. El primer principio es una ley de conservación de la energía. Afirma que, como la energía no puede crearse ni destruirse —dejando a un lado las posteriores ramificaciones de la equivalencia entre masa y energía— la cantidad de energía transferida a un sistema en forma de calor más la cantidad de energía transferida en forma de trabajo sobre el sistema debe ser igual al aumento de la energía interna del sistema. A veces, el primer principio se enuncia como la imposibilidad de la existencia de un móvil perpetuo de primera especie.

'Ecosistemas y comunidades biológicas'

Flujo de la energía en los ecosistemas. En los ecosistemas se cumplen pues el primer y segundo principio de la termodinámica.

Segundo Principio.-

El segundo dice que solamente se puede realizar un trabajo mediante el paso del calor de un cuerpo con mayor temperatura a uno que tiene menor temperatura. Al respecto, siempre se observa que el calor pasa espontáneamente de los cuerpos calientes a los fríos hasta quedar a la misma temperatura. La segunda ley afirma que la entropía, o sea, el desorden, de un sistema aislado nunca puede decrecer. Por tanto, cuando un sistema aislado alcanza una configuración de máxima entropía, ya no puede experimentar cambios: ha alcanzado el equilibrio. La naturaleza parece pues ‘preferir’ el desorden y el caos. Puede demostrarse que el segundo principio implica que, si no se realiza trabajo, es imposible transferir calor desde una región de temperatura más baja a una región de temperatura más alta. El segundo principio impone una condición adicional a los procesos termodinámicos. No basta con que se conserve la energía y cumplan así el primer principio. Una máquina que realizara trabajo violando el segundo principio se denomina “móvil perpetuo de segunda especie”, ya que podría obtener energía continuamente de un entorno frío para realizar trabajo en un entorno caliente sin coste alguno. A veces, el segundo principio se formula como una afirmación que descarta la existencia de un móvil perpetuo de segunda especie.

[espejo.jpg]

Tercer principio de termodinámica o principio onfalóscópico, (mirarse el ombligo): La televisión se retroalimenta a sí misma. Se hace televisión para hablar sobre televisión.

Tercer Principio.-

El tercer principio de la termodinámica afirma que el cero absoluto no puede alcanzarse por ningún procedimiento que conste de un número finito de pasos. Es posible acercarse indefinidamente al cero absoluto, pero nunca se puede llegar a él.

Ciclos termodinámicos.-

Todas las relaciones termodinámicas importantes empleadas en ingeniería se derivan del primer y segundo principios de la termodinámica. Resulta útil tratar los procesos termodinámicos basándose en ciclos: procesos que devuelven un sistema a su estado original después de una serie de fases, de manera que todas las variables termodinámicas relevantes vuelven a tomar sus valores originales. En un ciclo completo, la energía interna de un sistema no puede cambiar, puesto que sólo depende de dichas variables. Por tanto, el calor total neto transferido al sistema debe ser igual al trabajo total neto realizado por el sistema. Un motor térmico de eficiencia perfecta realizaría un ciclo ideal en el que todo el calor se convertiría en trabajo mecánico. El científico francés del siglo XIX Sadi Carnot, que concibió un ciclo termodinámico que constituye el ciclo básico de todos los motores térmicos, demostró que no puede existir ese motor perfecto. Cualquier motor térmico pierde parte del calor suministrado. El segundo principio de la termodinámica impone un límite superior a la eficiencia de un motor, límite que siempre es menor del 100%. La eficiencia límite se alcanza en lo que se conoce como ciclo de Carnot.

9starlight_fantasy.jpg

  • Gravitación
  • Luz
  • Atracción y repulsión eléctricas
  • Atracción y repulsión magnéticas

Pero sigamos con el objeto principla de este trabajo del que, como siempre me pasa, me he desviado a la termodinámica que ya se dio hace unos días. Aquí hablamos de los “campos clásicos” y, sobre las teorías físicas de campos de Maxwell y Einstein: la física “clásica” ¿Cómo pudieron hablar y describir a la perfección suscesos que el ojo no podía ver, y, simplemente con la imaginación, lo hicieron posible, hasta tal punto que, cuando hablamos de campos electromagnéticos o gravitatorios, en nuestras mentes se instalan las imágenes de unos y otros que podemos “ver” con toda precisión.

La teoría del electromagnetismo desempeña también un papel importante en la teoría cuántica, pues proporciona el “campo” arquetípico para el desarrollo posterios de la teoría cuántica de campos. Por el contrario, el enfoque cuántico apropiado del campo gravitatorio sigue siendo eninmático, escurridizo y controvertido y, abordar ahora aquí estas complejas cuestiones, seguramente daría lugar a explicaciones farragosas debido a mi ignorancia profunda en esos conocimientos y a la levedad de los que puedo poseer.

http://www.nuevoordenmundial.es/wp-content/uploads/2011/05/Ciudad-del-futuro.jpg

Los campos de fuerza de Faraday han dado lugar a que, la imaginación se desboque y corriendo hacia el futuro, haya imaginado inmensas ciudades que, situadas en lugares imposibles, sostienen sin problema a sus habitantes que, resguardados por un “campo de fuerza” están al resguardo de cualquier peligro que del exterior les pueda venir.

Por ahí arriba me refería al hecho de que ya en el siglo XIX se había iniciado un cambio profundo en los fundamentos newtonianos, antes de las revoluciones de la relatividad y la teoría cuántica en el siglo XX. El primer indicio de que sería necesario un cambio semejante se produjo con los maravillosos descubriumientos experimentales de Faraday hacia 1833, y de las representaciones de la realidad que encontró necesarias para acomodar dichos descubrimientos. Básicamente, el cambio fundamental consistió en considerar que las “partículas newtonianas” y las fuerzas” que actúan entre ellas no son los únicos habitantes de nuestro universo.

A partir de ahí había que tomar en serio la idea de un “campo” con una existencia propia incorpórea. Y, fue entonces cuando se produjo la providencial llegada de Maxwell que, al contrario de Faraday, él si entendía bien el complejo mundo de las matemáticas y, en 1864, formuló las ecuaciones que debe satisfacer este “campo” incorpóreo, y quien demostró que estos campos pueden transportar energía de un lugar a otro.

Transporte de energía

                                   ¿ Transmutando energía?

Las ecuaciones de Maxwell unificaban el comportamiento de los campos eléctricos, los campos magnéticos e incluso la luz, y hoy día son conocidas como las ecuaciones de Maxwell, las primeras entre las ecuaciones de campo relativistas. Desde la perspectiva del siglo XX se han hecho profundos cambios y se ha producido profundos avances en las técnicas matemáticas, las ecuaciones de Maxwell parecen tener una naturalidad y simplicidad concincentes que nos hacen preguntarnos cómo pudo considerarse alguna vez que el campo electromagnético pudiera obedecer a otras leyes. Pero semejante perspectiva ignora el hecho de que fueron las propias ecuaciones de Maxwell las que llevaron a muchos de estos desarrollos matemáticos. Fue la forma de estas ecuaciones la que indujo a Lorentz, Poincaré y Einstein a las transformaciones espaciotemporales de la relatividad especial, que, a su vez, condujeron a la concepción de Minkowaki del espaciotiempo.

¡La Mente Humana! ¿Hasta donde podrá llegar? ¿Qué limite tendrá impuesto? La respuesta es sencilla: ¡No hay límites! Y, aunque dicha afirmación la repita en muchos de mis escritos, y, aunque a algunos les parezca un sueño…, esa es,  la realidad.

emilio silvera

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios


A partir de sus principios en Sumeria (actualmente en Irak) alrededor del 3500 a. C., en Mesopotamia, los pueblos del norte comenzaron a intentar registrar la observación del mundo con datos cuantitativos y numéricos sumamente cuidados. Pero sus observaciones y medidas aparentemente fueron tomadas con otros propósitos más que la ley científica. Un caso concreto es el del teorema de Pitágoras, que fue registrado, aparentemente en el siglo XVIII a. C.: la tabla mesopotámica Plimpton 322 registra un número de trillizos pitagóricos (3,4,5) (5,12,13)…., datado en el 1900 a. C., posiblemente milenios antes de Pitágoras,1 pero no era una formulación abstracta del teorema de Pitágoras.

Los avances significativos en el Antiguo Egipto son referentes a la astronomía, a las matemáticas y a la medicina.2 Su geometría era una consecuencia necesaria de la topografía, con el fin de intentar conservar la disposición y la propiedad de las tierras de labranza, que fueron inundadas cada año por el Nilo. La regla del triángulo rectángulo y otras reglas básicas sirvieron para representar estructuras rectilíneas, el pilar principal de la arquitectura dintelada egipcia. Egipto era también el centro de la química y la investigación para la mayor parte del Mediterráneo.

Nuevas paradigmas en la Física Moderna

Isabel Pérez Arellano y Róbinson Torres Villa, publicaron un artículo en 2009, sobre la física moderna y sus paradigmas y, comenzaban diciendo:

“Desde siempre el hombre ha intentado dar respuesta a los interrogantes más profundos que lo inquietan; preguntas

que van desde ¿Quién soy?, ¿de dónde vengo? ¿y hacia dónde voy?, hasta los intentos por explicar el origen y final universo en qué vive. Muchas son las prepuestas que se han dado a esos interrogantes, dependiendo de la corriente de pensamiento seguida por quien aborda esas preguntas; es así como se ven aproximaciones místicas, esotéricas, religiosas y científicas entre otras; pero todas con el objetivo de dilucidar alguna respuesta a esas preguntas fundamentales.

Desde el punto de vista científico y concretamente de la física moderna, se han planteado algunas explicaciones del universo en el que vivimos que algunas veces rozan con lo fantástico, dado el nivel de abstracción o especulación que llevan implícito, todo obviamente avalado por sofisticados modelos matemáticos que al parecer soportan las hipótesis planteadas.”

 

 

Si repasamos la historia de la ciencia, seguramente encontraremos muchos motivos para el optimismo. Por mencionar a un científico de nuestro tiempo, escojamos a E. Witten que está convencido de que la ciencia será algún día capaz de sondear hasta las energías de Planck. Como ya he contado en otras ocasiones, él dijo:

“No siempre es tan fácil decir cuáles son las preguntas fáciles y cuáles las difíciles. En el siglo XIX, la pregunta de por qué el agua hierve a 100 grados era desesperadamente inaccesible. Si usted hubiera dicho a un físico del siglo XIX que hacia el siglo XX sería capaz de calcularlo, le habría parecido un cuento de hadas… La teoría cuántica de campos es tan difícil que nadie la creyó completamente durante 25 años.”

En su opinión, las buenas ideas siempre se verifican. Los ejemplos son innumerables: la gravedad de Newton, el campo eléctrico de Faraday y el electromagnetismo de Maxwell, la teoría de la relatividad de Einstein en sus dos versiones y su demostración del efecto fotoeléctrico, la teoría del electrón de Paul Dirac, el principio de incertidumbre de Heisenberg, la función de ondas de Schrödinger, y tantos otros. Algunos de los físicos teóricos más famosos, sin embargo, protestaban de tanto empeño en la experimentación.

El astrónomo arthur Eddington se cuestionaba incluso si los científicos no estaban forzando las cosas cuando insistían en que todo debería ser verificado. El premio Nobel Paul dirac incluso llegó a decir de forma más categórica: “Es más importante tener belleza en las ecuaciones que tener experimentos que se ajusten a ellas“, o en palabras del físico John Ellis del CERN, “Como decía en una envoltura de caramelos que abrí hace algunos años, «Es sólo el optimista el que consigue algo en este mundo».

Yo, como todos ustedes, un hombre normal y corriente de la calle, escucho a unos y a otros, después pienso en lo que dicen y en los argumentos y motivaciones que les han llevado a sus respectivos convencimientos, y finalmente, también decido según mis propios criterios y emito mi opinión de cómo es el mundo que, no obligatoriamente, coincidirá con alguna de esas opiniones, y que en algún caso, hasta difieren radicalmente.

Suponiendo que algún físico brillante nos resuelva la teoría de campos de cuerdas y derive las propiedades conocidas de nuestro universo, con un poco de suerte, podría ocurrir en este mismo siglo, lo que no estaría nada mal considerando las dificultades de la empresa. El problema fundamental es que estamos obligando a la teoría de supercuerdas a responder preguntas sobre energías cotidianas, cuando su “ámbito natural” está en la energía de Planck. Esta fabulosa energía fue liberada sólo en el propio instante de la creación, lo que quiere decir que la teoría de supercuerdas tiene su explicación allí, en aquel lugar y tiempo donde se produjeron las mayores energías conocidas en nuestro Universo y que, nosotros, no podemos alcanzar -de momento-.

Fuimos capaces de predecir que el Big Bang produjo un “eco” cósmico reverberando en el universo y que podría ser mesurable por los instrumentos adecuados. De hecho, Arno Penzias y Robert Wilson de los Bell Telephone Laboratories ganaron el premio Nobel en 1.978 por detectar este eco del Big Bang, una radiación de microondas que impregna el universo conocido.

                    Como una onda, podemos detectar el eco del big bang

El que el eco del Big Bang debería estar circulando por el universo miles de millones de años después del suceso fue predicho por primera vez por George Gamow y sus discípulos Ralpher y Robert Herman, pero nadie les tomó en serio. La propia idea de medir el eco de la creación parecía extravagante cuando la propusieron por primera vez poco después de la segunda guerra mundial. Su lógica, sin embargo, era aplastante. Cualquier objeto, cuando se calienta, emite radiación de forma gradual. Ésta es la razón de que el hierro se ponga al rojo vivo cuando se calienta en un horno, y cuanto más se calienta, mayor es la frecuencia de radiación que emite. Una fórmula matemática exacta, la ley de Stefan-Boltzmann, relaciona la frecuencia de la luz (o el color en este caso) con la temperatura. De hecho, así es como los científicos determinan la temperatura de la superficie de una estrella lejana; examinando su color. Esta radiación se denomina radiación de cuerpo negro.

US_ARMY
Imagen captada a través de un visor nocturno. En ella se muestra a un soldado estadounidense equipado con unas gafas de visión nocturna. / US Army

Esta radiación, ¡cómo no!, ha sido aprovechada por los ejércitos, que mediante visores nocturnos pueden operar en la oscuridad. De noche, los objetos relativamente calientes, tales como soldados enemigos o los carros de combate, pueden estar ocultos en la oscuridad, pero continúan emitiendo radiación de cuerpo negro invisible en forma de radiación infrarroja, que puede ser captada por gafas especiales de infrarrojo. Ésta es también la razón de que nuestros automóviles cerrados se calientes en verano, ya que la luz del Sol atraviesa los cristales del coche y calienta el interior. A medida que se calienta, empieza a emitir radiación de cuerpo negro en forma de radiación infrarroja. Sin embargo, esta clase de radiación no atraviesa muy bien el vidrio, y por lo tanto queda atrapada en el interior del automóvil, incrementando espectacularmente la temperatura y, cuando regresamos para proseguir el camino… ¿quién es el guapo que entra?

Reacción química con CO2

Análogamente, la radiación de cuerpo negro produce el efecto invernadero. Al igual que el vidrio, los altos niveles de dióxido de carbono en la atmósfera, causados por la combustión sin control de combustibles fósiles, pueden atrapar la radiación de cuerpo negro infrarroja en la Tierra, y de

este modo calentar gradualmente el planeta.

Gamow razonó que el Big Bang era inicialmente muy caliente, y que por lo tanto sería un cuerpo negro ideal emisor de radiación. Aunque la tecnología de los años cuarenta era demasiado primitiva para captar esta débil señal de la creación, Gamow pudo calcular la temperatura de dicha radiación y predecir con fiabilidad que un día nuestros instrumentos serían lo suficientemente sensibles como para detectar esta radiación “fósil”.

La lógica que había detrás de su razonamiento era la siguiente: alrededor de 300.000 años después del Big Bang, el universo se enfrió hasta el punto en el que los átomos pudieron empezar a componerse; los electrones, entonces,  pudieron empezar a rodear a los protones y neutrones formando átomos estables, que ya no serían destruidos por la intensa radiación que estaba impregnando todo el universo. Antes de este momento, el universo estaba tan caliente que los átomos eran inmediatamente descompuestos por esa radiación tan potente en el mismo acto de su formación. Esto significa que el universo era opaco, como una niebla espesa absorbente e impenetrable.

Pasados 300.000 años, la radiación no era tan potente; se había enfriado y por lo tanto la luz podía atravesar grades distancias sin ser dispersada. En otras palabras, el universo se hizo repentinamente negro y transparente.

Así se hizo la luz en el Universo

Terminaré esta parte comentando que un auténtico cuerpo negro es un concepto imaginario; un pequeño agujero en la pared de un recinto a temperatura uniforme es la mejor aproximación que se puede tener de él en la práctica. La radiación de cuerpo negro es la radiación electromagnética emitida por un cuerpo negro. Se extiende sobre todo el rango de longitudes de onda y la disminución de energías sobre este rango tiene una forma característica con un máximo en una cierta longitud de onda, desplazándose a longitudes de onda más cortas al aumentar las temperaturas*.

Hablar, sin más especificaciones, de radiación, es estar refiriéndonos a una energía que viaja en forma de ondas electromagnéticas o fotones por el universo. También nos podríamos estar refiriendo a un chorro de partículas, especialmente partículas alfa o beta de una fuente radiactiva o neutrones de un reactor nuclear.

       Radiación y magnetismo presentes en todas partes

La radiación actínida es la electromagnética que es capaz de iniciar una reacción química. El término es usado especialmente para la radiación ultravioleta que emiten las estrellas jóvenes y azuladas en las bellas nebulosas.

Muchos son los tipos conocidos: Radiación blanda, radiación cósmica, radiación de calor, radiación de fondo, de fondo de microondas, radiación dura, electromagnética, radiación gamma, infrarroja, ionizante, monocromática, policromática, de sincrotón, ultravioleta, de la teoría cuántica, de radiactividad… y, como se puede ver, la radiación en sus diversas formas es un universo en sí misma.

El físico alemán Max Planck (1.858 – 1.947), responsable entre otros muchos logros de la ley de radiación de Planck, que da la distribución de energía radiada por un cuerpo negro. Introdujo en física el concepto novedoso de que la energía es una cantidad que es radiada por un cuerpo en pequeños paquetes discretos, en vez de una emisión continua. Estos pequeños paquetes se conocieron como cuantos y la ley formulada es la base de la teoría cuántica.

Einstein se inspiró en este trabajo para a su vez presentar el suyo propio sobre el efecto fotoeléctrico, donde la energía máxima cinética del fotoelectrón, Em, está dada por la ecuación que lleva su nombre: Em = hf – Φ.

Planck publicó en 1.900 un artículo sobre la radiación de cuerpo negro que sentó las bases para la teoría de la mecánica cuántica que más tarde desarrollaron otros, como el mismo Einstein, Heisenberg, Schrödinger, Dirac, Feymann, etc. Todos los físicos son conocedores de la enorme contribución que Max Planck hizo en física: la constante de Planck, radiación de Planck, longitud de Planck, unidades de Planck, etc. Es posible que sea el físico de la historia que más veces ha dado su nombre a conceptos de física. Pongamos un par te ejemplos de su ingenio:

1.  Esta escala de longitud ( 10-35 m ) veinte órdenes de magnitud menor que el tamaño del protón, de 10-15 m, es a la que la descripción clásica de gravedad cesa de ser válida y debe ser tenida en cuenta la mecánica cuántica. En la fórmula que la describe, G es la constante gravitacional, ħ es la constante de Planck racionalizada y c en la velocidad de la luz.

2.    Es la masa de una partícula cuya longitud de onda Compton es igual a la longitud de Planck. En la ecuación, ħ es la constante de Planck racionalizada, c es la velocidad de la luz y G es la constante gravitacional.

La descripción de una partícula elemental de esta masa, o partículas que interaccionan con energías por partículas equivalentes a ellas (a través de E = mc2), requiere de una teoría cuántica de la gravedad. Como la masa de Planck es del orden de 10-8 Kg (equivalente a una energía de 1019 GeV) y, por ejemplo, la masa del protón es del orden de 10-27 Kg y las mayores energías alcanzables en los aceleradores de partículas actuales son del orden de 14 TeV, los efectos de gravitación cuántica no aparecen en los laboratorios de física de partículas.

Únicamente en un laboratorio aparecieron partículas que tenían energías del orden de la masa de Planck: en el universo primitivo, de acuerdo con la teoría del Big Bang, motivo éste por el que es necesaria una teoría cuántica de la gravedad para estudiar aquellas condiciones. Esta energía de la que estamos hablando, del orden de 1019 GeV (inalcanzable para nosotros), es la que necesitamos para verificar la teoría de supercuerdas.

Siempre, desde que puedo recordar, me llamó la atención los misterios y secretos encerrados en la naturaleza, y la innegable batalla mantenida a lo largo de la historia por los científicos para descubrirlos.

emilio silvera

¿Asombrarnos? ¡Tenemos tantos motivos!

Autor por Emilio Silvera    ~    Archivo Clasificado en vida    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

  No es que el Universo sea más de lo que imaginas, es que siempre será, mucho más de lo que puedas imaginar

La ciencia que estudia las leyes que determinan las estructura del Universo con referencia a la materia y la energía de la que está constituído. Se ocupa no de los cambios químicos que ocurren, sino de las fuerzas que existen entre los objetos y las interrelaciones entre la materia y la energía. Tradicionalmente, el estudio se dividía en campos separados: calor, luz, sonido, electricidad y magnetismo y mecánica (Física clásica).

Desde el siglo XX, sin embargo, la Mecánica cuántica y la Física relativista han sido cada vez más importantes; el desarrollo de la Física moderna ha estado acompañado del estudio de la Física atómica, Física nuclear y Física de partículas, molecular…

La Física de cuerpos astronómicos y sus interacciones recibe el nombre de Astrofísica, la Física de la Tierra, recibe la denominación de Geofísica, y el estudio de los aspectos Físicos de la Biología se denomina Biofísica. Tenemos que concluir que sin la Física, no sabríamos cómo es el universo que nos acoge y el por qué del comportamiento de la materia-energía que en él está presente.

Gracias a los aceleradores de partículas hemos podido llegar muy lejos hacia atrás en el tiempo para poder saber sobre cómo se pudo formar y, “suponer” cómo pudo surgir. Cuando llegamos a los 10-35 de segundo desde el comienzo del tiempo, entramos en un ámbito en el que las condiciones cósmicas son poco conocidas.  Si las grandes teorías unificadas son correctas, se produjo una ruptura de la simetría por la que la fuerza electronuclear unificada se escindió en las fuerzas electrodébil y las fuertes.  Si es correcta la teoría de la supersimetría, la transición puede haberse producido antes, había involucrado a la gravitación.

 

 

 

Aún no había Carbono que se produciría mucho más tarde, en las estrellas, mediante el efecto triple alfa

En el universo tempranop la primera materia (hidrógeno y Helio) era llevada por la fuerza de gravedad a conformarse en grandes conglomerados de gas y polvo que interacioban, producían calor y formaron las primeras estrellas a los doscientos años del comienzo del tiempo y, sus cúmulos y aglomerados se convirtieron en las primeras galaxias que, tampoco sabemos a ciencia cierta, que mecanismos pudieron seguir para formarse.

Elaborar una teoría totalmente unificada es tratar de comprender lo que ocurrió en ese tiempo remoto que, según los últimos estudios está situado entre 13.700 y 15.000 millones de años, cuando la perfecta simetría -que se pensaba, caracterizó el Universo-, se hizo añicos para dar lugar a las simetrías rotas que hallamos a nuestro alrededor y que nos trajo las fuerzas y constantes Universales que,  paradójicamente, hicieron posible nuestra aparición para que ahora, sea posible que, alguien como yo esté contando lo que pasó.

Ampliar

 

 

Realmente, carecemos de una teoría que nos explique lo que pasó en aquellos primeros momenmtos y, hasta que no tengamos tal teoría no podemos esperar comprender lo que realmente ocurrió en ese Universo temprano.  Los límites de nuestras conjeturas actuales cuando la edad del Universo sólo es de 10-43 de segundo, nos da la única respuesta de encontrarnos ante una puerta cerrada. Del otro lado de esa puerta está la época de Plank, un tiempo en que la atracción gravitatoria ejercida por cada partícula era comparable en intensidad a la fuerza nuclear fuerte.

Así que, llegados a este punto podemos decir que la clave teórica que podría abrir esa puerta sería una teoría unificada que incluyese la gravitación, es decir, una teoría cuántica-gravitatoria que uniese, de una vez por todas, a Planck y Einsteins que, aunque eran muy amigos, no parecen que sus teorías (la Mecánica Cuántica) y (la Relatividad General) se lleven de maravilla.

http://lamemoriacelular.com/blog/wp-content/uploads/2010/04/celula.png

 

Y, a todo esto, tenemos que pensar en el hecho cierto de que átomos, moléculas  y conexiones se pudieran estructurar en un conjunto complejo para poder formar pensamientos surgidos de algo nuevo que antes no estaba presente en el Universo: ¡La Vida! Que evolucionada pudo llegar, en algún caso, a generar no sólo pensamientos sino que también, llegaron los sentimientos y nos hizo adolescentes. Ahora, estamos a la espera de que llegue la mayoría de edad, ese tiempo en el que se deja de hacer chiquilladas y la seriedad predomina en los comportamientos que están aconsejados por la sabiduría de la experiencia. Pero para que eso le llegue a la Humanidad… ¡Falta mucho, mucho, muchísimo Tiempo!

Hemos llegado a poder discernir la relación directa que vincula el tamaño, la energía de unión y la edad de las estructuras fundamentales de la Naturaleza. Una molécula es mayor y más fácil de desmembrar que un átomo; lo mismo podemos decir de un átomo respecto al núcleo atómico, y de un núcleo con respecto a los quarks que contiene.

La cosmología  sugiere que esta relación resulta del curso de la historia cósmica, que los quarks se unieron primero, en la energía extrema del big bang original, y que a medida que el Universo se expandió, los protones y neutrones compuestos de quarks se unieron para formar núcleos de átomos, los cuales, cargados positivamente, atrajeron a los electrones cargados con electricidad negativa estableciéndose así como átomos completos, que al unirse formaron moléculas. Si es así, cuanto más íntimamente examinemos la Naturaleza, tanto más lejos hacia atrás vamos en el tiempo.

    Todo lo grande está hecho de cosas pequeñas conformadas en la debida proporción para que existan mundos, estrellas, galaxias y seres vivos

Aquí, generalmente comentamos sobre la Física pura en sus dos versiones de la Relatividad y la Mecánica Cuántica que engloba ese universo particular de lo microscópico donde se mueven las partículas que conforma todo aquello que podemos observar en el Universo y que llamamos la Materia Bariónica, y, al mismo tiempo, nos ocupamos de la interrelación que entre los cuerpos físicos ocurren y las fuerzas que están presentes, así como, de las constantes universales que en nuestro universo, son las responsables de que todo funcione como lo hace.

Hablamos de física y no puedo dejar de pensar en cómo la mente humana, ha podido profundizar tanto en el conocimiento de la Naturaleza hasta llegar a números tan complejos como el de las constantes de la Naturaleza: la constante de Planck en sus dos versiones, h y ħ; la igualdad masa-energía de Einstein, la constante gravitacional de Newton, la constante de estructura fina (137) y el radio del electrón.

quimica8.png

En ciencias se entiende por constante física el valor de una magnitud física cuyo valor, fijado un sistema de unidades, permanece invariable en los procesos físicos a lo largo del tiempo. En contraste, una constante matemática, las constante de la Naturaleza representan un valor invariable que no está implicado directamente en ningún proceso físico. Algunas de ellas son:

  • Constante de Planck: h = E/v
  • Constante de Planck racionalizada: ℎ = h/2π
  • Igualdad masa-energía: E = mc2
  • Constante gravitacional: F = m1m2G/d2
  • Constante de estructura fina: α = 2πe2/hc
  • Radio del electrón: r0 = e2/mc2

                      ¡Me encantan sus mensajes!

Es verdaderamente meritorio el enorme avance que en tan poco tiempo ha logrado la Humanidad en el campo de la física. En aproximadamente un siglo y medio, se ha pasado de la oscuridad a una claridad, no cegadora aún, pero sí aceptable. Son muchos los secretos de la naturaleza física que han sido desvelados, y el ritmo parece que se mantiene a un muy meritorio ritmo gracias a inmensas estructuras que, como el Acelerador de Hadrones (LHC), nos ha llevado hacia atrás en el Tiempo muy cerca del comienzo, después del Tiempo de Planck cuando la materia y la energía se distribuyeron para conformar el Universo que conocemos hoy.

¡El tiempo!, ése precioso bien está a nuestro favor. Sólo tenemos que ir pasando el testigo para alcanzar las  metas propuestas. Pongamos nuestras esperanzas en que no seamos tan irresponsables como para estropearlo todo. ¿Nos haremos mayors alguna vez? Tenemos que pensar a lo grande, en el conjunto universal y dejarnos de parroquialismos locales, olvidarnos del Yo y pensar en el Nosotros.

Astronomía, gravedad o electromagnetismo; cuestiones sencillas de entender para los iniciados y, a veces, muy complejas para la gente corriente. Por tal motivo, si escribo sobre estos interesantes temas, mi primera preocupación es la de buscar la sencillez en lo que explico. No siempre lo consigo. Por ejemplo, expliquemos el magnetismo.

                                                                                     Magnetismo

Grupo de fenómenos asociados a los campos magnéticos. Siempre que una corriente eléctrica fluye, se produce un campo magnético; como el movimiento orbital de un electrón y el espín de los electrones atómicos son equivalentes a pequeños circuitos de corriente, los átomos individuales crean campos magnéticos a su alrededor cuando los electrones orbitales tienen un momento magnético neto como resultado de su momento angular. El momento angular de un átomo es el vector suma de los momentos magnéticos de los movimientos orbitales y de los espines de todos los electrones en el átomo.

Las propiedades magnéticas macroscópicas de una sustancia tienen su origen en los momentos magnéticos de sus átomos o moléculas constituyentes. Diferentes materiales poseen distintas características en un campo magnético aplicado; hay cuatro tipos de comportamientos magnéticos.

a)          En diamagnetismo, la magnetización está en la dirección opuesta a la del campo aplicado, es decir, la susceptibilidad es negativa. Aunque todas las sustancias son diamagnéticas, es una forma débil de magnetismo que puede ser enmascarada por otras formas más fuertes. Tiene su origen en los cambios introducidos por los campos aplicados en las órbitas de los electrones de una sustancia, siendo la dirección del cambio opuesta a la del flujo aplicado (de acuerdo con ley de Lenz).

Existe, por tanto, una débil susceptibilidad negativa (del orden de -10-8 m3 mol-1) y una permeabilidad relativa ligeramente menor que 1.

b)           En paramagnetismo, los átomos o moléculas de la sustancia tienen momentos magnéticos orbitales o espín que son capaces de estar alineados en la dirección del campo aplicado. Éstos, por tanto, tienen una susceptibilidad positiva (aunque pequeña) y una permeabilidad relativa ligeramente mayor que 1.

El paramagnetismo aparece en todos los átomos y moléculas con electrones desapareados; es decir, átomos libres, radicales libres y compuestos de metales de transición que contienen iones con capas de electrones no llenas.

También ocurre en metales como resultado de momentos magnéticos asociados a los espines de los electrones de conducción.

c)          En sustancias ferromagnéticas, dentro de un cierto rango de temperaturas, hay momentos magnéticos atómicos netos, que se alinean de forma que la magnetización persiste después de eliminar el campo aplicado.

Por debajo de una cierta temperatura llamada punto de Curie (o temperatura de Curie), un campo magnético en aumento aplicado a una sustancia ferromagnética causará una magnetización creciente hasta un valor máximo, llamado magnetización de saturación. Esto es debido a que una sustancia ferromagnética está constituida por pequeñas regiones magnetizadas (1 – 0’1 mm de ancho) llamadas dominios.

El momento magnético total de la muestra de sustancia es el vector suma de los momentos magnéticos de los dominios constituyentes. Dentro de cada dominio, los momentos magnéticos atómicos individuales se alinean espontáneamente por fuerzas de intercambio, que dependen de si los espines de los electrones atómicos son paralelos o antiparalelos.

Sin embargo, en un trozo no magnetizado de material ferromagnético, los momentos magnéticos de los dominios no están alineados; cuando un campo externo es aplicado, esos dominios que están alineados con el campo aumentan de tamaño a expensas de otros.

En un campo muy intenso, todos los dominios se alinean en la dirección del campo y producen la alta magnetización observada. El hierro, el níquel, el cobalto y sus aleaciones son ferromagnéticos. Por encima del punto de Curie, los materiales ferromagnéticos se vuelven paramagnéticos.

Este gráfico muestra la precisión atómica del antiferromagnético a escala atómica con la punta de un microscopio de efecto túnel. Los átomos de hierro se colocan sobre una superficie de nitruro de cobre y obligado por dos átomos de nitrógeno (barras azules) en un arreglo regular separados por un átomo de cobre (amarillo).

d)          Algunos metales, aleaciones y sales elementales de transición, muestran otro tipo de magnetismo llamado antiferromagnetismo. Esto ocurre por debajo de cierta temperatura, llamada temperatura de Néel, a la cual se forma espontáneamente una red ordenada de momentos magnéticos atómicos en la que momentos alternos tienen direcciones opuestas. No hay, por tanto, momento magnético resultante en ausencia de un campo aplicado.

En el fluoruro de manganeso, por ejemplo, esta disposición antiparalela ocurre por debajo de una temperatura de Néel de 72 K. Por debajo de esta temperatura, el ordenamiento espontáneo se opone a la tendencia normal de los momentos magnéticos de alinearse con el campo aplicado. Por encima de la temperatura de Néel, la sustancia es paramagnética.

Una forma especial de antiferromagnetismo es el ferrimagnetismo, un tipo de magnetismo mostrado por las ferritas. En estos materiales, o bien los momentos magnéticos de los iones adyacentes son antiparalelos y de intensidad desigual, o bien el número de momentos magnéticos en una dirección es mayor que el número de los que hay en la dirección opuesta.

Mediante una adecuada elección de los iones de tierras raras en las redes de ferrita es posible diseñar sustancias ferrimagnéticas con magnetizaciones específicas para su uso en componentes electrónicos.

Si nos queremos referir al geomagnetismo, estaremos hablando de la ciencia que estudia el campo magnético terrestre.

Si una barra de imán es suspendida en cualquier punto de la superficie terrestre, de forma que se pueda mover libremente en todos sus planos, el polo norte del imán apuntará en una dirección aproximadamente al norte. El ángulo (D) entre la dirección horizontal a la que apunta y el meridiano geográfico en ese punto se llama declinación magnética. Se toma positiva al este del norte geográfico y negativa al oeste. La aguja no estará horizontal salvo en el ecuador magnético. En todos los demás lugares formará un ángulo (/) con la horizontal, llamado inclinación magnética.

En todos los polos magnéticos / = 90º (+90º en el polo norte y -90º en el polo sur), y la aguja será vertical.

Las posiciones de los polos, que varían con el tiempo, eran en los años setenta aproximadamente 76, 1º N, 100º W (N) y 65, 8º S, 139º E (S). El vector intensidad (F) del campo geomagnético se determina por I, D y F, donde F es la intensidad magnética local del campo medida en gauss o teslas (1 gauss = 10-4 teslas). F, I y D, junto con las componentes verticales y horizontales de F y sus componentes norte y este, son llamados los elementos magnéticos.

Esta explicación del geomagnetismo podría ser más larga y completa, con muchos más datos técnicos y matemáticos, sin embargo, ¿a quién le gustaría? A eso me refería antes cuando decía “…mi primera preocupación es la de buscar la sencillez en lo que explico. No siempre lo consigo.

                                    Si el tema no interesa… cada cual irá a lo suyo

Si a continuación pongo un ejemplo práctico y explico el magnetismo de manera muy técnica y completa, que seguramente no sea del interés del lector de ciencia no iniciado. Éste no quiere estas complejidades que, por muy perfectas que puedan resultar técnicamente hablando, siempre les resultarán aburridas, tediosas, y lo que es peor, incomprensibles.

Los buenos escritores-divulgadores de la ciencia deben contar los fenómenos naturales revistiéndolos de un atractivo y misterioso toque mágico que se se muestre ante los ojos de la mente del lector y,  produciéndoles asombro y sorpresa por tales maravillas queden embebidos en el relato y en las cosas maravillosas que allí se están tratándo. Y, en Física, amigos míos, casi todo lo que te enciuentras son maravillas de la Naturaleza que, cuando comienzas a comprender… ¡Es imposible dejar de mirar!

Si contamos la historia de una estrella, desde que nace a partir del gas y del polvo cósmico hasta que muere en una explosión de supernova para convertirse en otro objeto estelar diferente, al oyente le resultará atractivo o pesado, interesante o incomprensible, según quién y cómo lo cuente.

Me preocupa cuando escribo que lo que estoy contando pueda aburrir al posible lector.Siempre procuro ceñirme a la verdad científica y exponer los hechos con la veracidad requerida y, sin embargo, eso es totalmente posible aunque le podamos dar un pequeño toque de fantasía que lo hará más atractivo. Claro que, por mucho que querámos fantasear sabemos que en el mundo y en todo el Universo, las leyes que rigen son iguales para todo y para todos y lo que pasa aquí también pasará allí, aunque ese allí esté a miles de millones de años-luz de nosotros.

     Aquí tenemos un ejemplo de lo que digo, la Naturaleza se repite

En los extraños mares de otros planetas, sin tener en cuenta la composición química, es difícil imaginar que la evolución de lugar a una forma más sencilla de locomoción que la que se produce ondulando colas y aletas. Que la propia evolución encontraría este tipo de propulsión viene avalado por el hecho de que, incluso en la Tierra, esta evolución se ha produción de manera totalmente espontánea e independiente. Los peces desarrollaron la propulsión cola-aleta; después, ellos mismos evolucionaron hasta convertirse en tipos anfibios que se arrastraban por tierra firme hasta llegar a ser reptiles. Lo cierto es que hemos llegado a saber que, de una u otra manera, ¡la vida se abre camino!

Por ejemplo, en nuestro planeta el ornitorrinco representa la primera rama de mamíferos a partir de un ancestro con características de ambos mamíferos y reptiles de hace 166 millones años. De alguna manera se mantiene una superposición de funciones, mientras que los mamíferos posteriores perdieron sus rasgos de reptil. Comparando el genoma del ornitorrinco con el ADN de otros mamíferos, incluidos los seres humanos que llegaron a lo largo del transcurso del tiempo, y los genomas de los pájaros, que bifurcan hace unos 315 millones años, ayuda a definir la evolución.

Algunos  reptiles fueron evolucionando y dieron lugar a a los mamíferos. Pero cuando algunos de estos últimos regresaron al mar (los que luego han sido ballenas y focas, por ejemplo), sus piernas volvieron a evolucionar hacia las formas de las aletadestinadas a la propulsión por el medio acuatico y a la navegación.

Aunque la vida tardó más de diez mil millones de años en hacer acto de presencia -al menos en la Tierra y, seguramente en otros planetas también- en sus formas más primitivas, supo adaptarse y evolucionar hasta llegar al momento presente en el que, sólo el uno por ciento de las especies que han existido en el planeta están vivas, el resto no pudo soportar los cambios y al no adaptarse, se extinguieron. Así seguirá siendo siempre: Adaptarse o morir.

Sí, es posible que hoy seámos nosotros la especie predominante en el planeta Tierra pero, no debemos olvidar que no siempre ha sido así. Antes ni estábamos aquí y, durante ciento ciencuenta millones de años reinaron en nuestro mundo aquellos terribles lagartos, los Dinosaurios que desaparecieron hace ahora sesenta y cinco millones de años para que nosotros, pudiéramos aparecer y evolucionar hasta conseguir hablar de mecánmica cuántica y relatividad general pero… ¿Y mañana? ¿Seguiremos siendo la especie dominante?

Yo no estaría tan seguro de eso. El mañana es incierto

La Tierra con sus especies de vida seguirá su camino adelante, siempre hacia el futuro incierto y desconocido que dependerá de ¡tántas cosas! Y, mientras tanto, como hemos mantenido siempre, en otros mundos distintos al nuestro y repartidos por los confines de nuestra propia Galaxia y de muchas otras que albergan mundos ignotos, otras criaturas estarán elucubrando sobre las mismas cuestiones que nosotros lo hacemos para poder discernir sobre el saber del mundo, de la Naturaleza, del Universo.

¿Qué puede haber en Gliese 581 g? Hemos llegado a descubrir más de mil mundos extraterrestres que es como un grano de arena en la inmensa playa del Universo, y, cientos de miles de millones de mundos estan exparcidos por las galaxias que pueblan el Cosmos y, en muchos de ellos, extrañas y enigmáticas criaturas habrán podido desvelar secretos de la materia y de la luz, del átomo y de las estrellas y, también como nosotros estarán pensando en cómo poder llegar hacia esos otros mundos que albergan vida e inteligencia.

Nosotros seguiremos avanzando aquí y “ellos” también lo harán “allí” donde quiera que ese “allí” pueda encontrarse que, será lejos, muy lejos. Tan lejos estamos de esos otros seres inteligentes que el hecho cierto de que no lo hayamos podido ver aún, nos habla de que, como nosotros, necesitan evolucionar mucho más para que, ese contacto se pueda producir.

Tampoco sería descabellado pensar que, la Naturaleza, tan sabia ella, tenga dispuesto que las especies estén cada una en su lugar, sin molestarse ni interferirse entre sí, que evolucionen en su propio entorno sin ingerencias que siempre vendrán a distorsionar lo que ya existe para cambiarlo en el mejor de los casos, o, aniquilarlo en el peor.

¿Quién sabe?

emilio silvera