martes, 26 de marzo del 2019 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Formación de los elementos en las Estrellas

Autor por Emilio Silvera    ~    Archivo Clasificado en Astrofísica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

——————–     IMPORTANCIA DEL CONOCIMIENTO DE LAS ABUNDANCIAS COSMICAS DE LOS ELEMENTOS   ——————-

Ya he escrito en otras ocasiones sobre el gran astrofísico Fred Hoyle , que tenía un dominio de la física nuclear no superado entre los astrónomos, hombre de espíritu independiente, que por pura energía intelectual se había abierto camino desde los grises valles textiles del norte de Inglaterra hasta llegar a ser un distinguido profesor de Cambridgue. Hoyle era individualista hasta el punto de la iconoclasia, y tam combativo como si hubiese ganado luchando su título de sir. Sus clases eran carismáticas, con acento de clase obrera que parecía ahondar sus credenciales eruditas acumuladas, y era igualmente eficaz con la palabra escrita; publicaba penetrante artículos especializados, fascinantes obras de divulgación ciantífica y animadas narraciones de ciencia-ficción en la que encontraba una puerta de escape para exponer ideas avanzadas que, científicamente, no estaban contrastadas.

Fred Hoyle

                           FRED HOYLE

Su burla era temible y sus críticas de la teoría del big bang hizo época por su mordacidad. Hoyle condenó la teoría por considerarla epistemológicamente estéril, ya que parecía poner una limitación temporal inviolable a la indagación científica: el big bang era una muralla de fuego, más allá de la cual la ciencia de la çepoca no sabía como investigar. Él no concebía y juzgó “sumamente objetable que las leyes de la física nos condujeran a una situación en la que se nos prohíbe calcular que ocurrió en cierto momento del tiermpo”. En aquel momento, no estaba falto de razón.

Pero no es ese el motivo de este trabajo, ya os decía antes que Hoyle tenía un dominio de la física nuclear nunca superado entre los astrónomos de su generación, había empezado a trabajar en la cuestión de las reacciones de la fusión estelar a mediado de los cuarenta. Pero había publicado poco, debido a una batalla continua con los “arbitros”, colegas anónimos que leían los artículos y los examinaban para establecer su exactitud, cuya hostilidad a las ideas más innovadoras de Hoyle hizo hizo que éste dejara de presentar sus trabajos a los periódicos. Hoyle tuvo que pagar un precio por su rebeldía, cuando, en 1951, mientras él, permanecía obstinadamente entre bastidores, Ernest Opik y Edwin Sepeter hallaron la síntesis en las estrellas de átomos desde el Berilio hasta el Carbono. Lamentando la oportunidad perdida, Hoyle rompió entonces su silencio y en un artículo de 1954 demostró como las estrellas gigantes rojas podían corvertir Carbono en Oxígeno 16.

Se encuentran elementos esenciales para la vida alrededor de una estrella joven. Usando el radiotelescopio ALMA (Atacama Large Millimeter/submillimeter Array), un grupo de astrónomos detectó moléculas de azúcar presentes en el gas que rodea a una estrella joven, similar al sol. Esta es la primera vez que se ha descubierto azúcar en el espacio alrededor de una estrella de estas características. Tal hallazgo demuestra que los elementos esenciales para la vida se encuentran en el momento y lugar adecuados para poder existir en los planetas que se forman alrededor de la estrella.

          En las distintas secuencias presentes en las estrrellas… dintintos elementos

Hidrógeno, Helio, Carbono, Litio, Berilio, Boro, Oxígeno, Neón, Silicio, Azufre, Hierro (damos un salto), Plomo, Torio y Uranio. Las diferencias de abundancias que existen son grandes -hay, por ejemplo, dos millones de átomos de níquel por cada cuatro átomos de plata y cincuenta de tunsgteno en la Via Láctea- y por consiguiente la curva e abundancia presenta una serie de picos dentados más accidentados que que la Cordillera de los Andes. Los picos altos corresponden al Hidrógeno y al Helio, los átomos creados en el big bang -más del p6 por ciento de la materia visible del universo- y había picos menores pero aún claros para el Carbono, el Oxígeno, el Hierro y el Plamo. La acentuada claridad de la curva ponía límites definidos a toda teoría de la síntesis de elementos en las estrellas. Todo lo que era necesario hacer -aunque dificultoso) era identificar los procesos por los cuales las estrellas habían llegado preferentemente a formar algunos de los elementos en cantidades mucho mayores que otros. Aquí estaba escrita la genealogía de los átomos, como en algún jeroglífico aún no traducido: “La historia de la materia éscribió Hoyle, Fwler y los Burbidge_…está oculta en la distribuciíon de la anundancia de elementos”

                               En el Big Bang: Hidrógeno, Helio, Litio.

En las estrellas de la serie principal: Carbono, Nitrógeno, Oxígeno.

En las estrellas moribundas: Sodio, Magnesio, Aluminio, Silicio, Azufre, Cloro, Argón, Potasio, Titanio, Hierro, Cobalto, Níquel, Cobre, Cinc, Plomo, Torio y Uranio.

Como habeis podido comprobar, nada sucede por que sí, todo tiene una explicación satisfactoria de lo que, algunas veces, decimos que son misterios escondidos de la Naturaleza y, sin embargo, simplemente se trata de que, nuestra ignorancia, no nos deja llegar a esos niveles del saber que son necesarios para poder explicar algunos fenómenos naturales que, exigen años de estudios, observaciones, experimentos y, también, mucha imaginación.

La abundancia, distribución y comportamiento de los elementos químicos en el cosmos es uno de los tópicos clásicos de la astrofísica y la cosmoquímica. En geoquímica es también importante realizar este estudio ya que:

- Una de las principales finalidades de la Geoquímica es establecer las leyes que rigen el comportamiento, distribución, proporciones relativas y relaciones entre los distintos elementos químicos.

- Los datos de abundancias de elementos e isótopos en los distintos tipos de estrellas nos van a servir para establecer hipótesis del origen de los elementos.

- Los datos de composición del Sol y las estrellas nos permiten establecer hipótesis sobre el origen y evolución de las estrellas. Cualquier hipótesis que explique el origen del Sistema Solar debe explicar también el origen de la Tierra, como planeta de dicho Sistema Solar.

- Las distintas capas de la Tierra presentan abundancias diferentes de elementos. El conocer la abundancia cósmica nos permite tener un punto de referencia común. Así, sabiendo cuales son las concentraciones normales de los elementos en el cosmos las diferencias con las abundancia en la Tierra nos pueden proporcionar hipótesis de los procesos geoquímicos que actuaron sobre la Tierra originando migraciones y acumulaciones de los distintos elementos, que modificaron sus proporciones y abundancias respecto al Cosmos.

La tabla periódica de los elementos es un arreglo sumamente ingenioso que permite presentar de manera lógica y estructurada las más simples sustancias de las que se compone todo: absolutamente todo lo que conocemos. Todos los elementos que conocemos, e incluso con lo que todavía no nos hemos encontrado, tienen un lugar preciso en ella, cuya posición nos permite conocer muchas de sus características. Ese grupo de casi cien ingredientes permite crear cualquier cosa. Pero no siempre fue así.

Gran Nebulosa de Orión

                          Me gusta la Gran Nebulosa de Orión. Hay ahí tántas cosas, nos cuenta tántas historias…

 

  FUENTES DE DATOS DE ABUNDANCIAS COSMICAS DE LOS ELEMENTOS

Estos datos deben obtenerse a partir del estudio de la materia cósmica. La materia cósmica comprende:

Gas interestelar, de muy baja densidad (10-24 g/cm3) y Nébulas gaseosas o nubes de gas interestelar y polvo. Las nébulas gaseosas se producen cuando una porción del medio interestelar está sujeta a radiación por una estrella brillante y muy caliente, hasta tal punto se ioniza que se vuelve fluorescentey emite un espectro de línea brillante (que se estudian por métodos espectroscopios). Por ejemplo las nébulas de “Orión” y “Trifidos”. Las ventajas de estas nébulas difusas para el estudio de las abundancias son:

‑ Su uniformidad de composición.

‑ El que todas sus partes sean accesibles a la observación, al contrario de lo que ocurre en las estrellas.

También tiene desventajas:

‑ Solo se observan las líneas de los elementos más abundantes.

‑ Cada elemento se observa solo en uno o pocos estadios de ionización aunque puede existir en muchos.

‑ La mayoría de las nébulas exhiben una estructura filamentosa o estratiforme  es decir que ni la D ni la T son uniformes de un punto a otro. A partir del medio interestelar (gas interestelar y nébulas gaseosas) se están formando continuamente nuevas estrellas.

 

      Las estrellas se forman a partir del gas y el polvo de las Nebulosas

En las estrellas podemos encontrar muchas respuestas de cómo se forman los elementos que conocemos. Primero fue en el hipotético big bang donde se formaron los elementos más simples: Hidrógeno, Helio y Litio. Pasados muchos millones de años se formaron las primeras estrellas y, en ellas, se formaron elementos más complejos como el Carbono, Nitrógeno y Oxígeno. Los elementos más pesados se tuvieron que formar en temperaturas mucho más altas, en presencia de energías inmensas como las explosiones de las estrellas moribundas que, a medida que se van acercando a su final forman materiales como: Sodio, Magnesio, Aluminio, Silicio, Azufre, Cloro, Argón, Potasio, Titanio, Hierro, Cobalto, Niquel, Cobre, Cinc, Plomo, Torio…Uranio. La evolución cósmica de los elementos supone la formación de núcleos  simples en el big bang y la posterior fusión de estos núcleos ligeros para formar núcleos más pesados y complejos en el interior de las estrellas y en la transición de fase de las explosiones supernovas.

El Sol como gigante roja

           El Sol, dentro de 5.000 millones de años, será una Gigante roja primero y una enana blanca después

Hoyle en sus investigaciones de los elementos en las estrellas se encontró con el obstáculo insuperable del hierro. El hierro es el más estable de todos los elementos; fusionar núcleos de hierro para formar nucleos de un elemento más pesado consume energía en vez de liberarla; ¿cómo,  pues, podían las estrellas efectuar la fusión del hierro y seguir brillando? Hoyle pensó que las supernovas podían realizar la tarea, que el extraordinario calor de una estrella en explosión podía servir para forjar los elementos más pesados que el hierro, si el de una estrella ordinaria no podía. Pero no lo pudo probar.

Luego, en 1956, el tema de la producción estelar de elementos recibió nuevo ímpetu cuando el astrónomo norteamerciano Paul Merril identificó las reveladoras líneas del Tecnecio 99 en los espectros de las estrellas S. El Tecnecio 99 es más pesado que el hierro. También es un elemento inestable, con una vida media de sólo 200.000 años. Si los átomos de Tecnecio que Merril detectó se hubiesen originado hace miles de millones de años en el big bang, se habrían desintegrado desde entonces y quedarían hoy muy pocos de ellos en las estrellas S o en otras cualesquiera. Sin embargo, allí estaban. Evidentemente, las estrellas sabían como construir elementos más allá del hierro, aunque los astrofísicos no lo supiesen.

                                          Estrella muy evolcuionada que se transforma en otra cosa

Las estrellas de tecnecio son estrellas cuyo espectro revela la presencia del elemento tecnecio. Las primeras estrellas de este tipo fueron descubiertas en 1952, proporcionando la primera prueba directa de la nucleosíntesis estelar, es decir, la fabricación de elementos más pesados a partir de otros más ligeros en el interior de las estrellas. Como los isótopos más estables de tecnecio tienen una vida media de sólo un millón de años, la única explicación para la presencia de este elemento en el interior de las estrellas es que haya sido creado en un pasado relativamente reciente. Se ha observado tecnecio en algunas estrellas M, estrellas MS, estrellas MC, estrellas S, y estrellas C.

Estimulado por el descubrimiento de Merril, Hoyle reanudó sus investigaciones sobre la nucleosíntesis estelar. Era una tarea que se tomó muy en serio. De niño, mientras se ocultaba en lo alto de una muralla de piedra jugando al escondite, miró hacia lo alto, a las estrellas, y resolvió descubrior qué eran, y el astrofísico adulto nunca olvidó su compromiso juvenil. Cuando visitó el California Institute Of Technology, Hoyle estuvo en compañía de Willy Fowler, un miembro residetente de la facultad con un conocimiento enciclopédico de la física nuclear, y Geoffrey y Margaret Burbidge, un talentoso equipo de marido y mujer que, como Hoyle, eran excépticos ingleses en la relativo al big bang.

Hubo un cambio cuando Geoffrey Burbidge, examinando datos a los que recientemente se había eximido de las normas de seguridad de una prueba atómica en el atolón Bikini, observó que la vida media de uno de los elementos radiactivos producidos por la explosión, el californio 254, era de 55 días. Esto sonó familiar: 55 días era justamente el período que tardó en consumirse una supernova que estaba estudiando Walter Baade. El californio es uno de los elementos más pesados; si fuese creado en el intenso calor de estrellas en explosión, entonces, suguramente los elementos situados entr el hierro y el californio -que comprenden, a fin de cuentas, la mayoría de la Tabla Periódica- también podrían formarse allí. Pero ¿cómo?.

                                                 Nucleosíntesis estelar

Las estrellas que son unas ocho veces más masivas que el Sol representan sólo una fracción muy pequeña de las estrellas en una galaxia espiral típica. A pesar de su escasez, estas estrellas juegan un papel importante en la creación de átomos complejos y su dispersión en el espacio.

Elementos necesarios como carbono, oxígeno, nitrógeno, y otros útiles, como el hierro y el aluminio. Elementos como este último, que se cocinan en estas estrellas masivas en la profundidad de sus núcleos estelares, puede ser gradualmente dragado hasta la superficie estelar y hacia el exterior a través de los vientos estelares que soplan impulsando los fotones. O este material enriquecido puede ser tirado hacia afuera cuando la estrella agota su combustible termonuclear y explota. Este proceso de dispersión, vital para la existencia del Universo material y la vida misma, puede ser efectivamente estudiado mediante la medición de las peculiares emisiones radiactivas que produce este material. Las líneas de emisión de rayos gamma del aluminio, que son especialmente de larga duración, son particularmente apreciadas por los astrónomos como un indicador de todo este proceso. El gráfico anterior muestra el cambio predicho en la cantidad de un isótopo particular de aluminio, Al26, para una región de la Vía Láctea, que es particularmente rica en estrellas masivas. La franja amarilla es la abundancia de Al26 para esta región según lo determinado por el laboratorio de rayos gamma INTEGRAL. La coincidencia entre la abundancia observada y la predicha por el modelo re-asegura a los astrónomos de nuestra comprensión de los delicados lazos entre la evolución estelar y la evolución química galáctica.

Pero sigamos con la historia recorrida por Hoyle y sus amigos. Felizmente, la naturaleza proporcionó una piedra Rosetta con la cual Hoyle y sus colaboradores podían someter a prueba sus ideas, en la forma de curva cósmica de la abundancia. Ésta era un gráfico del peso de los diversos átomos -unas ciento veinte especies de núcleos, cuando se tomaban en cuanta los isótopos- en función de su abundancia relativa en el universo, establecido por el estudio de las rocas de la Tierra, meteoritos que han caido en la Tierra desde el espacio exterior y los espectros del Sol y las estrellas.

Supernova que calcina a un planeta cercano. Ahí, en esa explosión se producen transiciones de fase que producen materiales pesados y complejos. En una supernova, en orden decreciente tenemos la secuencia de núcleos H, He, O, C, N, Fe, que coincide bastante bien con una ordenación en la tabla periódica que es: H, He, (Li, Be, B) C, N, O… Fe.

¿Apreciáis la maravilla?

Las estrellas brillan en el cielo para hacer posible que nosotros estemos aquí descubriendo los enigmas del universo y… de la vida inteligente. Esos materiales para la vida sólo se pudieron fabricar el las estrellas, en sus hornos nucleares y en las explosiones supernovas al final de sus vidas. Esa era la meta de Hoyle, llegar a comprender el proceso y, a poder demostrarlo.

“El problema de la síntesis de elementos -escribieron- está estrechamente ligado al problema de la evolcuión estelar.” La curva de abundancia cósmica de elementos que mostraba las cantidades relativas de las diversas clases de átomos en el universo a gran escala. Pone ciertos límites a la teoría de cómo se formaron los elementos, y, en ella aparecen por orden creciente:

Como reseñamos antes la lista sería Hidrógeno, Helio, Carbono, Litio, Berilio, Boro, Oxígeno, Neón, Silicio, Azufre, Hierro (damos un salto), Plomo, Torio y Uranio. Las diferencias de abundancias que aparecen en los gráficos de los estudios realizados son grandes -hay, por ejemplo, dos millones de átomos de níquel por cada cuatro átomos de plata y cincuenta de tunsgteno en la Via Láctea- y por consiguiente la curva e abundancia presenta una serie de picos dentados más accidentados que que la Cordillera de los Andes. Los picos altos corresponden al Hidrógeno y al Helio, los átomos creados en el big bang -más del p6 por ciento de la materia visible del universo- y había picos menores pero aún claros para el Carbono, el Oxígeno, el Hierro y el Plamo. La acentuada claridad de la curva ponía límites definidos a toda teoría de la síntesis de elementos en las estrellas. Todo lo que era necesario hacer -aunque dificultoso) era identificar los procesos por los cuales las estrellas habían llegado preferentemente a formar algunos de los elementos en cantidades mucho mayores que otros. Aquí estaba escrita la genealogía de los átomos, como en algún jeroglífico aún no traducido: “La historia de la materia éscribió Hoyle, Fwler y los Burbidge_…está oculta en la distribuciíon de la anundancia de elementos”

File:Triple-Alpha Process.png

         En la imagen de arriba se refleja el proceso Triple Alpha descubierto por Hoyle:

Amigos míos, son las 5,53 h., me siento algo cansado de teclear y me parece que con los datos aquí expuestos podéis tener una idea bastante buena de la formación de elementos en el cosmos y de cómo las estrellas son las máquinas creadoras de la materia cada vez más compleja y, el Universo, nos muestra de qué mecanismos se vale para poder traer elementos que más tarde formarán parte de los planetas, de los objetos en ellos presentes y, de la Vida.

emilio silvera

¡La Mente! Siempre misteriosa

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo y los pensamientos    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

GALEX: la galaxia de Andrómeda

Una galaxia es simplemente una parte pequeña del universo, nuestro planeta es una mínima fracción infinitesimal de esa galaxia, y nosotros mismos podríamos ser comparados (en relación a la inmensidad del cosmos) con una colonia de bacterias pensantes e inteligentes. Sin embargo, todo forma parte de lo mismo, y aunque pueda dar la sensación engañosa de una cierta autonomía, en realidad todo está interconectado y el funcionamiento de una cosa incide directamente en las demás. Recuerdo aquella película de Travolta: Fenomenón, en la que, en una escena hacía una demostración de poder mental: movía unas gafas de sol que se elevaban en el aire venciendo la gravedad. Al ser preguntado,  ¿Cómo puede hacer eso? Él contestó: “Es sencillo, simplemente es cuestión de relacionarse, de entenderse con el objeto que al fin y alcabo, está hecho de las mismas cosas que nosotros y existe una cierta afinidad que debemos encontrar”. Ya sabeis: “Todas las cosas son” y, con esas simples palabras el sabio, elevó a todas las cosas a la categoría de ser.

Sí, todas las cosas son, pero no de la misma manera y, la materia, en cada tiempo y lugar, estará conformada en un estado que puede comenzar en los simples objetos elementales que todo lo conforman y, en otros, podrá estar evolucionada hasta límites tan incríbles que de ella, pueden llegar a surgir los pensamientos y los sentimientos también.

 Psicoterapia Gestalt Valencia - Clotilde Sarrió

Es tanto lo que llevamos ahí dentro que, de momento, nos cuesta racionalizarlo todo de una manera coherente y que se pudiera considerar, como un todo lógico y controlado. No, no es así y, desde nuestro más profundo yo, a veces, surgen emociones y decisiones que, más tarde, a nosotros mismos nos pueden  sorprender. ¿Cómo es posible eso? ¿Acaso llevamos dentro otro yo que, en ocasiones excepcionales decide por nosotros? Nadie sabe como puede reaccionar ante situaciones inesperadas.

No, no será fácil llegar a dominar ese poder que nuestra intuición nos dice que tenemos…”dormido”. Puede ser que algún día lejos aún en el futuro, podamos despertar y llegar a comprender ese inmenso “universo” de complejidad que nuestra mente es. Entonces, y sólo entonces, podremos hablar de cuestiones más profundas y podremos comprender que, la Naturaleza y nosotros son la misma cosa. Desaparecerán los misterios y no tendremos que hacer preguntas, todas las respuestas estarán ante nosotros.

[clip_image002%255B5%255D.jpg]

Si pensamos en las fuerzas y energías en las que nos encontramos inmersos, pocas dudas pueden caber a estas alturas, el simple hecho de poder estar hablando de estas cuestiones… ¡es un milagro en sí mismo! Desmenuzar los componente del átomo, saber lo que ocurre en el interior profundo de las estrellas, conocer cómo la materia más simple se pueden transmutar, bajo ciertas condiciones, en otros más complejos que dispuestos en la debida proporción darán lugar a la bioquímica de la vida. El camino recorrido ha sido largo y hasta dramático, sin embargo,  hemos llegado más lejos de lo que podría haber pensado un observador inteligente que, desde la segura lejanía, hubiera podido seguir todo el proceso evolutivo desde que nacieron las primeras estrellas hasta que, diez mil millones de años más tarde, surgieron los mundos y la vida.

Después de miles de millones de años de evolución, en este planeta que llamamos Tierra, surgío la complejidad del protoplasma vivo que dio lugar al surgir de aquella primera célula replicante. Mucho, mucho tiempo después, se formaron las consciencias primarias que surgieron en los animales con ciertas estructuras cerebrales de alta complejidad, que podían ser capaces de construir una escena mental, pero con capacidad semántica o simbólica muy limitada y careciendo de un verdadero lenguaje. Todo lo demás llegaría más tarde, el paso del tiempo, la convivencia, las necesidades, la supervivencia y tener que vencer las dificultades que el mundo ponía ante aquellos seres, hizo que sus sentidos se agudizaran y crecieran hasta llegar a comprender, de manera limitada primero y más amplia después, dónde estaban y, posiblemente, hacia dónde se dirigían.

Nosotros, la Mente y el Mundo

La consciencia de orden superior (que floreció en los humanos y presupone la coexistencia de una conciencia primaria) viene acompañada de un sentido de la propia identidad y de la capacidad explícita de construir en los estados de vigilia escenas pasadas y futuras. Como mínimo, requiere una capacidad semántica y, en su forma más desarrollada, una capacidad lingüística.

Los procesos neuronales que subyacen en nuestro cerebro son en realidad desconocidos, y aunque son muchos los estudios y experimentos que se están realizando, su complejidad es tal que de momento los avances son muy limitados. Estamos tratando de conocer la máquina más compleja y perfecta que existe en el universo (al menos de lo que conocemos).

Si eso es así, resultará que después de todo no somos tan insignificantes como en un principio podría parecer, y sólo se trata de tiempo. En su momento y evolucionadas, nuestras mentes tendrán un nivel de conciencia que estará más allá de las percepciones físicas tan limitadas. Para entonces sí estaremos totalmente integrados y formando parte, como un todo, del universo que ahora presentimos.

El carácter especial de la conciencia me hace adoptar una posición que me lleva a decidir que no es un objeto, sino un proceso, y que desde este punto de vista puede considerarse un ente digno del estudio científico perfectamente legítimo. Y, todo eso, a veces, me lleva a pensar en el hecho de que, en lo más profundo de la materia, subyace la memoria que, de manera inexorable, la hace evolucionar hasta llegar a la vida que, no debe ser algo excepcional en el universo, sino que es, lo natural. Si no es así, ¿para qué tánta inmensidad?

La conciencia plantea un problema especial que no se encuentra en otros dominios de la ciencia. En la física y en la química se suelen explicar unas entidades determinadas en función de otras entidades y leyes. Podemos describir el agua con el lenguaje ordinario, pero podemos igualmente describir el agua, al menos en principio, en términos de átomos y de leyes de la mecánica cuántica. Lo que hacemos es conectar dos niveles de descripción de la misma entidad externa (uno común y otro científico de extraordinario poder explicativo y predictivo, ambos niveles de descripción), el agua líquida, o una disposición particular de átomos que se comportan de acuerdo con las leyes de la mecánica cuántica (se refiere a una entidad que está fuera de nosotros y que supuestamente existe independientemente de la existencia de un observador consciente).

En el caso de la conciencia, sin embargo, nos encontramos con una simetría. Lo que intentamos no es simplemente comprender de qué manera se puede explicar las conductas o las operaciones cognitivas de otro ser humano en términos del funcionamiento de su cerebro, por difícil que esto parezca. No queremos simplemente conectar una descripción de algo externo a nosotros con una descripción científica más sofisticada. Lo que realmente queremos hacer es conectar una descripción de algo externo a nosotros (el cerebro), con algo de nuestro interior: una experiencia, nuestra propia experiencia individual, que nos acontece en tanto que somos observadores conscientes.

Ya sabemos (o creemos saber)  qué se siente al ser nosotros mismos, qué significa ser nosotros mismos pero, queremos explicar por qué somos conscientes, saber qué es ese “algo” que nos hace ser como somos, explicar, en fin, cómo se generan las cualidades subjetivas experienciales. En suma, deseamos explicar ese “Pienso, luego existo” que Descartes postuló como evidencia primera e indiscutible sobre la cual edificar toda la filosofía.

  ¿Nos deja la Conciencia cuando dormimos?

Lo hemos comentado alguna vez: “Ninguna descripción, por prolija que sea, logrará nunca explicar claramente la experiencia subjetiva. Muchos filósofos han utilizado el ejemplo del color para explicar este punto. Ninguna explicación científica de los mecanismos neuronales de la discriminación del color, aunque sea enteramente satisfactoria, bastaría para comprender cómo se siente el proceso de percepción de un color. Ninguna descripción, ninguna teoría, científica o de otro tipo, bastará nunca para que una persona daltónica consiga experimentar un color.

Pensemos por un momento que tenemos un amigo ciego al que contamos lo que estamos viendo un día soleado del mes de abril: El cielo despejado, limpio y celeste, el Sol allí arriba esplendoroso y cegador que nos envía su luz y su calor, los árboles y los arbustos llenos de flores de mil colores que son asediados por las abejas, el aroma y el rumor del río, cuyas aguas cantarinas no cesan de correr transparentes, los pajarillos de distintos plumajes que lanzan alegres trinos en sus vuelos por el ramaje que se mece movido por una brisa suave, todo esto lo contamos a nuestro amigo ciego que, si de pronto pudiera ver, comprobaría que la experiencia directa de sus sentidos ante tales maravillas nada tiene que ver con la pobreza de aquello que le contamos, por muy hermosas palabras que para hacer la descripción empleáramos.”

Si pidiéramos a varias personas que, nos hicieran un sencillo relatom de todo lo que en la imagen de arriba están viendo, pocas de las opiniones serían coincidentes. Y, algunas… ¡Ni serían! La mente humana es tan compleja que no todos ante la misma escena vemos lo mismo. Nos enseñan figuras y dibujos y nos piden que expresemos (sin pensarlo) la primera idea que nos sugieren. De entre diez personas, sólo coinciden tres, los otros siete divergen en la apreciación de lo que el dibujo o las figuras les traen a la mente.

Esto nos viene a demostrar la individualidad de pensamiento, el libre albedrío para decidir (al menos en cierto ámbito restringido). Sin embargo, la misma prueba realizada en grupos de conocimientos científicos similares y específicos: físicos, matemáticos, químicos, etc, hace que el número de coincidencias sea más elevado; más personas ven la misma respuesta al problema planteado. Esto nos sugiere que la mente está en un estado virgen que cuenta con todos los elementos necesarios para dar respuestas pero que necesita experiencias y aprendizaje para desarrollarse.

¿Debemos concluir entonces que una explicación científica satisfactoria de la conciencia queda para siempre fuera de nuestro alcance? ¿O es de alguna manera posible, romper esa barrera, tanto teórica como experimental, para resolver las paradojas de la conciencia?

 

 

No creo que mirando en el fondo de la bola de cristal encontremos las respuestas que todos buscamos. Todas las respuestas están a nuestro alrededor, en la Naturaleza de la que tenemos que aprender. Muchas estarán dentro de nosotros mismos pero, como no nos conemos… no podemos encontrar lo que con tanto anhelo buscamos.

En lo más profundo de nuestro ser, todos deseamos la misma cosa. Sin embargo, por una desconocida razón que nunca he llegado a comprender, no todos buscamos esa “cosa” de la misma manera. Los seres humanos, tenemos comportamientos inadmisibles que debemos erradicar y, mientras que no seámos conscientes de que ¡todos somos uno!, será difícil alcanzar los objetivos comunes que eviten desigualdades inagmisibles e injusticias.

La respuesta a esta y otras preguntas, en mi opinión, radica en reconocer nuestras limitaciones actuales en este campo del conocimiento complejo de la mente, y como en la física cuántica, existe un principio de incertidumbre que, al menos de momento (y creo que en muchos cientos de años), nos impide saberlo todo sobre los mecanismos de la conciencia, y aunque podremos ir contestando a preguntas parciales, alcanzar la plenitud del conocimiento total de la mente no será nada sencillo, entre otras razones está el serio inconveniente que suponemos nosotros mismos, ya que con nuestro quehacer podemos, en cualquier momento, provocar la propia destrucción.

La libertad es una ficción cerebral

Estamos determinados, como el resto del Universo, por las leyes naturales

La libertad es una ficción cerebral, según confirman las últimas investigaciones sobre neurociencias. Estas investigaciones han determinado que la actividad cerebral previa a un movimiento, realizado por el sujeto en un tiempo por él elegido, es muy anterior (hasta 10 segundos) a la impresión subjetiva del propio sujeto de que va a realizar ese movimiento. Y aunque la falta de libertad es algo contraintuitivo, los experimentos indican que estamos determinados por las leyes de la Naturaleza. Por eso en Alemania algunos especialistas están reclamando la revisión del código penal para adecuarlo a los resultados de la neurociencia. Y aunque sigamos encarcelando a los que violen las leyes, cambiará la imagen que tenemos tanto de esos criminales como de nosotros mismos.

 

       No siempre podemos dominar los impulsos de la mente

No pocas veces, nuestras mentes se ven abocadas a tener que retener, ese primer impulso, esa iniciativa de libertad, o, de libre albedrío. La complejidad en la que estamos inmersos nos prohibe, en la mayor parte de las ocasiones, poder desarrollar y poner en práctica ese “estado de libertad” que ¿nos fue dado? pero que, en realidad, podría ser una ficción de la mente. Decidir lo que se dice decidir, como todo en el universo, es algo limitado.

Contornos de machos y hembras de overlaping en condiciones de servidumbre por la llama de la vela  Foto de archivo - 7483891

 

Claro que pretender que la llama de una vela ilumine nuestra ignorancia…, no será posible y necesitaremos algo más. La evolución de nuestra especie (llevamos cientos de miles de años evolucionando), es lenta, y, hasta alcanzar el estadio de “visión” perfecta del mundo, nos queda un largo camino por recorrer.

Sabemos (casi) de que está hecha la materia que podemos ver y detectar, suponemos y sospechamos que otra materia (más abundante) pulula por todo el Universo sin que podamos encontrarla, sospechamos de otras dimensiones, de otros universos y, desde luego, de otra Física. Sí, es verdad, todas son sospechas y, las sospechas en Física…tienen que ser demostradas, ya que, en caso contrario, se quedan en nada, en pensamientos vacíos.

Sospecho que, nuestros conocimientos de la mente…son muy limitados y que, todo esto, nos viene grande. Mientras sigamos preguntándo: ¿Quiénes somos? ¿De dónde venimos? ¿Hacia dónde vamos? ¿Estamos sólos en el Universo? Estamos dejando al descubierto nuestra gran ignorancia pero, el simple hecho de preguntar y de querer saber…nos pone en el camino correcto.

emilio silvera

Hablemos de cuerpos

Autor por Emilio Silvera    ~    Archivo Clasificado en Energía = Materia    ~    Comentarios Comments (3)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Me referiré en primer lugar a los que constituyen nuestro entorno ordinario, que sería todo el entorno que abarca nuestro planeta. En segundo lugar considerare los demás cuerpos y objetos del Universo. El análisis de muestras de esos diversos cuerpos ha puesto de manifiesto que, en función de la composición, los cuerpos pueden ser simples y compuestos. Los primeros son, precisamente, los llamados elementos químicos, a las que el insigne Lavoisier (conocido como padre de la Química), consideró como el último término a que se llega mediante la aplicación del análisis químico.

Hoy sabemos que son colectividades de átomos isotópicos.

La mayoría de ellos son sólidos y se encuentran en la Naturaleza (nuestro entorno terráqueo) en estado libre o en combinación química con otros elementos, formando los diversos minerales.

La ordenación de los iones en las redes se manifiesta externamente en multitud de formas y colores. No obstante, debo señalar que, aun siendo abundante esta variedad, no es tan rica como la que corresponde a los cuerpos vivos, tanto animales como vegetales. La explicación se basa en que el número de especimenes moleculares y su complejidad son mucho mayores que en el reino inorgánico.

Leer más

¡La Luz! Esa maravilla

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

    Grandes pensadores quisieron explicar la naturaleza de la luz

Está claro que, los estudiosos de la época antigua y medieval estaban por completo a oscuras acerca de la naturaleza de la luz. Especulaban sobre que consistía en partículas emitidas por objetos relucientes o tal vez por el mismo ojo. Establecieron el hecho de que la luz viajaba en línea recta, que se reflejaba en un espejo con un ángulo igual a aquel con el que el rayo choca con el espejo, y que un rayo de luz se inclina (se refracta) cuando pasa del aire al cristal, al agua o a cualquier otra sustancia transparente.

Cuando la luz entra en un cristal, o en alguna sustancia transparente, de una forma oblicua (es decir, en un ángulo respecto de la vertical), siempre se refracta en una dirección que forma un ángulo menor respecto de la vertical.  La exacta relación entre el ángulo original y el ángulo reflejado fue elaborada por primera vez en 1.621 por el físico neerlandés Willerbrord Snell.  No publicó sus hallazgos y el filósofo francés René Descartes descubrió la ley, independientemente, en 1.637.

        Siempre nos gustó hacer experimentos con la luz

Los primeros experimentos importantes acerca de la naturaleza de la luz fueron llevados a cabo por Isaac Newton en 1.666, al permitir que un rayo de luz entrase en una habitación oscura a través de una grieta e las persianas, cayendo oblicuamente sobre una cara de un prisma de cristal triangular. El rayo se refracta cuando entra en el cristal y se refracta aún más en la misma dirección cuando sale por una segunda cara del prisma. (Las dos refracciones en la misma dirección se originan por que los dos lados del prisma de se encuentran en ángulo en vez de en forma paralela, como sería el caso en una lámina ordinaria de cristal.)

Newton atrapó el rayo emergente sobre una pantalla blanca para ver el efecto de la refracción reforzada.  Descubrió que, en vez de formar una mancha de luz blanca, el rayo se extendía en una gama de colores: rojo, anaranjado, amarillo, verde, azul, y violeta, en este orden.

Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores.  La amplia banda de sus componentes se denominó spectrum (palabra latina que significa “espectro”, “fantasma”).

Newton llegó a la conclusión de que la luz se componía de diminutas partículas (“corpúsculos”), que viajaban a enormes velocidades.

Le surgieron y se planteó algunas inquietudes cuestiones. ¿Por qué se refractaban las partículas de luz verde más que los de luz amarilla? ¿Cómo se explicaba que dos rayos de luz se cruzaran sin perturbase mutuamente, es decir, sin que se produjeran colisiones entre partículas?

                                                   Titán, la luna de Saturno, contempla la sonda que lleva su nombre

En 1.678, el físico neerlandés Christian Huyghens (un científico polifacético que había construido el primer reloj de péndulo y realizado importantes trabajos astronómicos) propuso una teoría opuesta: la de que la luz se componía de minúsculas ondas. Y si sus componentes fueran ondas, no sería difícil explicar los diversos difracciones de los diferentes tipos de luz a través de un medio refractante, siempre y cuando se aceptara que la luz se movía más despacio en ese medio refractante que en el aire.  La cantidad de refracción variaría con la longitud de las ondas: cuanto más corta fuese tal longitud, tanto mayor sería la refracción.   Ello significaba que la luz violeta (la más sensible a este fenómeno) debía de tener una longitud de onda mas corta que la luz azul, ésta, más corta que la verde, y así sucesivamente.

Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda.  Y, como es natural, si la luz estaba integrada por ondas, dos rayos podrían cruzarse sin dificultad alguna.  (Las ondas sonoras y las del agua se cruzan continuamente sin perder sus respectivas identidades.)

Peor la teoría de Huyqhens sobre las ondas tampoco fue muy satisfactoria. No explicaba por qué se movían en línea recta los rayos luminosos; ni por qué proyectaban sombras recortadas; ni aclaraba por qué las ondas luminosas no podían rodear los obstáculos, del mismo modo que pueden hacerlo las ondas sonoras y de agua.  Por añadidura, se objetaba que si la luz consistía en ondas, ¿cómo podía viajar por el vacío, ya que cruzaba el espacio desde el Sol y las Estrellas? ¿cuál era esa mecánica ondulatoria?

Esquema experimento Thomas Young

Interferencia: Sonido más sonido en algunos casos puede producir silencio. Esto sucede cuando dos ondas de sonido se superponen destructivamente, igual como se observa en las zonas nodales de una cuerda en vibración. ¿Será posible que en algún caso luz más luz produzca oscuridad? La respuesta es afirmativa. Quien lo demostrara en 1803, en un famoso experimento, fue Thomas Young (1773-1829). Éste consistió en hacer llegar un haz de luz simultáneamente a dos rendijas muy delgadas y muy cercanas, según se ilustra en el siguiente esquema.

Aproximadamente durante un siglo, contendieron entre sí estas teorías. La teoría corpuscular, de Newton, fue, con mucho, la más popular, en parte, porque la respaldó el famoso nombre de su autor.  Pero hacia 1.801, un físico y médico ingles, de nombre Thomas Young, llevó a cabo un experimento que arrastró la opinión pública al campo opuesto.  Proyectó un fino rayo luminoso sobre una pantalla, haciéndolo pasar antes por dos orificios casi juntos.  Si la luz estuviera compuesta por partículas, cuando los dos rayos emergieran de ambos orificios, formarían presuntamente en la pantalla una región más luminosa donde se superpusieran, y regiones menos brillantes, donde no se diera tal superposición.  Pero no fue esto lo que descubrió Young.  La pantalla mostró una serie de bandas luminosas, separadas entre sí por bandas oscuras.  Pareció incluso que, en esos intervalos de sombra, la luz de ambos rayos contribuía a intensificar la oscuridad.

Sería fácil explicarlo mediante la teoría ondulatoria. La banda luminosa representaba el refuerzo presado por las ondas de un rayo a las ondas del otro.  Dicho de otra manera: Entraba “en fase” dos trenes de ondas, es decir, ambos nodos, al unirse, se fortalecían el uno al otro.  Por otra parte, las bandas oscuras representaban puntos en que las ondas estaban “desfasadas” porque el vientre de una neutralizaba el nodo de la otra.  En vez de aunar sus fuerzas, las ondas se interferían mutuamente, reduciendo la energía luminosa neta a las proximidades del punto cero.

Considerando la anchura de las bandas y la distancia entre los dos edificios por los que surgen ambos rayos, se pudo calcular la longitud de las ondas luminosas, por ejemplo, de la luz roja a la violeta o los colores intermedios.  Las longitudes de onda resultaron ser muy pequeñas.  Así, la de la luz roja era de unos 0’000075 cm. (Hoy se expresan las longitudes de las ondas luminosas mediante una unidad muy práctica ideada por Angströn. Esta unidad, denominada, en honor a su autor Ángstrom (Á), es la cienmillonésima parte de un centímetro.  Así, pues, la longitud de onda de la luz roja equivale más o menos a 7.500 Á, y la de la luz violeta, a 3.900 Å, mientras que las de colores visibles en el espectro oscilan entre ambas cifras.)

La cortedad de estas ondas es muy importante. La razón de que las ondas luminosas se desplacen en línea recta y proyecten sombras recortadas se debe a que todas son incomparablemente más pequeñas que cualquier objeto; pueden contornear un obstáculo sólo si éste no es mucho mayor que la longitud de onda. Hasta las bacterias, por ejemplo, tienen un volumen muy superior de una onda luminosa y, por tanto, la luz puede definir claramente sus contornos bajo el microscopio. Sólo los objetos cuyas dimensiones se asemejan a la longitud de la onda luminosa (por ejemplo, los virus y otras partículas submicroscópicas) son lo suficientemente pequeños como para que puedan ser contorneados por las ondas luminosas.

Augustin Jean Fresnel (1788 – 1827)
Photo: German Museum Munich

Un físico francés, Augustin-Jean Fresnel, fue quien demostró por vez primera, en 1.818, que si un objeto es lo suficientemente pequeño, la onda luminosa lo contorneará sin dificultad. En tal caso, la luz determina el llamado fenómeno de “difracción”.  Por ejemplo, las finísimas líneas paralelas de una “reja de disfracción” actúan como una serie de minúsculos obtáculos, que se refuerzan entre si.  Puesto que la magnitud de la difracción va asociada a la longitud de onda, se produce el espectro.  A la inversa, se puede calcular la longitud de onda midiendo la difracción de cualquier color o porción del espectro, así como la separación de las marcas sobre el cristal.

Fraunhofer exploró dicha reja de difracción con objeto de averiguar sus finalidades prácticas, progreso que suele olvidarse, pues queda eclipsado por su descubrimiento más famoso: los rayos espectrales.  El físico americano Henry Augustus Rowlane ideó la reja cóncava y desarrolló técnicas para regularlas de acuerdo con 20.000 líneas por pulgada.  Ello hizo posible la sustitución del prisma por el espectroscopio.

Ante tales hallazgos experimentales, más el desarrollo metódico y matemático del movimiento ondulatorio, debido a Fresnel, pareció que la teoría ondulatoria de la luz había arraigado definitivamente, desplazando y relegando para siempre a la teoría corpuscular.

  Jacques Babinet

No sólo se aceptó las existencias de ondas luminosas, sino que también se midió su longitud con una precisión cada vez mayor.  Hacia 1.827, el físico francés Jacques Babinet sugirió que se empleara la longitud de onda luminosa (una cantidad física inalterable) como unidad para medir tales longitudes, en vez de las muy diversas unidades ideadas y empleadas por el hombre.  Sin embargo, tal sugerencia no se llevó a la práctica hasta 1.880 cuando el físico germano-americano Albert Abraham Michelson inventó un instrumento, denominado “interferómetro”, que podía medir las longitudes de ondas luminosas con una exactitud sin precedentes. En 1.893, Michelson midió la onda de la raya roja en el espectro del cadmio y determinó que su longitud era de 1/1.553.164 m.

Pero la incertidumbre reapareció al descubrirse que los elementos estaban compuestos por isótopos diferentes, cada uno de los cuáles aportaba una raya cuya longitud de onda difería ligeramente de las restantes.  En la década de 1.930 se midieron las rayas del criptón 86. Como quiera que este isótopo fuera gaseoso, se podía abordar con bajas temperaturas, para frenar el movimiento atómico y reducir el consecutivo engrosamiento de la raya.

                                                               Tubo de descarga lleno de kriptón puro

En 1.960, el Comité Internacional de Pesos y Medidas adoptó la raya del criptón 86 como unidad fundamental de longitud. Entonces se restableció la longitud de metro como 1.650.763’73 veces la longitud de onda de dicha raya espectral.  Ello aumento mil veces la precisión de las medidas de longitud.  Hasta entonces se había medido el antiguo metro patrón con un margen de error equivalente a una millonésima, mientras que en lo sucesivo se pudo medir la longitud de onda con un margen de error equivalente a una milmillonésima.

Ahora, después de todo esto, sabemos algo más sobre la luz. Pero…,  ¿qué pasa con su velocidad?

¡Veámoslo!

    La velocidad de la luz, desde hace mucho tiempo, fue un misterio que los estudiosos de la física de la Naturaleza querían desvelar

Está claro que, la luz se desplaza a enormes velocidades. Si pulsamos el interruptor de apagado de la lámpara de nuestro salón, todo queda a oscuras de manera instantánea y, de la misma manera e inmediata, todo se inunda de luz si con una potente linterna encendida, apuntamos hacia un rincón oscuro.

La velocidad del sonido es más lenta, por ejemplo, si vemos a un leñador que está cortando leña en un lugar alejado de nosotros, sólo oiremos los golpes momentos después de que caiga el hacha.  Así, pues, el sonido tarda cierto tiempo en llegar a nuestros oídos.  En realidad es fácil medir la velocidad de su desplazamiento: unos 1.206 km/h en el aire y a nivel del mar.

Galileo fue el primero en intentar medir la velocidad de la luz.  Se colocó en lo alto de una colina, mientras que su ayudante, se situaba en otro lugar alto de la colina vecina; luego sacó una linterna encendida: tan pronto como su ayudante vió la luz, hizo una señal con otra linterna.  Galileo repitió el experimento a distancias cada vez mayores, suponiendo que el tiempo requerido por su ayudante para responder mantendría una uniformidad constante, por lo cual, el intervalo entre la señal de su propia linterna y la de su ayudante representaría el tiempo empleado por la luz para recorrer cada distancia.  Aunque la idea era lógica, la luz viajaba demasiado aprisa como para que Galileo pudiera percibir las sutiles diferencias con un método tan rudimentario.

En 1.676, el astrónomo danés Olau Roemer logró cronometrar la velocidad de la luz a escala de distancias astronómicas.  Estudiando los eclipses de Júpiter en sus cuatro grandes satélites, Roemer observó que el intervalo entre eclipses consecutivos era más largo cuando la Tierra se alejaba de Júpiter, y más corto cuado se movía en su órbita hacía dicho astro.  Al parecer, la diferencia entre las duraciones del eclipse reflejaba la diferencia de distancias entre la Tierra y Júpiter. Y trataba, pues, de medir la distancia partiendo del tiempo empleado por la luz para trasladarse desde Júpiter hasta la Tierra.  Calculando aproximadamente el tamaño de la órbita terrestre y observando la máxima discrepancia en las duraciones del eclipse que, según Roemer, representaba el tiempo que necesitaba la luz para atravesar el eje de al órbita terrestre, dicho astrónomo computó la velocidad de la luz.  Su resultado, de 225.000 km/s., parece excelente si se considera que fue el primer intento, y resultó bastante asombroso como para provocar la incredulidad de sus coetáneos.

Sin embargo, medio siglo después se confirmaron los cálculos de Roemer en un campo totalmente distinto.  Allá por 1.728, el astrónomo británico James Bradley descubrió que las estrellas parecían cambiar de posición con los movimientos terrestres; y no por el paralaje, sino porque la traslación terrestre alrededor del Sol era una fracción mensurable (aunque pequeña) de la velocidad de la luz.  La analogía empleada usualmente es la de un hombre que camina con el paraguas abierto bajo un temporal.  Aun cuando las gotas caigan verticalmente, el hombre debe inclinar hacia delante el paraguas, porque ha de abrirse paso entre las gotas.

     James Bradley descubrió la aberración estelar

Cuanto más acelere su paso, tanto más deberá inclinar el paraguas.  De manera semejante la Tierra avanza entre los ligeros rayos que caen desde las estrellas, y el astrónomo debe inclinar un poco su telescopio y hacerlo en varias direcciones, de acuerdo con los cambios de la trayectoria terrestre (no olvidemos que nuestro planeta Tierra, es como una enorme nave espacial que nos lleva en un viaje eterno, alrededor del Sol, a la velocidad de 30 km/s. + -) Mediante ese desvío aparente de los astros (“aberración de la luz”), Bradley pudo evaluar la velocidad de la luz y calcularla con gran precisión.

Sus cálculos fueron de 285.000 km/s, bastante más exacto que los de Roemer, pero aún un 5’5% más bajos. Poco a poco, con medios tecnológicos más sofisticados y más conocimientos matemáticos, los científicos fueron obteniendo medidas más exactas aún, conforme se fue perfeccionando la idea original de Galileo y sus sucesores.

En 1.849, el físico francés Armand-Hippolyte-Louis Fizeau ideó un artificio mediante el cual se proyectaba la luz sobre un espejo situado a 8 km de distancia, que devolvía el reflejo al observador.  El tiempo empleado por la luz en su viaje de ida y vuelta no rebasó apenas la 1/20.000 de segundo, por Fizeau logró medirlo colocando una rueda dentada giratoria en la trayectoria del rayo luminoso.  Cuando dicha rueda giraba a cierta velocidad, regulada, la luz pasaba entre los dientes y se proyectaba contra el siguiente, al ser devuelta por el espejo; así, Fizeau, colocado tras la rueda, no pudo verla.  Entonces se dio más velocidad a la rueda, y el reflejo pasó por la siguiente muesca entre los dientes, sin intercepción alguna. De esa forma, regulando y midiendo la velocidad de la rueda giratoria, Fizeau pudo calcular el tiempo transcurrido y, por consiguiente, la velocidad a que se movía el rayo de luz.

Un año más tarde, Jean Foucault (quien realizaría poco después su experimento con los péndulos) precisó más estas medidas empleando un espejo giratorio en ve de una rueda dentada.  Entonces se midió el tiempo transcurrido desviando ligeramente el ángulo de reflexión mediante el veloz espejo giratorio.  Foucault obtuvo un valor de la velocidad de la luz de 300.883 km/s.  También, el físico francés utilizó su método para determinar la velocidad de la luz a través de varios líquidos.  Averiguó que era notablemente inferior a la alcanzada en el aire.  Esto concordaba también con la teoría ondulatoria de Huyghens.

albert michelson

Michelson fue más preciso aún en sus medidas.  Este autor, durante cuarenta años largos, a partir de 1.879, fue aplicando el sistema Fizeau-Foucault cada vez con mayor refinamiento, para medir la velocidad de la luz.  Cuando se creyó lo suficientemente informado, proyectó la luz a través de vacío, en vez de hacerlo a través del aire, pues este frena ligeramente su velocidad, y, empleó para ello tuberías de acero cuya longitud era superior a 1’5 km.  Según sus medidas, la velocidad de la luz en el vacío era de 299.730 km(seg. (sólo un 0’006% más bajo).  Demostraría también que todas las longitudes de ondas luminosas viajan a la misma velocidad en el vacío.

En 1.972, un equipo de investigadores bajo la dirección de Kenneth M. Eveson efectuó unas mediciones aún más exactas y vio que la velocidad de la luz era de 299.727’74 km/seg. Una vez se conoció la velocidad de la luz con semejante precisión, se hizo posible usar la luz, o por lo menos formas de ella, para medir distancias.

Aunque para algunos resulte alto tedioso el tema anterior, no he podido resistirme a la tentación de exponerlo, así podrá saber algo más sobre la luz y, habrán conocido a personajes que hicieron posible el que ahora nosotros, la conozcamos mejor.

electromagnetica 2.jpg

Podría continuar, hasta el final de este trabajo, hablando de la luz y sus distintas formas o aplicaciones: ondas de luz a través del espacio, de cómo se transmite la luz en el “vacío”, nos llega a través del espacio desde Galaxias situadas a miles de millones de años luz; las líneas de fuerzas electromagnéticas de Faraday y Maxwell de campos eléctricos y magnéticos cambiantes (todo ello explicado en un simple conjunto de cuatro ecuaciones, que describían casi todos los fenómenos referentes a esta materia electromagnética), o de los enigmas aún por descubrir (aunque predichos).

Ahora, en Física, se dice que la luz es una forma de radiación electromagnética a la que el ojo humano es sensible y sobre la cual depende nuestra consciencia visual del universo y sus contenidos.

Aparte de todo lo que antes hemos explicado, no sería justo finalizar el trabajo sin exponer aquí que, en 1905, Albert Einstein, inspirado en el cuanto de Planck, realizó un importante avance en el conocimiento de lo que es la luz. Demostró que el Efecto fotoeléstrico sólo podía ser explicado con la hipótesis de que la luz consiste en un chorro de fotones de energía electromagnética discretos. Aquello le valió el Nobel de Física y… ¡Le hurtaron otros dos por las dos partes de su teoría de la relatividad! Una revolución que lo cambió todo y que nunca podremos pagarle.

El conflicto entre la teoría ondulatoria y corpuscular de la luz fue resuelto con la evolución de la teoría cuántica y la mecánica ondulatoria que ha dejado claro que, los electrones y las otras partículas elementales tienen propiedades duales de partículas y onda.

sería mucho más largo, pero creo que está bien con lo dicho.

emilio silvera

Sí, cosas así nos llevan hacia el futuro

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Para no viajar muy atrás en el tiempo, fijaremos el punto de partida en 1687, fecha en que salió a la luz la Obra de Newton, sus Principas. El tiempo transcurrió hasta 1900, fecha en la que Planck publicó un artículo de ocho páginas con su idea del cuanto que sería la semilla que daría lugar al nacimiento de la mecánica cuántica. En 1905, aquel joven de la Oficina de Patentes de Berna, sorprendió al mundo de la Física con su Teoría de la Relatividad Especial. Se produjeron muchos desarrollos importantes para nuestras imágenes de la Física Fundamental. Uno de los mayores cambios ocurrido en ese período fue la comprensión, básicamente mediante los trabajos de Faraday y Maxwell en el siglo XIX, de que cierta noción de campo físico, que permea en el espacio, debe cohexistir con la previamente aceptada “realidad newtoniana” de las partículas individuales que interaccionan por medio de fuerzas instantáneas.

Conforme a lo que arriba decimos se producen fenómenos y se ponen en marcha mecanismos que hacen posible que, la imagen que vemos, pueda ser posible gracias a la presencia de fuerzas que, aunque no las podamos ver, su presencia se hace patente por los resultados que en su diversidad, son los mecanismos que llevan el ritmo del universo en el que vivímos.

Más tarde, esta noción de “campo” se convirtió también en un ingrediente crucial de la teoría de la Gravedad en un espaciotiempo curvo a la que llegó Einstein en 1915. Lo que ahora denominamos campos clásicos son el Campo Electromagnético de Maxwell y el Campo Gravitatorio de Einstein.

http://www.iac.es/cosmoeduca/relatividad/imagenes/charla3imag/gravedadestira640.jpg

La presencia del campo gravitatorio de una masa afecta al tiempo y al espacio. La gravedad hace que dos relojes atrasen. Un reloj en la superficie de la Tierra atrasa con respecto a un reloj en la Luna, toda vez que el campo gravitatorio de la Tierra es más potente. De la misma manera, nos podríamos preguntar ¿por qué la gravedad actúa sobre el espacio y alarga el tamaño de los objetos (estirándolos). ¿Dónde podríamos crecer más, si viviéramos en la Tierra o en la Luna?

Pero sigamos. Hoy día sabemos que hay mucho más en la Naturaleza del mundo físico que la sola física clásica. Ya en 1900 -como decimos antes- Max Planck había reveleado los primeros indicios de la necesidad de una “teoría cuántica”, aunque se necesitó un cuarto de siglo más antes de que pudiera ofrecerse una teoría bien formulada y global. También debería quedar claro que, además de todos estos profundos cambios que se han producido en los fundamentos “newtonianos” de la física, ha habido otros desarrollos importantes, tanto previos a dichos cambios como coexistentes con algunos de ellos en forma de poderosos avances matemáticos, dentro de la propia teoría newtoniana.

einst_planck.jpg

En 1905 un desconocido Albert Einstein publicaría unos espectaculares estudios sobre la teoría de la relatividad, pero muy pocos científicos, entre ellos Planck, reconocerían inmediatamente la relevancia de esta nueva teoría científica. Tanta fue su importancia que incluso Planck contribuyo a ampliarla.

Pero igualmente, la hipótesis de Einstein sobre la ligereza del quantum (el fotón), basada en el descubrimiento de Philipp Lenard de 1902 sobre el efecto fotoeléctrico fue rechazada por Planck, al igual que la teoría de James Clerk Maxwell sobre la electrodinámica.

En 1910 Einstein desafía la explicación de la física clásica poniendo el ejemplo del comportamiento anómalo del calor específico en bajas temperaturas. Planck y Nernst decidieron organizar la primera Conferencia de Solvay, para clarificar las contradicciones que aparecían en la física. En esta reunión celebrada en Bruselas en 1911, Einstein consiguió convencer a Planck sobre sus investigaciones y sus dudas, lo que hizo forjar una gran amistad entre ambos científicos, y conseguir ser nombrado profesor de física en la universidad de Berlín mientras que Planck fue decano.

Otra área importante de avance sobre la que había que llamar la atención es la termodinámica (y su refinamiento conocido como mecánica estadística). Esta estudia el comportamiento de sistemas de un gran número de cuerpos, donde los detalles de los mocimientos no se consideran importantes y el comportamiento del sistema se describe en términos de promedios de las magnitudes adecuadas. Esta fue una empresa iniciada entre mediados del XIX y principios del XX, y los nombres de Carnot Clausius, Maxwell, Boltzmann, Gibbs y Einstein son los protagonistas.

Termodinámica.- Parte de la física que estudia las relaciones existentes entre los fenómenos dinámicos y los caloríficos. Trata de la transformación de la energía mecánica en calor y del calor en trabajo. También describe y relaciona las propiedades físicas de sistemas macroscópicos de materia y energía. La termodinámica estudia los sistemas que se encuentran en equilibrio. Esto significa que las propiedades del sistema—típicamente la presión, la temperatura, el volumen y la masa— son constantes.

Un concepto esencial de la termodinámica es el de sistema macroscópico, que se define como un conjunto de materia que se puede aislar espacialmente y que coexiste con un entorno infinito e imperturbable. El estado de un sistema macroscópico en equilibrio puede describirse mediante propiedades medibles como la temperatura, la presión o el volumen, que se conocen como variables termodinámicas. Es posible identificar y relacionar entre sí muchas otras variables (como la densidad, el calor específico, la compresibilidad o el coeficiente de expansión térmica), con lo que se obtiene una descripción más completa de un sistema y de su relación con el entorno. Cuando un sistema macroscópico pasa de un estado de equilibrio a otro, se dice que tiene lugar un proceso termodinámico. Las leyes o principios de la termodinámica, descubiertos en el siglo XIX a través de meticulosos experimentos, determinan la naturaleza y los límites de todos los procesos termodinámicos.

¿Cuales son los Principios de la Termodinámica?

Cuando dos sistemas están en equilibrio mutuo, comparten una determinada propiedad. Esta propiedad puede medirse, y se le puede asignar un valor numérico definido. Una consecuencia de ese hecho es el principio cero de la termodinámica, que afirma que si dos sistemas distintos están en equilibrio termodinámico con un tercero, también tienen que estar en equilibrio entre sí. Esta propiedad compartida en el equilibrio es la temperatura. Si uno de estos sistemas se pone en contacto con un entorno infinito situado a una determinada temperatura, el sistema acabará alcanzando el equilibrio termodinámico con su entorno, es decir, llegará a tener la misma temperatura que éste.

                 Primer Principio.-

La cantidad de calor entregado a un sistema es igual al trabajo realizado por el sistema más la variación de su energía interna. Cuando un sistema se pone en contacto con otro más frío que él, tiene lugar un proceso de igualación de las temperaturas de ambos. Para explicar este fenómeno, los científicos del siglo XVIII conjeturaron que una sustancia que estaba presente en mayor cantidad en el cuerpo de mayor temperatura fluía hacia el cuerpo de menor temperatura. El primer principio es una ley de conservación de la energía. Afirma que, como la energía no puede crearse ni destruirse —dejando a un lado las posteriores ramificaciones de la equivalencia entre masa y energía— la cantidad de energía transferida a un sistema en forma de calor más la cantidad de energía transferida en forma de trabajo sobre el sistema debe ser igual al aumento de la energía interna del sistema. A veces, el primer principio se enuncia como la imposibilidad de la existencia de un móvil perpetuo de primera especie.

'Ecosistemas y comunidades biológicas'

Flujo de la energía en los ecosistemas. En los ecosistemas se cumplen pues el primer y segundo principio de la termodinámica.

Segundo Principio.-

El segundo dice que solamente se puede realizar un trabajo mediante el paso del calor de un cuerpo con mayor temperatura a uno que tiene menor temperatura. Al respecto, siempre se observa que el calor pasa espontáneamente de los cuerpos calientes a los fríos hasta quedar a la misma temperatura. La segunda ley afirma que la entropía, o sea, el desorden, de un sistema aislado nunca puede decrecer. Por tanto, cuando un sistema aislado alcanza una configuración de máxima entropía, ya no puede experimentar cambios: ha alcanzado el equilibrio. La naturaleza parece pues ‘preferir’ el desorden y el caos. Puede demostrarse que el segundo principio implica que, si no se realiza trabajo, es imposible transferir calor desde una región de temperatura más baja a una región de temperatura más alta. El segundo principio impone una condición adicional a los procesos termodinámicos. No basta con que se conserve la energía y cumplan así el primer principio. Una máquina que realizara trabajo violando el segundo principio se denomina “móvil perpetuo de segunda especie”, ya que podría obtener energía continuamente de un entorno frío para realizar trabajo en un entorno caliente sin coste alguno. A veces, el segundo principio se formula como una afirmación que descarta la existencia de un móvil perpetuo de segunda especie.

[espejo.jpg]

Tercer principio de termodinámica o principio onfalóscópico, (mirarse el ombligo): La televisión se retroalimenta a sí misma. Se hace televisión para hablar sobre televisión.

Tercer Principio.-

El tercer principio de la termodinámica afirma que el cero absoluto no puede alcanzarse por ningún procedimiento que conste de un número finito de pasos. Es posible acercarse indefinidamente al cero absoluto, pero nunca se puede llegar a él.

Ciclos termodinámicos.-

Todas las relaciones termodinámicas importantes empleadas en ingeniería se derivan del primer y segundo principios de la termodinámica. Resulta útil tratar los procesos termodinámicos basándose en ciclos: procesos que devuelven un sistema a su estado original después de una serie de fases, de manera que todas las variables termodinámicas relevantes vuelven a tomar sus valores originales. En un ciclo completo, la energía interna de un sistema no puede cambiar, puesto que sólo depende de dichas variables. Por tanto, el calor total neto transferido al sistema debe ser igual al trabajo total neto realizado por el sistema. Un motor térmico de eficiencia perfecta realizaría un ciclo ideal en el que todo el calor se convertiría en trabajo mecánico. El científico francés del siglo XIX Sadi Carnot, que concibió un ciclo termodinámico que constituye el ciclo básico de todos los motores térmicos, demostró que no puede existir ese motor perfecto. Cualquier motor térmico pierde parte del calor suministrado. El segundo principio de la termodinámica impone un límite superior a la eficiencia de un motor, límite que siempre es menor del 100%. La eficiencia límite se alcanza en lo que se conoce como ciclo de Carnot.

9starlight_fantasy.jpg

  • Gravitación
  • Luz
  • Atracción y repulsión eléctricas
  • Atracción y repulsión magnéticas

Pero sigamos con el objeto principla de este trabajo del que, como siempre me pasa, me he desviado a la termodinámica que ya se dio hace unos días. Aquí hablamos de los “campos clásicos” y, sobre las teorías físicas de campos de Maxwell y Einstein: la física “clásica” ¿Cómo pudieron hablar y describir a la perfección suscesos que el ojo no podía ver, y, simplemente con la imaginación, lo hicieron posible, hasta tal punto que, cuando hablamos de campos electromagnéticos o gravitatorios, en nuestras mentes se instalan las imágenes de unos y otros que podemos “ver” con toda precisión.

La teoría del electromagnetismo desempeña también un papel importante en la teoría cuántica, pues proporciona el “campo” arquetípico para el desarrollo posterios de la teoría cuántica de campos. Por el contrario, el enfoque cuántico apropiado del campo gravitatorio sigue siendo eninmático, escurridizo y controvertido y, abordar ahora aquí estas complejas cuestiones, seguramente daría lugar a explicaciones farragosas debido a mi ignorancia profunda en esos conocimientos y a la levedad de los que puedo poseer.

http://www.nuevoordenmundial.es/wp-content/uploads/2011/05/Ciudad-del-futuro.jpg

Los campos de fuerza de Faraday han dado lugar a que, la imaginación se desboque y corriendo hacia el futuro, haya imaginado inmensas ciudades que, situadas en lugares imposibles, sostienen sin problema a sus habitantes que, resguardados por un “campo de fuerza” están al resguardo de cualquier peligro que del exterior les pueda venir.

Por ahí arriba me refería al hecho de que ya en el siglo XIX se había iniciado un cambio profundo en los fundamentos newtonianos, antes de las revoluciones de la relatividad y la teoría cuántica en el siglo XX. El primer indicio de que sería necesario un cambio semejante se produjo con los maravillosos descubriumientos experimentales de Faraday hacia 1833, y de las representaciones de la realidad que encontró necesarias para acomodar dichos descubrimientos. Básicamente, el cambio fundamental consistió en considerar que las “partículas newtonianas” y las fuerzas” que actúan entre ellas no son los únicos habitantes de nuestro universo.

A partir de ahí había que tomar en serio la idea de un “campo” con una existencia propia incorpórea. Y, fue entonces cuando se produjo la providencial llegada de Maxwell que, al contrario de Faraday, él si entendía bien el complejo mundo de las matemáticas y, en 1864, formuló las ecuaciones que debe satisfacer este “campo” incorpóreo, y quien demostró que estos campos pueden transportar energía de un lugar a otro.

Transporte de energía

                                   ¿ Transmutando energía?

Las ecuaciones de Maxwell unificaban el comportamiento de los campos eléctricos, los campos magnéticos e incluso la luz, y hoy día son conocidas como las ecuaciones de Maxwell, las primeras entre las ecuaciones de campo relativistas. Desde la perspectiva del siglo XX se han hecho profundos cambios y se ha producido profundos avances en las técnicas matemáticas, las ecuaciones de Maxwell parecen tener una naturalidad y simplicidad concincentes que nos hacen preguntarnos cómo pudo considerarse alguna vez que el campo electromagnético pudiera obedecer a otras leyes. Pero semejante perspectiva ignora el hecho de que fueron las propias ecuaciones de Maxwell las que llevaron a muchos de estos desarrollos matemáticos. Fue la forma de estas ecuaciones la que indujo a Lorentz, Poincaré y Einstein a las transformaciones espaciotemporales de la relatividad especial, que, a su vez, condujeron a la concepción de Minkowaki del espaciotiempo.

¡La Mente Humana! ¿Hasta donde podrá llegar? ¿Qué limite tendrá impuesto? La respuesta es sencilla: ¡No hay límites! Y, aunque dicha afirmación la repita en muchos de mis escritos, y, aunque a algunos les parezca un sueño…, esa es,  la realidad.

emilio silvera