lunes, 17 de noviembre del 2025 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




No siempre hablamos de lo que comprendemos

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Experimentos sencillos de f�sica

 

¡La Física! Lo que busca la física fundamental es reducir las leyes de la naturaleza a una teoría final sencilla que lo explique todo. El físico y premio Nobel Steven Weinberg señala que las reglas fundamentales son lo más satisfactorio (al menos él). Las leyes básicas de Isaac Newton, que predicen el comportamiento de los planetas, son más satisfactorias, por ejemplo, que un almanaque en el que se indique la posición de todos los planetas en cada . Weinberg nos dice que la Física no puede explicarlo todo, matizando que sólo puede explicar los sucesos relacionándolos con otros sucesos y con las reglas existentes.

http://salonkritik.net/08-09/planets.jpg

Por ejemplo, las órbitas de los planetas son el resultado de unas reglas, pero las distancias de los planetas al Sol son accidentales, y no son consecuencia de ley fundamental alguna. Claro que, las leyes podrían ser fruto de casualidades. Lo que sí es cierto es que los físicos están más interesados por descubrir las reglas que por los sucesos que dichas reglas determinan, y más por los hechos que son independientes del tiempo; por ejemplo, les interesa más la masa del electrón que un tornado que se pueda producir en un lugar determinado.

La ciencia, como nos dice Weinberg, no puede explicarlo todo y, sin embargo, algunos físicos tienen la sensación de que nos estamos acercando a “una explicación del mundo” y, algún día, aunando todos los esfuerzos de muchos, las ideas de las mejores mentes que han sido, y las nuevas que llegarán, podremos, al fín, construir esa Teoría final tan largamente soñada que, para que sea convincente, deberá también, incluirnos a nosotros. Pero, paradógicamente y a pesar de estos pensamientos, existen hechos que los contradicen, por ejemplo, conocemos toda la física fundamental de la molécula de agua desde hace 7 decenas de años, pero todavía no hay nadie que pueda explicar por qué el agua hierve a los 100 ºC. ¿Qué ocurre? ¿Somos acaso demasiado tontos? Bueno, me atrevería a pronosticar que seguiremos siendo “demasiado tontos” incluso los físicos consigan (por fin) esa teoría final que nos pueda dar una “explicación del mundo”. Siempre seguiremos siendo aprendices de la naturaleza que, sabia ella, nos esconde sus secretos para que persista el misterio.

¿Qué sería de nosotros si lo supiéramos todo?

La explicación que dan los físicos actualmente  sobre la subestructura de la materia se llama “el modelo estándar”. En este modelo están incluídas las doce partículas elementales y las tres fuerzas que, cuando se mezclan y se encajan, sirven para construir todo lo que hay en el universo, desde un redondo pan de pueblo hecho en un horno de leña,  hasta las más complejas galaxias, y puede explicar todos los mecanismos de acción, es decir, la mecánica del mundo.

Entre las partículas figuran los seis Quarks famosos: arriba, abajo, extraño, encanto, fondo y . Las otras seis partículas son Leptones: el electrón y sus dos parientes más pesados, el muón y el tau y los tres neutrinos a ellos asociados. Las tres fuerzas son la electromagnética, la fuerza nuclear fuerte (que mantiene unidos a los quarks) y la fuerza nuclear débil (responsable de la radioactividasd). Hay una cuarta fuerza: la Gravedad que, aunque tan importante como las demás, nadie ha sabido como encajarla en el modelo estándar. Todas las partículas y fuerzas de este modelo son cuánticas; es decir, siguen las reglas de la mecánica cuántica. Aún no existe una teoría de la gravedad cuántica.

 

En realidad, la región que denominamos Gravedad cuántica nos lleva y comprende preguntas sobre el origen del universo observable que nadie ha sabido contestar. Nos lleva a complejos procesos cuánticos situados en las épocas más cercanas imaginables en un espacio-tiempo clásico, es decir, en lo que se conoce como Tiempo de Planck a 10-43 segundos del supuesto big bang, cuando reinaba una temperatura del orden de 10 x 1031 K. Pero, como hemos dicho, al no existir una teoría autoconsistente de la Gravedad cuántica, lo único que podemos hacer (como en tantas otras áreas de la Ciencia)  es especular.

El Modelo Estándar no es, ni mucho , satisfactorio. Los científicos piensan que no sólo es incompleto, sino que es demasiado complicado y, desde hace mucho tiempo, buscan, incansables, otro modelo más sencillo y completo que explique mejor las cosas y que, además, no tenga (como tiene el modelo actual) una veintena de parámetros aleatorios y necesarios para que cuadren las cuentas…, un ejemplo: el bosón de Higgs necesario para dar masa a las partículas.

¡La masa! ese gran problema. Todas las partículas masa diferentes pero nadie sabe de donde salen sus valores. No existe fórmula alguna que diga, por ejemplo,  que el quark extraño debería pesar el (o lo que sea) del quark arriba, o que el electrón deba tener 1/200 (u otra proporción) de la masa del muón. Las masas son de todo tipo y es preciso “ponerlas a mano”, como se suele decir: cada una ha de ser medida experimental e individualmente. En realidad, ¿por qué han de tener masa las partículas? ¿de dónde viene la masa?

Norma Materia Oscura

No puedo evitarlo ni tampoco me puedo quedar callado, he asistido a alguna conferencia sobre la materia y, el ponente de turno se agarra a la “materia oscura” para justificar lo que no sabe, si al final hay debate, entro en escena para discutir sobre la existencia de esa “materia fantasma” que quiere tapar nuestra enorme ignorancia.

Pero, sigamos con el de la masa. Para resolverlo, muchos expertos en física de partículas creen actualmente en algo que llaman “campo de Higgs”. Se trata de un campo misterioso, invisible y etéreo que está permeando todo el espacio (¿habrán vuelto al antiguo éter pero cambiándole el nombre?). que la materia parezca pesada, como cuando tratamos de correr por el fondo de la piscina llena de agua pero que el agua no se pudiera ver. Si pudiéramos encontrar ese campo, o más bien la partícula la partícula que se cree es la manifestación de ese campo (llamada el bosón de Higgs), avanzaríamos un largo trecho hacia el conocimiento del universo.

Resultado de imagen de El Gran Colisionador de Hadrones

            El Gran Colisionador de Hadrones

Aquí, en este imponente artilugio inventiva de nuestras mentes, se quiere dar respuesta a una serie de interrogantes que se espera solucionar con este experimento:

• Qué es la masa.
• El origen de la masa de las partículas
• El origen de la masa para los bariones.
• El número exacto de partículas del átomo.

Claro que, si no fuera tan largo de contar, os diría que, en realidad, el de Higgs se descubrió hace ya muchos siglos en la antigua India, con el nopmbre de maya, que sugiere la idea de un velo de ilusión para dar peso a los objetos del mundo material. Pocos conocen que, los hindúes fueron los que más se acercaron a las modernas sobre el átomo, la física cuántica y otras teorías actuales. Ellos desarrollaron muy temprano sólidas teorías atomistas sobre la materia. Posiblemente, el pensamiento atomista griega recibió las influencias del pensamiento de los hindúes a través de las civilizaciones persas. El Rig-Veda, que data de alguna fecha situada entre el 2000 y el 1500 a. C., es el primer texto hindú en el que se exponen unas ideas que pueden considerarse leyes naturales universales. La ley cósmica está realcionada con la luz cósmica.

 Resultado de imagen de en la India la creación de los Vedas

                     Los Vedas: Textos míticos

Anteriores a los primeros Upanishads tenemos en la India la creación de los Vedas, visiones poéticas y espirituales en las que la imaginación humana ve la Naturaleza y la expresa en creación poética, y después va avanzando unidades más intensamente reales que espirituales hasta llegar al Brahmán único de los Upanishads.

la época de Buda (500 a, C.), los Upanishad, escritos durante un período de varios siglos, mencionaban el concepto  de svabhava, definido “la naturaleza inherente de los distintos materiales”; es decir, su eficacia causal única, , tal como la combustión en el caso del fuego, o el hecho de fluir hacia abajo en el caso dela agua. El pensador Jainí Bunaratna nos dijo: “Todo lo que existe ha llegado a existir por acción de la svabhava. Así… la tierra se transforma en una vasija y no en paño… A partir de los hilos se produce el paño y no la vasija”.

       El pensamiento Hindú tendrçia que ser mejor estudiado

También aquellos pensadores, manejaron el concepto de yadrccha, o azar desde tiempos muy remotos. Implicaba la falta de orden y la aleatoriedad de la causalidad. Ambos conceptos se sumaron a la afirmación del griego Demócrito medio siglo más tarde: “Todo lo que hay en el universo es fruto del azar y la necesidad”. El ejemplo que que dio Demócrito -similar al de los hilos del paño- fue que, toda la materia que existe, está formada por a-tomos o átomos.

Bueno, no lo puedo evitar, mi imaginación se desboca y corre rápida por los diversos pensamientos que por la mente pasan, de uno se traslada a otros y, al final, todo resulta un conglomerado de ideas que, en realidad, quieren explicar, dentro de esa diversidad, la misma cosa.

emilio silvera

Necesitamos una teoría unificada del Cosmos

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo y... ¿nosotros?    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Hace mucho tiempo ya que el hombre mira al cielo y observa los objetos celestes. Muy lejos queda ya la teoría geocéntrica de Ptolomeo con una Tierra ocupando el centro del universo. En Babilonia ya tenían aquella visión de una Tierra en el centro de todo y en su obra El Almagesto, Claudio Ptolomeo continuó reflejando esa teoría alla por el siglo II y estuvo en vigor hasta el siglo XVI, cuando fue reemplazada por la teoría heliocéntrica. Fueron muchos los que discrepaban de la teoría que ponía a la Tierra en el centro de todo y, ya en el siglo II a. C., Aristarco de Samos  fue el que defendió la idea con más fuerza e incluso llegó a escribir un libro que no ha llegado a nuestros días.

El tiempo transcurría y las ideas se hicieron más claras y, fue Copérnico el que al fín, en un libro publicado en 1543, De Revolutionibus Orbium Coelestium, dejó fijado el punto de partida que situaba al Sol en el centro y los planetas a su alrededor. Todo aquello, no fue suficiente para que el antiguo modelo de la Tierra central continuara durante algún tiempo, toda vez que Copérnico, no explicaba de manera suficiente algunos fenómenos y, además, se alejaba de la educación religiosa del momento.

JKepler.png

      Kepler en un retrato de 1610

Kepler con la herramienta de las muchas observaciones realizadas por Tycho Brahe que estudió a fondo, pudo formular sus Tres Leyes en 1609 y 1619, en las que dejó sentado que las planetas se movían en trayectorias elípticas. Galileo con sus observaciones despejó el camino hacia la comprensión de dónde nos encontrábamos. Más tarde llegaría Newton con su Ley de la Gravedad y no fue hasta 1915 que la entrada en escena de Einstien nos trajo un Modelo más moderno y coherente con su Teoría de la Relatividad General.

La Teoría  hilocéntrica llegó con fuerza hasta los principios del siglo XX, el Sol estaba situado en el centro sobre el cual giraba todo el universo con los objetos del espacio profundo que contenían “nebulosas espirales”.

                                 Harlow Shapley

La llegada de Shapley al “mundo” de las estrellas le dieron otro giro a la visión que del universo se tenía.  Sus observaciones iniciaron el estudio de las estrellas variables que llevó a descubrir un tipo especial de ellas que se caracterizaban por el hecho de que los cambios de brillo estaban relacionados con su liuminosidad intrínseca y, como la estrella prototipo se encontró en la Constelación de Cefeo, se las llamó Cefeidas.

A partir de aquel momento, y, conociendo la luminosidad de un objeto celeste bastaba aplicar la ley del cuadrado inverso que nos dice que el brillo disminuye de acuerdo al cuadrado de la distancia y se pudo calcular la distancia a la que se encontraba el objeto estudiado. Así Shapley siguió con su impresionante trabajo y pudo observar cúmulos globulares, grupos de millones de estrellas que estaban “juntas” en un cúmulo compacto y redondo girando alrededor de los centros galácticos. Se pudo apreciar que el Sol, debería estar situado en la periferia del Universo y muy lejos del centro de la Galaxia.

http://bitacoradegalileo.files.wordpress.com/2010/09/m22_cfht.jpg

                         Los cúmulos globulares pueden contener hasta miles de millones de estrellas

Todos aquellos nuevos descubrimientos llamaron la atención de muchos y, hasta el filósofo Immanuel Kant contribuyó al conocimiento del universo con sus obra Historia general de la naturaleza y teoría del cielo, en la que exponía la hipótesis de que a partir a una nebulosa de gas surgió el Sistema solar y sugirió la idea de que existían otras muchas galaxias que eran como “universos islas”, es decir, una especie de universos en miniatura cuajado de estrellas y de mundos.

Su idea de los universos islas llegaron hasta principios del siglo XX y “las nebulosas espirales”, eran en realidad otros universos islas como la Vía Láctea pero separados de ella y, esa teoría fue firmemente apoyada por Herschel aunque no se tenían pruebas contundentes de ello. Pero como el avance del conocimiento no se para, aquellas pruebas llegaron de la mano de las observaciones de Hubble, realizadas en el Observatorio de Monte Wilson.

                     Como inmensas pompas de jabón que reflejan el brillo multicolor de las estrellas

El Universo dejó de ser algo estático para convertirse en un universo en expansión. El descubrimiento de varios supercúmulos galácticos en 1978, como el de Perseo-Pegaso  (que, se extiende por el cielo a través de mil millones de años-luz), es la mayor de las estructuras que se han podido constar hasta la fecha en el universo. Otro hallazgo importante ocurrió en 1981, cuando se halló el primer “vacío” en la Constelación de Boötes. El vacío, o “Burbuja de Hubble”, una gran región del espacio en la que no existen galaxias -o muy pocas- y cuya extensión puede alcanzar los 250 millones de años-luz de diámetro. En 1985 se descubrieron nuevos vacíos que vinieron a configurar una nueva imagen de nuestro universo que está lleno de burbujas.

Hubble, el 19 de febrero de 1924, escribió a Shapley, quien defendía la existencia de una sola galaxia:

«Seguramente le interesará saber que he hallado una variable cefeida en la nebulosa de Andrómeda». De esta manera se reveló que las nebulosas espirales no eran simples cúmulos de gas dentro de la vía láctea sino verdaderas galaxias independientes o como Kant describió «universos isla».

 

Pero la historia de las variables Cefeidas tiene otra protagonista que no quiero dejar aquí oculta en el olvido y que es de justicia destacar para que los méritos sean repartidos conforme a quién los ganó. No siempre se han otorgado los premios a los que lo merecieron. Claro que todo aquello no era nada fácil toda vez que…

 El ojo humano solo es capaz de percibir la pequeña porción que corresponde a la luz visible, situada entre los 3900 Å y 7500 Å, donde la menor se encuentra cerca del violeta y la mayor del rojo. El Sol emite en todas las longitudes de onda, pero solo llegan a la superficie una pequeña porción de estas, las demás son frenadas por la atmósfera: el ozono absorbe las mas altas longitudes de onda hasta el ultravioleta, y el vapor de agua absorbe gran parte de las infrarrojas. Fueron los telescopios los que nos permitieron llegar más lejos y ver más.

friends/colleagues en My Photos de

En el Observatorio de la Universidad de Harvard, uno de los principales centros de la monótona pero prometedora tarea de la taxonomía estelar, las placas fotográficas que mostaban los colores y espectros de decenas de miles de estrellas se apilaban ante “calculadoras”, mujeres empleadas como miembros del personal de una facultad que les impedía asistir a clases u obtener un título pero que, desarrollaban una labor importante de infinita paciencia

the good old days... en My Photos de

Una de esas mujeres, Henrietta Leavitt (arriba), fue la investigadora pionera de las estrellas variables cefeidas que tan útiles serían a Shapley y Hubble, ella fue una de esas “calculadoras” de Harvard que, se encargaban de examinar las placas y registrar los datos en una pulcra escritura victoriana para su compilación en volúmenes como el Henry Draper Catalog, así llamado en honor al primer astrofotógrafo y físico que tomó las primeras fotografías del espectro de una estrella. Como presos que marcan el paso de los días en los muros de su celda, señalaban su progreso en totales de estrellas catalogadas. Antonia Maury, sobrina de Draper, contaba que había clasificado los espectros de más de quinientas mil estrellas. Su labor era auténticamente baconiana, del tipo que Newton y Darwin instaban a hacer pero raramente hicieron ellos, y las mujeres se enorgullecían de ella. Como afirmaba la “calculadora” de Harvard Annie Jump Cannon: “Cada dato es un facto valioso en la imponente totalidad”.

Precisamente fue Cannon quien,  en 1915, empezó a discernir la forma de esa totalidad, cuando descubrió que la mayoría de las estrellas pertenecían a una de media docena de clases espectrales distintas. Su sistema de clasificación (ahora generalizado en la astronomía estelar), ordena los espectros por color, desde las estrellas O blancoazuladas, pasando por las estrellas G amarillas como el Sol, hasta las estrellas rojas M. Era un rasgo de simplicidad debajo de la asombrosa variedad de las estrellas.

Pronto se descubrió un orden más profundo, en 1911, cuando el ingeniero y astrónomo autodidacto danés Ejnar Hertzsprung analizó los datos de Cannon y Maury de las estrellas de dos cúmulos, Las Híades y las Pléyades. Los cúmulos como estos son genuínos conjuntos de estrellas y no meras alineaciones al azar; hasta un observador inexperimentado salta entusiamado cuando recorre con el telescopio las Pléyades, con sus estrellas color azul verdoso enredadas en telarañas de polvo de diamante, o las Híades, cuyas estrellas varían en color desde el blanco mate hasta el amarillo apagado.

                                                                     Las Pléyades

                                                Las Híades

Puesto que puede supònerse que todas las estrellas de un cúmulo están a la misma distancia de la Tierra, toda diferencia observada en sus magnitudes aparentes pueden atribuirse, no a una diferencia en las distancias, sino en las magnitudes absolutas. Hertzsprung aprovechó este hecho para utilizar los cúmulos como muestras de laboratorio con las que podía buscar una realción entre los colores y los brillos intrínsecos de las estrellas. Halló tal relación: la mayoría de las estrellas de ambos cúmulos caían en dos líneas suavemente curvadas. Esto, en forma de gráfico, fue el primer esbozo de un árbol de estrellas que desde entonces ha sido llamado Diagrama de Hertzsprung-Russell. Claro, como cabía esperar, la aplicabilidad del método pronto se amplió también a estrellas no pertenecientes a cúmulos.

Portrait of Henry Norris Russell.jpg
Henry Norris Russell

 Henry Norris Russell, un astrofísico de Princeton con un enciclopédico dominio de su campo, pronto se puso a trabajar justamente en eso. Sin conocer siquiera el trabajo de Hertzsprung, Russell diagramó las magnitudes absolutas en función de los colores, y halló que la mayoría están a lo largo de una estrecha zona inclinada: el trondo del árbol de estrellas. El árbol ha estado creciendo desde entonces y hoy, está firmemente grabado en la conciencia de todos los astrónomos estelares del mundo. Su tronco es la “serie principal”, una suave curva en forma de S a lo largo de la cual se sitúan entre el 80 y el 90 por 100 de todas las estrellas visibles. El Sol, una típica estrella amarilla, está en la serie principal a poco menos de la mitad del tronco hacia arriba. Una rama más fina sale del tronco y se esxtiende hacia arriba y a la derecha, donde florece en un ramillete de estrellas más brillantes y más rojas: las gigantes rojas. Debajo y a la izquierda hay una cantidad de mantillo de pálidas estrellas entre azules y blancas: las enanas.

                 El Diagrama de  Hertzsprung-Russell resumido

Este diagrama proporcionó a los astrónomos un registro congelado de la evolución, el equivalente astrofísico del registro fósil que los geólogos estudian en los estratos rocosos. Presumiblemente, las estrellas evolucionan de algún modo, pasan la mayor parte de su tiempo en la serie principal (la mayoría de las estrellas en la actualidad, en el brevísimo tiempo que tenemos para observar, se encuentran allí), pero empiezan y terminan su vida en alguna otra parte, entre las ramas o en el mantillo. Por supuesto, no podemos esperar para ver que esto sucede, pues el tiempo de vida, aun de estrellas de vida corta, se mide en millones de años. Hallar las respuestas exigirá conocer toda la física del funcionamiento estelar.

Todo esto nos lleva de nuevo a pensar que, sería conveniente que surgiera una teoría unificada del Cosmos, acorde con los primeros pasos del Big Bang y con la aún misteriosa formación de estructuras a gran escala: un modelo, en fin, que contendría en un todo coherente el origen, la evolución, la estructura actual y el destino último del Universo.

Me hubiera gustado contar de manera paralela que, a finales del s. XIX y principios del s. XX,  el progreso de la Física, estaba bloqueado por una barrera aparentemente insuperable. Esto era literal: el agente responsable era conocido como la barrera de Coulomb, y por un tiempo frustó los esfuerzos de los físicos teóricos para comprender cómo la fusión nuclear podía producir energía en las estrellas… Pero eso, amigos, es otra historia que os contaré en otro momento.

emilio silvera

¡La Física! ¿Hasta dónde nos llevará?

Autor por Emilio Silvera    ~    Archivo Clasificado en Materiales increibles    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

El Grafeno es uno de los materiales del futuro

           Hace apenas diez años que se pudo observar el Grafeno

Resultado de imagen de moléculas de carbono en forma de balón de futbol

Fueron obervadas por los Astrónomos de la NASA

Primero fueron las moléculas de carbono en forma de balón de futbol; luego llegó el carbono enrollado en forma de nanotubos de carbono, más tarde las mallas microscópicas y, mañana… ¿quién sabe, qué maravillas nos espera? Puede que en unos años el valle más famoso de la era de la informática tenga que cambiar de nombre. Al norte de California, entre montañas y autopistas, una extensa aglomeración de empresas de nuevas tecnologías es conocida como Silicon Valley, en inglés valle del silicio, elemento químico con el que se fabrican los microchips. Pero el futuro, dicen algunos expertos y muchas publicaciones científicas, está en los chips de grafeno, un material resistente, transparente y extremadamente flexible.

Científicos surcoreanos acaban de construir la primera pantalla táctil de este material. Tiene 30 pulgadas y puede doblarse y enrollarse hasta ocupar un espacio mínimo. IBM, el gigante de la informática, presentó este invierno sus primeros chips de grafeno, 10 veces más veloces que los de silicio. Los fabricantes de baterías para móviles anuncian que mejorarán su producto gracias a este derivado del grafito, con el que también está hecha la radio más pequeña del mundo, diseñada por el Instituto Tecnológico de Massachusetts (MIT). ¿Estamos ante una nueva revolución que traerá ordenadores aún más rápidos y pantallas aún más pequeñas? ¿O hablar del valle del grafeno es tan solo fantasía?

Las pantallas del futuro serán flexibles, eso está claro. Los principales fabricantes se afanan en buscar nuevas fórmulas, no solo de grafeno sino también de tecnología OLED, basada en una capa que emite luz y está formada por componentes orgánicos (polímeros). También se intenta hacer papel electrónico con óxidos de metal o variantes del silicio clásico, como silicio cristalino o sus combinaciones con el caucho, bastante más elástico.

El instituto de nanotecnología en el que han desarrollado la primera pantalla táctil de grafeno, en la Universidad Sungkyunkwan de Seúl, ha conseguido llamar la atención de las grandes compañías. El sector está inquieto. Pantallas que se doblan como un papel y que dentro de poco, según James Tour, de la Universidad de Rice (Houston) y uno de los químicos más prestigiosos de la última década, podrán enrollarse “hasta formar un pequeño lápiz que nos pondremos tras la oreja”. Samsung, líder mundial en diversas ramas de la industria electrónica, ya ha anunciado que en dos años comercializará un artilugio parecido.

grafeno

Qué ocurrirá entonces con los netbooks, esos pequeños ordenadores que coparon el mercado allá por el año 2009, y que nos parecían el último grito? ¿Y qué será del iPad de Apple? En sus cuatro primeros meses de vida, se vendieron más de tres millones de esta tableta ultraportátil que hace las veces de ordenador y teléfono. Pero incluso el gran invento de 2010 dejaría de tener sentido si sale al mercado una pantalla que pesa menos y que, extendida, es más grande y nítida, mientras que, enrollada, ocupa mucho menos espacio.

Si nuestros abuelos levantan la cabeza en sus tumbas y pudieran contemplar como se envía por fax un documento, de manera instantánea, de un lugar a otro lejano…, y, sin embargo, todo eso nos parece de lo más normal y cotidiano. Según vamos avanzando, ¿qué maravillas podremos ver nosotros? La ciencia avanza de manera exponencial y se cumple la ley Moore, cada poco tiempo, lo que hoy es moderno, queda obsoleto y hay que reemplazarlo por algo nuevo menos costoso, con más prestaciones, más barato de fabricar…

Imagen relacionada

Por ejemplo, las láminas de Grafeno, unque comparte muchas de las propiedades que emocionaron de los nanotubos de carbono hace poco más de una una década, el grafeno es más facil de manipular y fabricar, lo cual le da mayores probabilidades de ser utilizado en laboratorios y aplicaciones prácticas. Si unimos a eso que el grafeno es uno de los mejores conductores de calor y de electricidad; su resistencia es 200 veces más que la del acero; es muy duro y muy elástico; tan ligero como la fibra de carbono. Los científicos han fabricado transistores de grafeno y los utilizan para explorar raros fenómenos cuánticos a temperatura ambiente.

entrevista

Las aplicaciones del Grafeno son inimaginables en todos los sectores de la tecnología, medicina, Espacio…

Hace aún pocos años, sólo un puñado de gente investigaba algo relacionado con el grafeno. En una reunión de la Sociedad Americana de Física, celebrada en marzo, se presentaron cerca de 100 temas relacionados con el material. “Es como descubrir una isla” con varias especies para catalogar y ser estudiadas, manifestó Carlo Beenakker, profesor de física teórica en la Universidad Leiden, en Holanda.

Un nanotubo es grafeno enrollado. El grafito, lo que hay en la punta de un lápiz, está formado por capas de carbón apiladas, una encima de otra, como una baraja. Pero por mucho tiempo no se tuvo la destreza para sacar solo una de las cartas de esa baraja.

Hace unos 10 años, unos investigadores dirigidos por Rodney Ruoff, un de nanoingeniería de la Universidad Northwestern, frotaron pequeños pilares de grafito contra una plaqueta de silicio, lo que causó que se repartieran como una baraja. La técnica sugirió que podrían producir un grafeno de una sola capa, pero Ruoff no midió el grosor de la hojuela.

Luego, en 2004, un grupo de investigadores encabezado por el doctor Andre Geim, profesor de física de la Universidad de Manchester, en Inglaterra, desarrolló una mejor técnica: ponían una hojuela de grafito en un pedazo de cinta adhesiva, la doblaban y cortaban, con lo que dividian la hojuela en dos. Doblando y desdoblando repetidamente, el grafito se volvia cada vez más delgado; luego pegaron la cinta en una oblea de silicio y la frotaron. Algunas de las hojuelas de grafito se pegaron a la oblea y eran del grosor de un átomo.

Con este sencillo método de fabricar grafeno, se comenzaron a hacer todo tipo de experimentos. Por ejemplo: algunos lo emplearon para construir transistores y otros aparatos electrónicos.

Incluso se están haciendo estudios con estos materiales para ver la posibilidad de construir ascensores espaciales a la Luna, a la Estación Espacial Inrternacional, a bases de despegue de naves que saldrán a explorar el espacio interestelar…

Las hojas de grafeno no son planas, sino onduladas, y medir su grosor es toda una odisea. Los mejores microscopios del mundo pueden notar la presencia de un solo átomo, pero usarlos para medir el grosor de cada hojuela de grafeno es terriblemente lento. No obstante, Geim descubrió que una hoja así de delgada cambia el color de la capa de óxido de silicio en la superficie de una plaqueta, como el arcoiris que se genera cuando se vierte aceite sobre agua. Así con una simple ojeada a través de un sencillo microscopio, los investigadores pueden saber si una hojuela de grafeno tiene más de 10 capas de grosor (amarillo), entre 30 y 40 (azul), alrededor de 10 (rosa) o solo una (rosa pálido, casi invisible).

Pero aún enfrentan retos: el método de la cinta adhesiva no permite la producción en masa, al menos no de un modo costeable. Por ello, Walter de Heer, profesor de física del instituto Tecnológico de Georgia, ha refinado una técnica para obtener grafeno del carburo de silicio. Al calentar una plaqueta de este material a 1300ºC, los átomos de silicio de la superficie se evaporan, mientras que los átomos de carbono restantes se reacomodan en grafeno. “Es como cocinar un pavo”, dice De Heer.

También, los científicos han demostrado un fenómeno conocido como el efencto cuántico Hall, donde la resistencia eléctrica perpendicular a la corriente y un campo magnético aplicado saltan entre ciertos valores discretos. El efecto cuántico Hall se ve comúnmente a temperaturas muy bajas en semiconductores, pero con el grafeno ocurre a temperatura ambiente.

Si hablamos de los nanotubos de carbono, hay que decir que tienen excepcionales propiedades mecánicas, térmicas, químicas ópticas y eléctricas, por lo que son un material prometedor para numerosas aplicaciones de alta tecnología. En la práctica, las primeras aplicaciones de los nanotubos de carbono han sido electrónicas debido a sus particulares propiedades eléctricas, ya que los nanotubos pueden ser metálicos o semiconductores. Los nanotubos permiten hacer más pequeños los dispositivos, conducen muy bien el calor y aumentan la vida útil de los dispositivos.

Imagen relacionada

– Los nanotubos, por su carácter metálico o semiconductor, se utilizan en nanocircuitos:

  • Interconectores. Los nanotubos conducen bien el calor y poseen una fuerte estructura para transportar corriente, aunque la conductividad disminuye al aumentar el número de defectos.
  • Diodos. Al unir nanotubos metálicos y semiconductores, o con campos eléctricos, similares a las uniones P-N.
  • Transistores. De efecto campo, de electrón único, interruptores.

– Se emplean también como emisores de campo, que es una manera de arrancar electrones de un sólido aplicando un campo eléctrico. Algunas aplicaciones son: pantallas planas, lámparas y tubos luminiscentes, tubos de rayos catódicos, fuentes de rayos X, microscopios electrónicos de barridos, etc.

– Otras aplicaciones son: nanotubos como filtros RF, y memorias fabricadas con nanotubos más rápidas, baratas, con mayor capacidad y menor consumo  (nos dice Sergio Sánchez Force).

 

También se han utilizado los nanotubos de carbono para fabricar unas películas conductoras transparentes de distintos colores, mediante una técnica conocida como ultracentrifugación en gradiente de densidad que hace que láminas obtenidas se parezcan a un vidrio teñido. Estas películas pueden introducir mejoras en células solares y monitores de pantalla plana.

Actualmente, el óxido de estaño indio (ITO) es el material más utilizado para las aplicaciones conductoras transparentes. Pero debido a la escasez de indio y a su pobre flexibilidad mecánica, se ha buscado un conductor transparente alternativo, encontrándolo en los nanotubos de carbono.

Los nanotubos de carbono recientemente se utilizan también para fabricar productos electrónicos flexibles, como por ejemplo papel electrónico, a un coste asequible. Esto es debido a que ha surgido una forma de hacer transistores de alto rendimiento en un substrato de plástico.

Las buckyesferas, también conocidas como fullerenos, son moléculas con forma de balón de fútbol formadas por 60 átomos de carbono unidos. Y el espacio está lleno de ellas. Así nos lo comunicaron en su día los científicos de la NASA cuando lo descubrieron en las Nebulosas y en otras regiones del Espacio Interestelar.

No sólo en transistores, móviles o pantallas, este material estará presente por todas partes y, no digamos en el espacio. Por cierto, está presente ya en todas las Nebulosas de la que forman una importante proporción. Lo que decimos siempre: ¡Hay que estudiar la Naturaleza!

Imagen relacionada

Los nanotubos de carbono se emplean en chips de dispositivos electrónicos para disipar el calor, reduciendo la temperatura del microprocesador. Los nanotubos disipan el calor de los chips tan bien como el cobre (utilizado también para disipar calor) y son más resistentes, ligeros y conductores que otros materiales para disipar calor, siendo su coste muy competitivo.

Se han desarrollado transistores de película delgada de nanotubos de para crear dispositivos flexibles y transparentes de alto rendimiento. Para ello, se emplean conjuntos alineados o redes de nanotubos para hacer transistores y circuitos integrados flexibles.

Estos conjuntos constan de miles de nanotubos que funcionan como semiconductor en forma de película delgada en el que las cargas se mueven a través de cada uno de los nanotubos. Un dispositivo típico tiene mil nanotubos y produce corrientes de salida mil veces mayores a los que tienen un solo nanotubo.

Esta es una nueva aplicación de los cada vez más populares nanotubos de carbono.

                           Almacena energía solar durante un tiempo indefinido

Recientemente se ha desarrollado una tecnología para almacenar energía solar con nanotubos de carbono, que se recargan cuando se exponen al sol. Este método supone menor coste que otras alternativas y mejora con respecto a la conversión eléctrica.

Un nanotubo de carbono puede ser conductor o semiconductor según la forma en que se enrolle la lámina de grafito, lo que lleva a emplear los nanotubos como componentes básicos de los transistores, ya que por su pequeño tamaño se podrían introducir muchos transistores en un microprocesador.

Se ha demostrado que la resistencia eléctrica de los nanotubos con vacantes crece exponencialmente con su longitud mientras que en un conductor normal (un hilo de cobre, por ejemplo) la resistencia crece linealmente con la longitud. La presencia de tan sólo un 0,03% de vacantes sea capaz de incrementar la resistencia eléctrica de un nanotubo de 400 nanómetros de longitud en más de mil veces. Este hallazgo podría permitir modificar a voluntad la resistencia en un nanotubo mediante la inclusión controlada de defectos, de manera análoga a como se hace actualmente en los materiales semiconductores.

Hay cuestiones en el mundo de la física cuántica que, literalmente, nos dejan con la boca abierta por el asombro. Como ocurre también con partículas cuya rotación, al duplicarse, resulta igual a un número par. Para manipular sus energías hay otra serie de reglas, ideadas por Einstein y el físico indio S. N. Bose. Las partículas que se adaptan a la estadística Bose-Einstein son Bosones, como por ejemplo la partícula Alfa.

A bajas temperaturas los Bosones tienden a tener un comportamiento cuántico similar que puede llegar a ser idéntico a temperaturas cercanas al cero absoluto en un estado de la materia conocido como condensado de Bose-Einstein.

Las reglas de la mecánica cuántica tienen que ser aplicadas si queremos describir estadísticamente un sistema de partículas que obedece a reglas de esta teoría en vez de los de la mecánica clásica. En estadística cuántica, los estados de energía se considera que están cuantizados. La estadística de Bose-Einstein se aplica si cualquier número de partículas puede ocupar un estado cuántico de igualdad. Dichas partículas (como dije antes) son Bosones que tienden a juntarse.

Resultado de imagen de Momento angular de los Bosones

Los Bosones tienen un momento angular nh/2π, donde n es 0 o un entero, y h es la constante de Planck. cons Para Bosones idénticos, la función de ondas es siempre simétrica. Si sólo una partícula puede ocupar un estado cuántico, tenemos que aplicar la estadística Fermi-Dirac y las partículas (como también antes dije) son los fermiones que tienen momento angular (n + ½)h / 2π y cualquier función de ondas de iones feridénticos es siempre antisimétrica. La relación entre el espín y la estadística de las partículas está demostrada por el teorema espín-estadística.

En fin, la Física, esa disciplina que nos lleva hacia el futuro.

emilio silvera

¿Cómo se formaron las galaxias? ¡Nadie lo sabe!

Autor por Emilio Silvera    ~    Archivo Clasificado en Astronomía y Astrofísica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 ALMA observa cómo se forman las galaxias en el universo temprano

“ALMA observa cómo se forman las galaxias en el universo temprano. Image Credit: ESO”

 Dicen debajo de la Imagen:

“ALMA consiguió captar una señal tenue, pero clara, de carbono (que brillaba intensamente) de una de las galaxias, llamada BDF2399. Sin embargo, este resplandor no provenía del centro de la galaxia, sino más bien de uno de sus lados.”

ALMA and a Starry Night.jpg

“El Atacama Large Millimeter/submillimeter Array (ALMA) se ha utilizado para detectar las nubes de gas con formación estelar más distantes encontradas hasta ahora en galaxias normales del universo temprano. Las nuevas observaciones permiten a los astrónomos empezar a ver cómo se construyeron las primeras galaxias y cómo despejaron la niebla cósmica en la época de reionización. Esta es la primera vez que pueden verse este tipo de galaxias como algo más que manchas difusas.”

Ninguna de estas explicaciones nos demuestran cómo se formaron las galaxias en verdad, a pesar de la presencia de la expansión cósmica del universo que habría hecho dispersar la materia que estaban destinadas a formas esas galaxias, ¿Qué había allí, para retener la materia y que las galaxias se pudieran formar?

En los temas que hemos tratado en otros trabajos, la protagonista ha sido la “hipotética” materia y energía oscura que, según algunos modelos supone el 90% de la materia que compone el universo. El tema dio pie a opininiones y algún debate que principalmente llevaron adelante Kike y Fandila que, con sus indudables conocimientos y formas de aplicar la lógica, nos llevan de la mano, con alguna metáfora incluída, a que podamos comprender mejor como son las cosas que, no siempre, coinciden con la realidad que algunos nos dibujan. Y, nuestra obligación, aunque el dibujo sea hermoso, armonioso y hasta placentero, debemos desconfiar, y, tomarlo, tan sólo como algo posible, algo que podría ser pero que de momento no es. Acordaos de aquel sabio que nos dijo: Todas las cosas son”. Con aquella simple frase, elevó a las “cosas” a la categoría de ser. Claro que las cosas a las que se refería estaban allí y podíamos contemplarlas. Por el contrario, la “materia oscura” nadie la vio nunca, es algo imaginario y supuesto que, al parecer, nos señalan algunos indicios observados, por lo demás, nada podemos concretar de ella.

 swift-m31

 La siguiente imágen la tomó el satélite Swift de la NASA siendo una de las 330 fotografías que tomo de la galaxia espiral M31, una de las formaciones estelares que se encuentran más cerca de nuestra propia galaxia.

Arriba contemplamos la conocida y familiar imagen de una Galaxia y, si alguien nos preguntara como pudieron formarse las galaxias, la verdad sería que, no tendríamos contestación para esa pregunta. ¿Cómo es posible eso a estas alturas? Pués porque lo que podemos resumir de la moderno visión del universo se podría limitar a dos breves afirmaciones: Primera; el universo ha estado expandiéndose desde que se formó, y en el proceso ha evolucionado desde las estructuras simples a las complejas. Segunda: la materia visible en el universo está organizada jerárquicamente: las estrellas agrupadas en galaxias, las galaxias en cúmulos y los cúmulos en supercúmulos. El problema al que nos enfrentamos por tanto, es comprender como un universo  cuya evolución está dominada por la primera afirmación, puede llegar a tener la estructura descrita en la segunda afirmación.

El problema de es explicar la existencia de la galaxias ha resultado ser uno de los más espinosos de la cosmología. Con todo derecho no deberían estar ahí y, sin embargo, ahí están. Es difícil comunicarl el abismo de frustración que este simple hecho produce entre los científicos. Una y otra vez han surgido nuevas revelaciones y ha parecido que el problema estaba resuelto. Cada vez la solución se debilitaba, aparecían nuevas dificultades que nos transportaban al punto de partida.

Cada pocos años, la American  Physical Society, la Asociación Profesional  de físicos, tienen una sesión en una de sus reuniones en la que los Astrofísicos hablan de los más nuevos métodos de afrontar el problema de las galaxias. Si te molestar en asistir a varias de esas reuniones, dos son las sensaciones contradictorias que te embargan: Por una parte sientes un gran respeto por la ingenuidad de algunas propuestas que son hechas “de corazón” y, desde luego, la otra sensación es la de un profundo excepticismo hacia las ideas que proponían, al escuchar alguna explicación de cómo las turbulencias de los agujeros negros, las explosiones durante la formación de galaxias, los neutrinos pesados y la materia oscura fría resolvía todos aquellos problemas.

Lo cierto es que, a pesar de lo que se pueda leer en la prensa en comunicados oficiales, todavía no tenemos ese “bálsamo milagroso” que nos permita responder a una pregunta simple: ¿Por qué está el cielo lleno de galaxias?

http://www.educarm.es/templates/portal/ficheros/websDinamicas/32/cumulosdegalaxias.jpg

Es cierto, el cielo está lleno de cúmulos de galaxias y nosotros, tratándo de saber de su presencia allí, hemos llegado a conseguir eliminar muchas de las respuestas equivocadas. Podemos estar ahora mucho más cerca de la verdad de lo que lo estábamos antes. Pero, de ninguna manera sería bueno que nos dejémos adormecer por la credulidad de los postulados modernos que parecen “sacados de la manga” del jugador cosmológico, para que la partida salga redonda. Claro que, una cierta dosis de excepticismo no implica que no podamos aceptar como probables y ciertas, algunas de las ideas generales implícitas en las soluciones propuestas que podrían, al final de todo el camino, ser parte de la solución que buscamos.

Formalmente podríamos exponer aquí al menos cinco razones para tratar de justificar el por qué, las galaxias, no deberían estar ahí presentes.

1º) Las Galaxias no pueden haberse formado antes que los átomos. No es un asunto trivial. Durante muchisimos años se estuvo tratando de entender este proceso, comezando con ideas magicas, hasta que a principios del siglo 19 se empezo a a comprender como funcionan las estrellas y el Universo.

http://1.bp.blogspot.com/-EHg4VjZ0CjY/Tp1Ybl6ETOI/AAAAAAAAABY/5sJUmSQb2-A/s1600/El-Universo+02.jpg

Es un proceso algo complicado, por eso se tardo tanto en reconocerlo. En este momento la mejor teoria que explica el Universo es que comenzo con el Big-Bang, la explosion inicial que dio origen a todo. En la explosion, de origen todavia incierto, habia pura energia, y al expandirse se fue enfriando, como lo haria cualquier gas. Al llegar a un nivel de energia un poco mas bajo del inicial, se pudieron condensar de la energia las primeras particulas elementales (protones, neutrones, etc). Esto ocurrio en los primeros minutos. La famosa ecuacion de Einstein E = mc al cuadrado, implica que se puede transformar materia en energia, como en un reactor nuclear, y tambien la energia puede condensarse en materia, como en este caso. A los 300 mil años, el nivel de energia fue lo suficientemente bajo como para permitir la formacion de los primeros atomos.

La existencia protones, electrones y neutrones dispersos, que cuando se juntaron fue para formar los elementos quimicos mas elementales: Hidrogeno, Helio y algo de litio. Nada mas se formo, en la proporcion de 75% de hidrogeno, casi 25% de helio, y trazas de los otros elementos.

http://www.cookingideas.es/imagenes/antimateria.jpg

Aquella primera “sopa de plasma primordial” posibilitó que se juntaran protones y neutrones para formar el elemento más simple del Universo: El Hidrógeno,

Así, podemos partir de la base cierta de que, hasta donde sabemos, podemos pensar en el Universo durante aquellas primeras etapas de la expansión de Hubble estaba formado por dos únicos constituyentes: materia y radiación. La materia sufrió una serie de congelaciones al construir  gradualmente  estructuras más y más complejas. A medida que tienen lugar estos cambios en la formación de la materia, la manera en que interaccionan, materia y radiación cambian radicalmente. Esto, a su vez, desempeña un papel fundamental en la formación de galaxias.

La luz y otros tipos de radiación interaccionan fuertemente con partículas libres eléctricamente cargadas, del tipo de las que existían en el plasma que constituía el universo antes de que los átomos se formara. A causa de esta interacción, cuando la radiación se mueve por este plasma, colisiona con partículas, rebotando y ejerciendo una presión del mismo modo que las moléculas de aire, al rebotar sobre las paredes de un neumático, mantienen el neumático inflado. Si se diese el caso de que una conglomeración de materia del tamaño de una galaxia tratase de formarse antes de la congelación de los átomos, la radiación que traspasaría el material habría destruído el conglomerado, y, la radiación tendería a quedar atrapada dentro de la materia. Si tratase de salir, sufriría colisiones y rebotaría.

http://2.bp.blogspot.com/-9Q9hEhkreuc/T7GJp5Nf_AI/AAAAAAAAAiU/GLhfUwr3dRE/s1600/Radiactividad+y+radiaci%C3%B3n_html_ed09f3b.jpg

2º) Las galaxias no tuvieron tiempo de formarse. La Gravedad es la gran fuerza desestabilizadora del Universo, Nunca lo abandona del todo; siempre está actuando tratando de unir trazos de materia, En cierto sentido, la historia entera del Universo se puede pensar como un último y futil intento de superar la Gravedad.

Sería asombroso, dada la naturaleza universal de la fuerza gravitatoria, que no hubiera desempeñado un papel importante en la formación de las galaxias. Escribir sobre este apartado nos llevaría a tener que explicar muchas implicaciones que están presentes en la dinámica del universo en relación a la materia. De todas las maneras que la queramos mirar, la sensación que percibimnos es la de que, en aquellos primeros momentos, podía existir “algo” (no sabemos qué) que generaba también, como la materia bariónica normal, fuerza gravitatoria.

http://farm3.staticflickr.com/2273/1813695464_ab42701060_z.jpg?zz=1

        Inmensas turbulencias que generaban fuerzas eléctricas y moldeaba la materia y todo el entorno

3º) La turbulencia tampoco nos vale. El Impulso a travgés de la turbulencia es una idea simple, cuyas primeras versiones fueron aireadas alrededor de 1950. El postulado es: cualquier proceso tan violento y caótico como las primeras etapas del Big Bang no será como un río profundo y plácido, sino como una corriente de montaña, llena de espuma y turbulencias. En este flujo caótico podemos esperar encontrar remolinos y vórtices de gas. Lo cierto es que, en este maremagnun, era de todo punto imposible que las galaxias se pudieran formar.

4º) Las Galaxias no han tenido tiempo para formar cúmulos. Quizá estamos encontrando dificultades porque consideramos el problema de las galaxias desde un punto de vista muy estrecho. Quizá lo que deberíamos hacer es ver las cosas en una escala más grande y esperar que si entendemos como se forman los cúmulos de galaxias, la génesis de las galaxias individuales, se resolverá por sí misma. La idea nos conduce naturalmente a la cuestión de cómo se pueden haber formado concentraciones muy grandes de masa al comienzo de la vida del universo. Una de las ideas más sencillas sobre como puede haber sido el universo cuando los átomos se estaban formando es que no importa lo que estuviese pasando, la temperatura era la misma en todas partes. Este se llama modelo isotérmico.

Resultado de imagen de Formación de galaxias a pesar de la expansión de Hubble

Alguna fuerza misteriosa estalla allí para retener la materia

Explicar aquí las implicaciones matemáticas a que nos llevaría explicar el modelo isotérmico, estaría bien pero, no parece imprescindible para finalizar este trabajo que, de manera sencilla, sólo trata de explicar que, las galaxias no se pudieron formar conforme a lo que hemos observado y sabemos del Universo, algo nos falta por saber y, alguna fuerza “oculta” debería haber estado allí presente para evitar que, la materia se dispersara con la expansión de Hubble y las galaxias se pudieran formar.

5º) Si la radiación marcha junto con la materia y la materia con las galaxias, la radiación de microondas cósmicas sería contradictoria. Si la radiación no se hubiera dispersado uniformemente, con independencia de la materia del universo, ¿dónde hubiera estado? siguiendo el procedimiento normal de la física teórica, consideraremos a continuación la tesis opuesta.

Supongamos que en el comienzo del universo materia y radiación estaban unidas. Si era así, allí donde se encontrara una concentración de masa, también habría una concentración de radiación. En la jerga de la Física se dice que esta situación es “adiabática”. Aparece siempre que tienen lugar en las distribuciones del gas cambios tan rápidos que la energía no puede transferirse fácilmente de un punto al siguiente.

Sabemos que,  para hacer galaxias,  la materia del universo tuvo que estar muy bien distribuída en agregados cuando se formaron los átomos. Pero, todo este resultado choca con uno de los hechos más notables del universo que conocemos. Si consideramos la radiación de microondas, que llega hasta nosotros desde la dirección del Polo Norte de la Tierra, y luego nos volvemos y miramos la radiación que viene  del Polo Sur, encontramos que son casi completamente idénticas. De esta notable uniformidad se deduce que cuando la radiación se despareja de la materia deberá de estar muy uniformemente distribuida por todo el universo.

El resultado final es este: lo que el proceso de formación de galaxcias requiere del entorno de microondas y lo que observamos de su uniformidad son cosas diametralmente opuestas. Lo primero requiere radiación para ser reunida con la materia; así, si la materia estuviera agrupada cuando los átomos se formaron, habría trazas de esa agrupación en el fondo cósmico de microondas de hoy.

Por otra parte, la uniformidad observada en el entorno de microondas implica que la radiación nunca podría haber estado tan agrupada; si lo hubiera estado, hoy no sería uniforme. Cuando se hacen detallados cálculos núméricos, los astrofísicos encuentran que es imposible conciliar estas dos exigencias en conflicto. La radiación de microondas no puede ser uniforme y no uniforme al mismo tiempo.

http://www.nasa.gov/centers/goddard/images/content/377609main_blackhole_diet_HI.jpg

Todos los razonamientos anteriores nos llevan a pensar y demuestran muy claramente que, no podemos dar por supuesto un universo lleno de galaxias y, si de hecho lo está, debemos buscar la causa real que lo hizo posible. Explicar ese universo ha sido mucho más difícil de lo que muchos llegaron a pensar y, como se dice en el título de este trabajo, no tenemos una explicación, ni las razones de peso que justifiquen la presencia de las galaxias.

¿Qué había y estaba presente en el comienzo del Universo, que nosotros desconocemos pero que, hizo posible que las galaxias se pudieran formar?

Yo no lo se.

Estamos de nuevo en el punto de siempre: Nuestros conocimientos son limitados. Nuestra ignorancia… ¡Infinita!

emilio silvera

¡El pasado! ¿Qué haríamos sin él?

Autor por Emilio Silvera    ~    Archivo Clasificado en Rumores del saber del mundo    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

2064 aryabhata-crp.jpg

              Estatua de Aryabhata

En el año 499 d.C. el matemático hindú Aryabhata calculó pi como 3,1416 y la duración del año solar como 365,358 días.  Por la misma época, concibió la idea de que la Tierra era una esfera que giraba sobre su propio eje y se desplazaba del Sol.  Pensaba, además, que la sombra de la Tierra sobre la Luna era lo que causaba los eclipses.  Dado que Copérnico no “descubriría” algunas de estas cosas hasta casi mil años después, resulta difícil no preguntarse si el revuelo provocado por la llamada “revolución copernicana” estaba realmente justificado.

En la Edad Media el pensamiento indio estaba muy por delante del europeo en varias áreas.  En esta época, los monasterios budistas de la India tenían tantos recursos que actuaban como bancos e invertían sus excedentes financieros en empresas comerciales.  Detalles como éste aclaran por qué los historiadores se refieren a la reunificación del norte de la India bajo los Guptas (c.320-550) como una era dorada.

                                  Templo Budista

Esta dinastía, en conjunción con el reinado de Harsha Vardhana (606-647), abarca el período que hoy se considera la era clásica de la India.  Además de los progresos realizados en matemáticas, esta época fue testigo del surgimiento de la literatura en sánscrito, de la aparición de formas de hinduismo nuevas y duraderas, entre ellas el vedanta, y del desarrollo de una espléndida arquitectura religiosa.

Más que la mayoría de los lenguajes, el sánscrito encarna una idea: es el lenguaje especial para gente que deben tener una clasificación también especial.  Es una lengua de más de tres mil años de antigüedad. En un principio, fue la lengua del Punjab, pero luego se difundió al este.

Se puede discutir si los autores del Rig Veda fueron los arios procedentes de fuera de la India o indígenas de la región, pero lo que no se puede poner en duda es que poseían un idioma de gran riqueza y precisión, y una tradición poética cultivada.

El sánscrito es una de las aportaciones más grandes de la cultura que nos vamos a poder encontrar que se ha formado de alguna manera en un territorio indio europeo como lo es la india, ya que es considerado como la lengua más antigua de toda esta zona, pues según algunos historiadores y analistas de toda esta situación el mismo fue conformado o desarrollado hace más de 4000 años, algo para tener en cuenta por parte de todos nosotros, ya que según muchas personas gracias a esta gran cantidad de aportes que se fueron formando con él sanscrito se fue formando todo lo que conocemos en la actualidad en cada una de las diferentes lenguas y textos que se desarrollaron en lo que es actualmente.

Moderna estatua de Pāṇini vestido al estilo Imperio mogul (siglo XVII-XIX) en la Universidad de Benarés

La importancia de los gramáticos para la historia del sanscrito no tiene comparación en ninguna otra lengua del mundo.  La preeminencia que alcanzó esta actividad se deriva de la necesidad   de preservar intactos los textos sagrados de los Vedas: según la tradición, cada palabra del ritual tenía que pronunciarse de forma exacta.  Así que da demostrado en algún momento del siglo IV a.C. cuando Panini compone su Gramática.

Nada sabemos sobre la vida de Panini, aparte de que nació en Satura, en el extremo noroeste de la India.  Su Astadhyayi consta de cuatro mil aforismos que describen, con abundante detalle, la forma de sanscrito que utilizaban los brahmanes de la época.  Su obra tuvo tanto éxito, que la forma del idioma que describió quedó establecida para siempre, después de lo cual vendría a ser conocida como samskrta (“perfecta”).

Según el Pancha tandra (hacia el 200 a. C.),  Pāṇini fue matado por un león.

El texto, que en algunas recensiones aparece como 2.33, dice:

“Un león le quitó la vida al querido gramático Pāṇini, un elefante aplastó a Yaimini, el creador de [la doctrina] mimamsa, Pingala fue matado por un cocodrilo: ¿qué les importan los logros académicos a los insensibles animales?”

A partir de los trabajos de Panini, el lenguaje en la India evolucionó de manera considerable y sus efectos se podría decir, fueron altamente positivos.  El lenguaje estaba dividido en dos: sanscrito para el estudio y ritual, preservado para la casta de los brahmanes, y, el práctico, para la vida cotidiana.

Hay que decir que, tal distinción ya existía en la época de Buda y Mahavira y desde la época de Panini sólo la lengua vernácula evolucionó de forma normal.  La brecha entre el sánscrito y el práctico se amplió con el paso de los siglos y, sin embargo, ello no tuvo consecuencias negativas para el primero que en la época de los Guptas era el lenguaje utilizado por la Administración.

Las lenguas modernas de la India: Bengalí, gujarati, y, maratí, solo empezaron a utilizarse 1.000 años después de C.

Después del siglo II a.C. empiezan a aparecer textos seculares: poesías, dramas y obras de naturaleza científica, técnica o filosófica.  En este momento, todo hombre de letras debía saber de memoria el astadhyayi.  Aprenderlo requería un largo proceso, pero demostraba la educación.

Kālidāsa fue un poeta y dramaturgo indio hinduista, que floreció aproximadamente en el siglo VI de nuestra era.  Su poema más conocido es el llamado “Mensajero de las Nubes”.  Los poemas de Kalidás sugieren que era un brahmám (sacerdote), aunque se cuentan historias que lo contradicen.

Entre los años 500 y 1.200 d. C., la literatura sánscrita vive su edad de oro, protagonista indiscutible de la cual es Kalidasa, el más famoso de los autores del período den la literatura kavya (secular), la literatura agama (religiosa) y los trabajos de los estudiosos (sastra).

Como ocurre con Panini, tampoco se sabe mucho sobre los orígenes de Kalidasa.  Su nombre significa “esclavo de la diosa Kali”, lo que sugiere que pudo nacer al sur de la India, en lo que después se convirtió en Bengala, donde Kali, la esposa de Shiva, contaba con muchos seguidores.

Hay ciertas características de las obras de Kalidasa que hace pensar en que podía ser un brahmán de Ujjain o Mandasor, ya que muchos detalles delatan un profundo conocimiento del fértil valle del Narmada, en la región de Malwa.  Como en el caso de Sófocles, sólo se conservan siete de los clásicos sánscritos de Kalidasa, poeta lírico y autor de epopeyas y obras de teatro.

Su trabajo más conocido, como dije antes, es el poema Meghaduta (Mensajero de las nubes), sin embargo, la obra más evocadora de Kalidasa es el drama Shakuntala

Fitxer:Kalidas smarak.jpg

La superioridad y brillantez de la literatura india de este período quedan confirmadas por el hecho de que sus ideas y prácticas se difundieron por todo el sureste asiático.  Es posible encontrar Budas de estilo gupta de Malaya, Java y Borneo.  Se cree que las inscripciones en sánscrito, que aparecen en Indochina desde el siglo III y IV, constituyen un indicio de los comienzos de la alfabetización en esta región y “casi todos los estilos de escrituras preislámicos del sureste asiático son derivados del gupta Grahmi”.

Bajo la dinastía de los guptas el templohindú se desarrolló  hasta convertirse en la forma arquitectónica clásica de la India.  Es difícil exagerar la importancia del templo hindú.  El mundo tienen una gran deuda con el arte de la India, algo especialmente cierto en el caso de China, Corea, el Tibet. Camboya y Japón.

Es evidente que la iconografía de los templos indios se origina en un conjunto de supuestos diferentes de los des arte cristiano, pero constituye un sistema no menos cerrado e interconectado.  En general, las imágenes hindúes son bastante más arcaicas que las cristianas y en mucho casos más antiguas que el arte griego.  Los mitos de los grandes dioses (Vishnú y Shiva) representados en los grabados se repiten cada palpa, esto es, cada cuatro mil trescientos veinte millones de años.

Sustentador del universo, gobernante de sattva ( ‘existencia, realidad’), se reclina sobre Ananta S’esha, la serpiente de muchas cabezas, y de su ombligo …

Habitualmente, los dioses están acompañados de vehículos o se los asocia a ellos: Vishnú a una serpiente o culebra cósmica (símbolo de las aguas primigenias de la creación), Brama a un ganso, Indra a un elefante, Shiva a un tono, y cada uno tiene un significado espiritual, como Airavata, el ancestro celestial de todos los elefantes que lleva a Indra, el rey de los dioses, así que está enclavado como perteneciente a la tierra de los reyes.

La cultura hindú es fascinante y leer en profundidad su historia nos puede dar el conocimiento de gran parte del comportamiento de la Humanidad.  Como otros tantos lugares y culturas, fue invadida por el Islam que nunca consiguió erradicar las costumbres y cultura de los nativos.

Los templos hindúes de la India constituyen una de esas espléndidas obras que nunca se han abierto camino en la mente de Occidente para ser consideradas equivalentes intelectuales y artísticos de, digamos, al arquitectura clásica Griega.  ¡Un gran error!

Como dije antes, otra innovación hundú fue la invención o creación de los numerales indios.  Ello fue obra en primera instancia del famoso matemático indio Aryabhata, que igualmente mencione antes en alguna parte de este trabajo en el apartado referido a la India.

En el año 499, Aryabhata escribió un pequeño volumen, Aryabhatuya, de 123 versos métricos, que se ocupaban de astronomía y (una tercera parte) de ganitapada o matemáticas.  En la segunda mitad de esta obra, en la que habla del tiempo y la trigonometría esférica, Aryabhata utiliza una frase, en la que se refiere a los números empleados en el cálculo, “cada lugar es diez veces el lugar precedente”.  El  valor posicional había sido un componente esencial de la numeración babilónica, pero los babilonios no empleaban un sistema decimal.

La numeración había empezado en India con simples trazos verticales dispuestos en grupos, un sistema repetitivo que se mantuvo aunque después se crearon nuevos símbolos para el cuatro, diez, veinte y el cien.  Esta escritura kharosti dio paso a los denominados caracteres brahmi, un sistema similar al jonio griego:

Desde este punto se necesitaban dos pasos adicionales para llegar al sistema que empleamos ahora.  El primero era comprender que un sistema posicional sólo requiere nueve cifras (y que, por tanto, podemos deshacernos de todos los demás, de la I en adelante en el gráfico o figura anterior).  No hay certeza sobre cuando se dio este paso por primera vez, pero el consenso entre los historiadores de las matemáticas es que se produjo en la India, y que quizá se desarrolló a lo largo de la frontera entre la India y Persia, donde el recuerdo del sistema posicional puede haber incitado a su uso en al alternativa brahmi, o en la frontera con China, donde existía un sistema de varas.

Esto también puede haber sugerido la reducción de los numerales a nueve.  La referencia más antigua a los nueve numerales indios la encontramos en los escritos de un obispo sirio llamado Severo Sebokt que, molesto con los griegos (cerrados a otros saberes en países distintos a Grecia), trató de recordarles que, también en otros lugares, y otras culturas, tenían conocimientos dignos de atención y, apelaba a los indios y los descubrimientos que éstos habían realizado en astronomía y, en particular, “su valioso método de calcular, que supera cualquier descripción. Sus cálculos de realizaban mediante nueve signos (nueve no diez) La primera aparición indudable del cero en la India es una inscripción del año 876, más de dos siglos después de la primera mención del uso de los otros nueve numerales.

Algunos supieron “ver” que el concepto de “nada” de “vacío” era algo inexistente y, a la vez, muy poderoso. Lo que entendemos por nada… No existe, siempre hay aunque sólo sean pensamientos. La Nada es esa palabra que hemos encontrado para significar la falta de algo, la ausencia… ¡de tántas cosas!

Todavía no sabemos con certeza dónde surgió por primera vez el cero, y el concepto de nada, de  vacío, a la que, además de los hindúes también llegaron los mayas de manera independiente.   Algunos sitúan la aparición del cero en China.  No obstante, nadie discute la influencia india, y todo aparece indicar que fueron ellos los primeros que emplearon a la vez los tres nuevos elementos en que se funda nuestro actual Sistema numérico:

  • una base decimal,
  • una notación posicionad y cifras para diez, y
  • sólo diez, numerales.  Y esto ya establecido en 876.

En algún momento se dio por hecho que el cero provenía originalmente de la letra griega omicrón, la inicial de la palabra ouden, que significa “vacío”. Sin embargo, está más allá en el pasado.

emilio silvera