miércoles, 30 de abril del 2025 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Nuestra percepción y la realidad: Dos cosas distintas

Autor por Emilio Silvera    ~    Archivo Clasificado en La realidad humana ¿es realidad?    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

                     No todos vemos el mundo de la misma manera

Nuestra realidad es la que cada uno de nosotros percibimos, entendemos y actuamos de manera diferente en la vida. Cada uno poseemos nuestra propia realidad del mundo y de nosotros mismos. Estamos construidos a base de creencias, y esas creencias son las que influyen de manera decisiva en nuestra realidad y en nuestra conducta, por lo tanto, son las culpables de que consigamos o no nuestros objetivos. Básicamente nuestra realidad está formada por nuestras creencias.

“Nuestra tarea más urgente es dejar de identificarnos con el pensamiento, dejar de estar poseídos por él”     Eso nos aconseja Eckhart Tolle, y, no siempre resulta ser de esa manera, Hay ocasiones en la que, nuestros pensamientos son la guía que nos pueden llevar al buen destino, y, si lo que dice (que no lo aclara) está referido a los pensamientos de los otros, simplemente se trata de discernir dónde radica la verdad, en lo que nos dicen o en lo que nosotros creemos. Claro que, no todos creen siempre en lo correcto.

 

Lo cierto es que, la única realidad vendrá de los descubrimientos que son desvelados y nos muestran los secretos d ela Naturaleza.

 

Nosotros los humanos, nunca estamos seguros de nada y, buscando esa seguridad, creamos modelos con los que tratamos de acercarmos más y más a esa realidad que presentimos, y, para ello, encontramos las maneras de aproximarnos a esa realidad “presentida”.

Pero vayamos a algo concreto y pensemos, por ejemplo, en la técnica reiterativa que se utiliza para obtener “soluciones” en casos como el problema de los tres cuerpos (por ejemplo) tiene un inconveniente. A veces no funciona, no siempre podemos decir a priori si va a funcionar o no. La técnica que se aplica para “resolver” las ecuaciones diferenciales pertinentes (recordemos que no se pueden resolver analíticamente) implica realizar aproximaciones sucesivas, en las cuales, como es sabido, el primer paso del proceso de cálculo sólo da una solución aproximada; el segundo paso añade (con un poco de suerte) una correccción para obtener una aproximación más precisa de la realidad; el tercer paso nos da una aproximación aún mejor, y así sucesivamente hasta que nos parezca que la aproximación es lo suficientemente buena para el objetivo que nos hayamos propuesto. Pero nunca podremos conseguir con exactitud la “respuesta” que encaja a la perfección con el comportamiento de los objetos del mundo real en lo que se centra nuestro interés en ese determinado momento y sobre ese objetivo en particular.

Ninguna idea nos ha llegado de manera instantánea y depurada en todos sus conceptos, sino que, han sido ideas que han tenido que ir siendo depuradas más y más a conseguir esa realidad que buscábamos haciendo que, el esquema encontrado, se parezca lo más posible al mundo que nos rodea y que podemos observar. Esa es, en pocas palabras la historia de la Relatividad de Einstein que ajunto muchas ideas  y conceptos para conseguir sus teorías que están muy cercas de lo que el mundo es.

Lo que hacemos es sumar una serie de números -en principio, una serie de números infinitamente larga- A los matemáticos les interesa estas series infinitas para sus propios objetivos, independientemente de la importancia quer puedan tener para los estudios del comportamiento de las cosas tales como los planetas que orbitan alrededor del Sol, y conocen una gran cantidad de series infinitas cuyas sumas se comportan lo suficientemente bien como para ofrecer una aproximación cada vez mejor de un número concreto.

 

Un buen ejemplo lo constituye uno de los procedimientos que se utilizan habitualmente para calcular el valor aproximado de π, el cociente entre la circunferencia de un círculo y su diámetro. Se puede calcular realmente el valor de π/4, con tanta precisión como se desee, sumando la serie numérica:

1 – 1/3 + 1/5 – 1/7 ….

Esto nos da una primera aproximación del valor de π que sería (4 x 1), que no es muy brillante; una segunda aproximación cuyo valor sería 2,6666… (4 x 2/3), que es algo mejor, y que, curiosamente,  se encuentra al otro lado de la respuesta «correcta»; una tercera aproximación que sería 3,46666…, y así sucesivamente. Estas aproximaciones van siendo cada vez mejores y convergen en el verdadero valor de π, en este caso concreto desde ambos lados. Pero el proceso es tedioso -la suma del primer millón de términos de la serie nos da para pi (π) un valor de 3,1415937, que sólo es correcto en sus cinco primeras cinco cifras decimales, Ni obstante, se puede calcular π de este modo hasta el grado de precisión que se desee (hasta alguna cifra de los decimales), si tienes la paciencia necesaria.

 

Hacemos una parada aquí para dejar una nota que nos dice que  independiente de cualquier otra consideración, lo cierto es que, en matemáticas y la teoría del caos y  entre otros temas. Si hablamos de Pi mos topamos con múltiples sorpresas y él está representado en el diseño de la doble espiral de ADN  el Efecto mariposa y la Torah, entre otras muchísimas cosas que  se escriben con Pi. Es un número misterioso que lo podemos ver por todas partes representado de una u otra manera. Desde la más remota antigüedad, fascinó a los más grandes pensadores.

No pocos están convencidos de la existencia de patrones que se repiten en los distintos órdenes de la vida. Descubrirlos implicaría, nada más y nada menos, que deducir el mundo. Yo no dejaría de lado, en todo esto la Teoría del Caos que podría definirse (¡en forma muy simplona!) como el estudio de sistemas complejos siempre cambiantes. Los resultados que consideramos ´impredecibles´ ocurrirán en sistemas que son sensibles a los cambios pequeños en sus condiciones iniciales. El ejemplo más común es conocido como “el efecto mariposa” “La teoría supone que el batir de alas de una mariposa en la China durante un determinado período de tiempo podría causar cambios atmosféricos imperceptibles en el clima de New York.

 

Pi es la decimosexta letra del alfabeto griego y el símbolo que representa el misterio matemático más viejo del mundo: la proporción de la circunferencia de un círculo a su diámetro.

El registro escrito conocido más temprano de la proporción viene del año 1650 antes de Cristo en Egipto, donde un escriba calculó el valor como 3.16 (con un pequeñísimo error). Aunque ahora, nosotros tenemos métodos para calcular los dígitos de pi (3.1415…) sus restos de valor exacto todavía son un misterio.

Desde 1794, cuando se estableció que Pi era irracional e infinita, las personas han estado buscando un patrón en el cordón interminable de números.

Cosa curiosa, Pi puede encontrarse por todas partes, en la astronomía, en la física, en la luz, en el sonido, en el suelo, etc. Algunos cálculos advierten que tendría más de 51 mil millones de dígitos, pero hasta el momento no se ha detectado un patrón discernible que surja de sus números. De hecho, la primera sucesión 123456789 aparece recién cerca de los 500 millones de dígitos en la proporción.

En la actualidad hay algunas computadoras superpoderosas tratando de resolver la cuestión. En el film, la computadora bautizada por Max como Euclid literalmente “estalla” al acercarse a la verdad del cálculo. ¿Y entonces?… Azar, fe, creencias, ciencia, métodos…y siempre un misterio último sin resolver.

¿El hallazgo de patrones será la respuesta? Tal vez por eso los pitagóricos amaban la forma/patrón espiral… porque ella está por todas partes en la naturaleza: en los caracoles, en los cuernos del carnero, en las volutas de humo, en la leche sobre el café, en la cara de un girasol, en las huellas digitales, en el ADN y en la Vía Láctea.

Sí, son muchas las mentes más claras que se han interesado por este fascinante número π. En su libro de 1989 “La nueva mente del emperador”, Roger Penrose comentó sobre las limitaciones en el conocimiento humano con un sorprendente ejemplo: Él conjeturó que nunca más probable es saber si una cadena de 10 7s consecutivo aparece en la expansión digital del número pi . A tan sólo 8 años más tarde, Yasumasa Kanada utiliza una computadora para encontrar exactamente esa cadena, empezando por el dígito de pi …. 17387594880th

Sin embargo, al final, algunos creen que, como todo esta relacionado, sabremos reconocer el mensaje que trata de enviarnos π y que, hasta el momento no hemos sabido comprender. Y, por otra parte, existen otras cuestiones que también estamos tratandode dilucidar para aproximarnos a esa realidad incomprendida que, estándo aquí, no podemos ver. Por ejemplo:

Roger Penrose dedicó bastante más tinta en defender  los argumentos de Shadows of Mind que en escribir dicha obra. En una de sus contrarreplicas, publicada en la revista Psyche (Enero, 1996), nos ofrece una de las versiones más claras de su famoso argumento.

Supongamos que todos los métodos de razonamiento matemático humanamente asequibles válidos para la demostración de cualquier tesis están contenidos en el conjunto F. Es más, en F no sólo introducimos lo que entenderíamos como lógica matemática (axiomas y reglas de inferencia) sino todo lo matemáticamente posible para tener un modelo matemático del cerebro que utiliza esa lógica (todos los algoritmos necesarios para simular un cerebro). F es, entonces, el modelo soñado por cualquier ingeniero de AI: un modelo del cerebro y su capacidad para realizar todo cálculo lógico imaginable para el hombre. Y, precisamente, ese es el modelo soñado porque la AI Fuerte piensa que eso es un ser humano inteligente. Así, cabe preguntarse: ¿Soy F? Y parece que todos contestaríamos, a priori, que sí.

                     ¿Es la verdad inalcanzable?

Sin embargo, Roger Penrose, piensa que no, y para demostrarlo utiliza el celebérrimo teorema de Gödel, que venimos a recordar a muy grosso modo: un sistema axiomático es incompleto si contiene enunciados que el sistema no puede demostrar ni refutar (en lógica se llaman enunciados indecidibles). Según el teorema de incompletitud, todo sistema axiomático consistente y recursivo para la aritmética tiene enunciados indecidibles. Concretamente, si los axiomas del sistema son verdaderos, puede exhibirse un enunciado verdadero y no decidible dentro del sistema.

Si yo soy F, como soy un conjunto de algoritmos (basados en sistemas axiomáticos consistentes y recursivos), contendré algún teorema (proposiciones que se infieren de los axiomas de mi sistema) que es indecidible. Los seres humanos nos damos cuenta, somos conscientes de que ese teorema es indecidible. De repente nos encontraríamos con algo dentro de nosotros mismos con lo que no sabríamos qué hacer. Pero en esto hay una contradicción con ser F, porque F, al ser un conjunto de algoritmos, no sería capaz de demostrar la indecibilidad de ninguno de sus teoremas por lo dicho por Gödel… Una máquina nunca podría darse cuenta de que está ante un teorema indecidible. Ergo, si nosotros somos capaces de descubrir teoremas indecidibles es porque, algunas veces, actuamos mediante algo diferente a un algoritmo: no sólo somos lógica matemática.

Claro que, cómo podría un robot imitar nuestros múltiples, locos  y dispares pensamientos:

  • Los Computadores nunca podrán reemplazar la estupidez humana.
  • El hombre nace ignorante,  la educación lo idiotiza.
  • Una persona inteligente resuelve problemas, el genio los evita.
  • Las mujeres consideran que guardar un secreto, es no revelar la fuente.
  • Todas las mujeres tienen algo bonito… así sea una prima lejana.
  • La felicidad es una lata de atún, pero con el abrelatas un poco distante.
  • El único animal que no resiste aplausos es el mosquito.
  • El amor está en el cerebro, no en el corazón.
  • Definición de nostalgia “es la alegría de estar triste”.
  • “Mi segundo órgano favorito es el cerebro”.

  Una cosa es imaginar y otra muy distinta… ¡saber!

Vale, ¿y qué consecuencias tiene eso? Para la AI muy graves. Penrose piensa no sólo que no somos computadores sino que ni siquiera podemos tener un computador que pueda simular matemáticamente nuestros procesos mentales. Con esto Penrose no está diciendo que en múltiples ocasiones no utilicemos algoritmos (o no seamos algoritmos) cuando pensemos, sólo dice (lo cual es más que suficiente) que, habrá al menos algunas ocasiones, en las que no utilizamos algoritmos o, dicho de otro modo, hay algún componente en nuestra mente del cual no podemos hacer un modelo matemático, qué menos que replicarlo computacionalmente en un ordenador.

Además el asunto se hace más curioso cuanto más te adentras en él. ¿Cuáles podrían ser esos elementos no computables de nuestra mente? La respuesta ha de ser un rotundo no tenemos ni idea, porque no hay forma alguna de crear un método matemático para saber qué elementos de un sistema serán los indecidibles. Esto lo explicaba muy bien Turing con el famoso problema de la parada:

Si tenemos un ordenador que está procesando un problema matemático y vemos que no se para, es decir, que tarda un tiempo en resolverlo, no hay manera de saber si llegará un momento en el que se parará o si seguirá eternamente funcionando (y tendremos que darle al reset para que termine). Si programamos una máquina para que vaya sacando decimales a pi, no hay forma de saber si pi tiene una cantidad de decimales tal que nuestra máquina tardará una semana, seis meses o millones de años en sacarlos todos o si los decimales de pi son infinitos. De esta misma forma, no podemos saber, por definición, qué elementos de nuestra mente son no computables. A pesar de ello, Penrose insiste en que lo no computable en nuestra mente es, nada más y nada menos, que la conciencia, ya que, explica él, mediante ella percibimos la indecibilidad de los teoremas. Es posible, ya que, aunque a priori no pudiéramos saber qué elementos no son decidibles, podríamos encontrarnos casualmente con alguno de ellos y podría ser que fuera la conciencia. Pero, ¿cómo es posible que nuestro cerebro genere conciencia siendo el cerebro algo aparentemente sujeto a computación? Penrose tiene que irse al mundo cuántico, en el que casi todo lo extraño sucede, para encontrar fenómenos no modelizables por las matemáticas y, de paso, resolver el problema del origen físico de la conciencia.

Las neuronas no nos valen. Son demasiado grandes y pueden ser modelizadas por la mecánica clásica. Hace falta algo más pequeño, algo que, por su naturaleza, exprese la incomputabilidad de la conciencia. Penrose se fija en el citoesqueleto de las neuronas formado por unas estructuras llamadas microtúbulos. Este micronivel está empapado de fenómenos cuánticos no computables, siendo el funcionamiento a nivel neuronal, si acaso, una sombra amplificadora suya, un reflejo de la auténtica actividad generadora de conciencia. ¡Qué emocionante! Pero, ¿cómo generan estos microtúbulos empapados de efectos cuánticos la conciencia? Penrose dice que no lo sabe, que ya bastante ha dicho…

O sea señor Penrose, que después de todo el camino hecho, al final, estamos cómo al principio: no tenemos ni idea de qué es lo que genera la conciencia. Sólo hemos cambiado el problema de lugar. Si antes nos preguntábamos cómo cien mil millones de neuronas generaban conciencia, ahora nos preguntamos cómo los efectos cuánticos no computables generan conciencia. Penrose dice que habrá que esperar a que la mecánica cuántica se desarrolle más. Crick o Searle nos dicen que habrá que esperar a ver lo que nos dice la neurología… ¡Pero yo no puedo esperar!

Además, ¿no parece extraño que la conciencia tenga algo que ver con el citoesqueleto de las neuronas? La función del citoesqueleto celular suele ser sustentar la célula, hacerla estable en su locomoción… ¿qué tendrá que ver eso con ser consciente? Claro que en el estado actual de la ciencia igual podría decirse: ¿qué tendrá que ver la actividad eléctrica de cien mil millones de neuronas con que yo sienta que me duele una muela?

     Todo eso está bien pero, ¿Qué es PI?

Desde hace aproximadamente unos 5000 años, el hombre ha utilizado  objetos que ruedan para ayudarse en sus tareas, por eso es muy probable que haya descubierto ese “3 y pico” hace muchos años, pues es imprescindible para calcular y resolver problemas que involucraran estos cuerpos. Cuenta la historia, que los antiguos egipcios en el 1600 a. de C. ya sabían que existía una relación entre la longitud de la circunferencia y su diámetro; y entre el área del círculo y el diámetro al cuadrado (seguramente de forma intuitiva). En el Papiro de Rhind puede leerse lo siguiente:

“Corta 1/9 del diámetro y construye un cuadrado sobre la longitud restante. Este cuadrado tiene el mismo área que el circulo”.

Si llamamos A al área del círculo, ésta será igual a 8/9 del diámetro al cuadrado
     A=(8/9 d)^2
Como   d=2r entonces   A= 2r^2 x 64/81  = 4r2 x 64/81  = r2 x 256/81
Resultado de imagen de La Tablilla de Susa
Así vemos como  π adoptaba el valor 256/81, aproximadamente 3,16.  En Mesopotamia, más o menos por la misma época, los babilonios utilizaban el valor 3,125 (3+1/8) según  la Tablilla de Susa.
Mientras que los geómetras de la Grecia clásica sabían que la razón entre la longitud de una circunferencia cualquiera y su diámetro es siempre una constante (el número al que ahora llamamos pi). También conocían y habían conseguido demostrar que tanto la razón entre el área de un círculo y su diámetro al cuadrado, como la del volumen de una esfera y el cubo de su diámetro eran constantes (desconocidas en aquel momento, libro XII de “Los Elementos” de Euclides).
Fue Arquímedes en el siglo III a. de C. quien determinó que estas constantes estaban estrechamente relacionadas con π. Además, utilizó el método de exhaución, inscribiendo y circunscribiendo en una circunferencia, polígonos de hasta 96 lados y consiguiendo una magnífica aproximación para la época.
Resultado de imagen de Arquímedes
Lo cierto es que, desde tiempos inmemoriales, vamos tras la huella del saber, tratando de adentrarnos en el conocimiento de las cosas que nos rodean, del mundo en el que vivímos, de la Galaxias que nos acoge y en fin, del Universo y la Naturaleza que guarda todos los secretos que deseamos desvelar y, como nosotros somos parte de esa Naturaleza, es posible, que todas las respuestas que buscamos esté, desde el principio, gravada en nosotros y, sólo con el tiempo, podrán aflorar y llegar a nuestras mentes que tratamos de comprender a veces, con frustración y sufrimiento ante la impotencia de no saber…lo que pueda haber en el interior de tan complejo “universo”.
Resultado de imagen de Los babilonios y la astronomíaImagen relacionada
Nos queda mucho tiempo de evolución de nuestras mentes para que, algún día, podamos dejar las creencias ancestrales a un lado, y, saber donde está esa realidad que, incansables buscamos. Claro que, algunos, cuando la encuentran, no la quieren reconocer.
emilio silvera

En el Centro de la Galaxia, nos acecha Sagitario A

Autor por Emilio Silvera    ~    Archivo Clasificado en Agujeros negros    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen de Sagitario A en el centro de la Galaxia

Imagen de la región en el centro galáctico en el que reside Sagitario A, el agujero negro monstruoso

 

 

Investigadores han usado 13 telescopios y un modelo computacional para conseguir la mejor imagen del agujero negro de nuestra galaxia hasta ahora.
Noticia publicada en El Español

Es fácil olvidarlo, pero en el centro de nuestra galaxia hay un gigantesco agujero negro; está constantemente tragando materia, constantemente en expansión. Si lo piensas, da mucho miedo, aunque por supuesto, no es algo de lo que tengamos que preocuparnos; aunque puede que cambies de opinión después de verlo mejor.

Pese a estar más cerca, eso no significa que conseguir imágenes del agujero negro de la Vía Láctea sea más fácil comparado con los del resto del universo. Los agujeros negros son tan compactos que para conseguir una observación directa haría falta un telescopio del tamaño de la Tierra.

Resultado de imagen de Telescopios observando un Agujero negro

Aunque esté relativamente cerca, fotografiar un agujero negro es difícil

 

Esa no es la única razón por la que Sagitario A*, la denominación que recibe el agujero negro supermasivo en el centro de la Vía Láctea, es un gran desconocido para la mayoría. La gran masa de materia que rodea al agujero negro, atraída por su enorme gravedad, actúa como ver a través de “cristal escarchado”, según los científicos. El resultado son lecturas que poco tienen que ver con la realidad.

 

 

Por eso, el último logro conseguido entre universidades y telescopios de todo el mundo es tan importante: la primera imagen clara del agujero negro de nuestra galaxia. Para conseguirlo, no les ha bastado con la observación directa, sino que los modelos computacionales han cobrado una gran importancia.

Los investigadores usaron 13 telescopios de todo el mundo, desde el polo sur hasta Europa, Sudamérica, África, Norteamérica y Australia. Juntos, tenían tanta resolución como para ver desde Londres una chincheta en el suelo de Nueva York. Para unir las mediciones obtenidas por todos los telescopios, se usó una técnica llamada interferometría, consistente en combinar los datos obtenidos de diferentes receptores para conseguir una imagen de mayor resolución.

Resultado de imagen de El centro galáctico

Parte del mosaico del Chandra, con referencias. Sagittarius A corresponde a la zona del centro galáctico, donde se presume la existencia de un agujero negro

La imagen del agujero negro de nuestra galaxia

Aún quedaba el problema de la “neblina” provocada por las masas que rodean al agujero negro. Eso se solucionó con un nuevo modelo computacional, que hizo la imagen más clara. El resultado es la imagen de mayor resolución que se ha obtenido hasta ahora de un agujero negro.

 

 

imagen del agujero negro de nuestra galaxia

 

Gracias a esta imagen, ya se han detectado algunos detalles interesantes. Por ejemplo, este agujero negro no parece tener un “jet”, o “chorro”; una expulsión de materia a altas velocidades que se suele ver como resultado de muchos agujeros negros. Una posibilidad es que el chorro esté apuntando hacia la Tierra, y que por eso no lo podamos ver.

Por supuesto, no hay ningún peligro de que este agujero negro nos vaya a afectar. Está a casi 26.000 años luz, e incluso al ritmo al que devora materia, es muy probable que la humanidad se extinga y la Tierra sea destruida antes de tener que preocuparnos por nuestro agujero negro (qué raro suena eso).

¿La teoría cuántica y la Gravedad, dentro de las cuerdas

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

  

               Sí, a veces la Física, parece un Carnaval. Imaginamos universos que… ¿serán posibles?

Las teorías de cuerdas [TC’s] no son una invención nueva, ni mucho menos. La primera TC se inventó a finales de los años sesenta del siglo XX en un intento para encontrar una teoría para describir la interacción fuerte. La idea medular consistía en que partículas como el protón y el neutrón podían ser consideradas como ondas de «notas de una cuerda de violín». La interacción fuerte entre las partículas correspondería a fragmentos de cuerda que se extenderían entre pequeños pedacitos de cuerda, como las telas que forman algunos simpáticos insectos. Para que esta teoría proporcionase el valor observado para la interacción fuerte entre partículas, las cuerdas tendrían que ser semejantes a las de un violín, pero con una tensión de alrededor de unas diez toneladas.

La primera expresión de las TC’s fue desarrollada por Jöel Scherk, de París, y John Schwuarz, del Instituto de Tecnología de California, quienes en el año 1974 publicaron un artículo en el que demostraban que la TC podía describir la fuerza gravitatoria, pero sólo si la tensión en la cuerda se tensiometrara alrededor de un trillón de toneladas métricas. Las predicciones de la teoría de cuerdas serían las mismas que las de la relatividad general a escala de longitudes normales, pero diferirían a distancias muy pequeñas, menores que una trillonésima de un cm. Claro está, que en esos años, no recibieron mucha atención por su trabajo.

Ahora se buscan indicios de la teoría de cuerdas en los grandes aceleradores de partículas donde parece que algunos indicios nos dicen que se va por el buen camino, sin embargo, nuestros aceleradores más potentes necesitarían multiplicar por un número muy elevado su potencia para poder, comprobar la existencia de las cuerda situadas a una distancia de 10-35 m, lugar al que nos será imposible llegar en muchas generaciones. Sin embargo, en las pruebas que podemos llevar a cabo en la actualidad, aparecen indicios de una partlicula de espín 2 que todos asocian con el esquivo Gravitón, y, tal indicio, nos lleva a pensar que, en la teoría de supercuerdad, está implícita una Teoría Cuántica de la Gravedad.

Los motivos que tuvo la comunidad científica, entonces, para no brindarle la suficiente atención al trabajo de Scherk y Schwuarz, es que, en esos años, se consideraba más viable para describir a la interacción fuerte a la teoría basada en los quarks y los gluones, que parecía ajustarse mucho mejor a las observaciones. Desafortunadamente, Scherk murió en circunstancias trágicas (padecía diabetes y sufrió un coma mientras se encontraba solo en su estudio). Así, Schwuarz se quedó solo, en la defensa de la teoría de cuerdas, pero ahora con un valor tensiométrico de las cuerdas mucho más elevado.

Pero con los quarksgluones y también los leptones, en la consecución que se buscaba, los físicos entraron en un cuello de botella. Los quarks resultaron muy numerosos y los leptones mantuvieron su número e independencia existencial, con lo cual seguimos con un número sustancialmente alto de partículas elementales (60), lo que hace que la pregunta ¿son estos los objetos más básicos?

Resultado de imagen de Quarks, gluones y leptones

Si esos sesenta objetos fuesen los más básicos, entonces también aflora otra pregunta ¿por qué son como son y por qué son tantos? Los físicos quisieran poder decir «salen de esto», o «salen de esto y aquello», mencionar dos principios bien fundamentales y ojalá tan simples que puedan ser explicados a un niño. La respuesta «porque Dios lo quiso así» posiblemente a muchos les cause «lipotimia»,  ya que esa respuesta nos lleva a reconocer nuestra ignorancia y, además, la respuesta que esperamos no pertenece al ámbito de la religión. Por ahora, ¿cuál es la última que puede dar la ciencia?

Imagen relacionada

La teoría de cuerdas rompe con esta idea. Presupone que las partes más pequeñas son filamentos de energía. Una especie de cuerdas que vibran.

El cuello de botella incentivó a que se encendiera una luz de esperanza. En 1984 el interés por las cuerdas resucitó de repente. Se desempolvaron las ideas de Kaluza y Klein, como las que estaban inconclusas de Scherk y Schwuarz. Hasta entonces, no se habían hecho progresos sustanciales para explicar los tipos de partículas elementales que observamos, ni tampoco se había logrado establecer que la supergravedad era finita.

El ser humano –en función de su naturaleza– cuando se imagina algo muy pequeño, piensa en un puntito de forma esférica. Los físicos también son seres de este planeta y, para ellos, las partículas elementales son como puntitos en el espacio, puntos matemáticos, sin extensión. Son sesenta misteriosos puntos y la teoría que los describe es una teoría de puntos matemáticos. La idea que sugieren las TC’s es remplazar esos puntos por objetos extensos, pero no como esferitas sino más bien como cuerdas. Mientras los puntos no tienen forma ni estructura, las cuerdas tienen longitud y forma, extremos libres como una coma “,” (cuerda abierta), o cerradas sobre sí misma como un circulito. Si el punto es como una esferita inerte de la punta de un elastiquito, la cuerda es el elástico estirado y con él se pueden hacer círculos y toda clase de figuras. Está lleno de posibilidades.

Resultado de imagen de El origen de la Teoría de cuerdas

Muchas son las imágenes que se han elaborado para representar las cuerdas y, como nadie ha visto nunca ninguna, cualquiera de ellas vale para el objetivo de una simple explicación y, las cuerdas que se han imaginado han tomado las más pintorescas conformaciones para que, en cada caso, se adapten al modelo que se expone.

diferencia entre un punto y una coma. Según la teoría de cuerdas importa, y mucho. Por su extensión, a diferencia del punto, la cuerda puede vibrar. Y hacerlo de muchas maneras, cada modo de vibración representando una partícula diferente. Así, una misma cuerda puede dar origen al electrón, al fotón, al gravitón, al neutrino y a todas las demás partículas, según cómo vibre. Por ello, la hemos comparado con la cuerda de un violín, o de una guitarra, si se quiere.

Resultado de imagen de Al dividir la cuerda en dos, tres, cuatro, cinco, o más partes iguales, se generan las notas de la escala musical que conocemos, o técnicamente, los armónicos de la cuerda

Al dividir la cuerda en dos, tres, cuatro, cinco, o más partes iguales, se generan las notas de la escala musical que conocemos, o técnicamente, los armónicos de la cuerda. En general, el sonido de una cuerda de guitarra o de piano es una mezcla de armónicos. Según la mezcla, la calidad (timbre) del sonido. Si distinguimos el tono de estos instrumentos, es por la «receta» de la mezcla en cada caso, por las diferentes proporciones con que cada armónico entra en el sonido producido. Pero, también es posible hacer que una buena cuerda vibre en uno de esos armónicos en particular, para lo cual hay que tocarla con mucho cuidado. Los concertistas lo saben, y en algunas obras como los conciertos para violín y orquesta, usan este recurso de «armónicos». Así, la naturaleza, con su gran sabiduría y cuidado para hacer las cosas, produciría electronesfotonesgravitones, haciendo vibrar su materia más elemental, esa única y versátil cuerda, en las diversas (infinitas) formas que la cuerda permite.

Una partícula ocupa un punto del espacio en todo momento. Así, su historia puede representarse mediante una línea en el espaciotiempo que se le conoce como «línea del mundo». Por su parte, una cuerda ocupa una línea en el espacio, en cada instante de tiempo. Por tanto, su historia en el espaciotiempo es una superficie bidimensional llamada la «hoja del mundo». Cualquier punto en una hoja del mundo puede ser descrito mediante dos números: uno especificando el tiempo y el otro la posición del punto sobre la cuerda. Por otra parte, la hoja del mundo es una cuerda abierta como una cinta; sus bordes representan los caminos a través del espaciotiempo (flecha roja) de los extremos o comas de la cuerda (figura 12.05.03.02). La hoja del mundo de una cuerda cerrada es un cilindro o tubo (figura 12.05.03.03); una rebanada transversal del tubo es un círculo, que representa la posición de la cuerda en un momento del tiempo.

No cabe duda que, de ser ciertas las TC’s, el cuello de botella queda bastante simplificado. Pasar de sesenta objetos elementales a una sola coma o circulito es un progreso notable. Entonces, ¿por qué seguir hablando de electronesfotonesquarks, y las demás?

Que aparentemente las cosas se simplifican con las TC’s, no hay duda, pero desafortunadamente en física las cosas no siempre son como parecen. Para que una teoría sea adoptada como la mejor, debe pasar varias pruebas. No basta con que simplifique los esquemas y sea bella. La teoría de las cuerdas está –se puede decir– en pañales y ha venido mostrado distintas facetas permeables. Surgen problemas, y se la deja de lado; se solucionan los problemas y una avalancha de trabajos resucitan la esperanza. En sus menos de treinta años de vida, este vaivén ha ocurrido más de una vez.

Uno de los problemas que más afecta a la cuerda está ligado con su diminuto tamaño. Mientras más pequeño algo, más difícil de ver. Es una situación que se agudiza en la medida que se han ido corrigiendo sus permeabilidades. En sus versiones más recientes, que se llaman supercuerdas, son tan superpequeñas que las esperanzas de ubicarlas a través de un experimento son muy remotas. Sin experimentos no podemos comprobar sus predicciones ni saber si son correctas o no. Exagerando, es como una teoría que afirmara que los angelitos del cielo tienen alitas. ¿Quién la consideraría seriamente?

Resultado de imagen de Al dividir la cuerda en dos, tres, cuatro, cinco, o más partes iguales, se generan las notas de la escala musical que conocemos, o técnicamente, los armónicos de la cuerda

La propia base conceptual de la teoría comporta problemas. Uno de ellos, es el gran número de dimensiones que se usan para formularla. En algunos casos se habla de 26 o, en el mejor, de 10 dimensiones para una cuerdita: espacio (son 3), tiempo (1) y otras seis (o 22) más, que parecen estar enroscadas e invisibles para nosotros. Por qué aparecieron estas dimensiones adicionales a las cuatro que nos son familiares y por qué se atrofiaron en algún momento, no lo sabemos. También, la teoría tiene decenas de miles de alternativas aparentemente posibles que no sabemos si son reales, si corresponden a miles de posibles universos distintos, o si sólo hay una realmente posible. Algunas de estas versiones predicen la existencia de 496 fuerzones, partículas como el fotón, que transmiten la fuerza entre 16 diferentes tipos de carga como la carga eléctrica. Afirmaciones como éstas, no comprobables por la imposibilidad de hacer experimentos, plagan la teoría de cuerdas. Quienes alguna vez intentaron trabajar matemáticamente en las cuerdas, muchas veces deben haber pensado de que lo que estaban calculando más se asemejaba a juegos de ejercicios que la consecución de una base matemática teórica tras objetivo de dar un paso trascendental en el conocimiento de la naturaleza. Ahora, los que tienen puesta su fe en ella suelen afirmar que se trata de una teoría que se desfasó de la natural evolución de la física, que su hallazgo fue un accidente, y no existe aún el desarrollo matemático para formularla adecuadamente.

En las teorías de cuerdas, lo que anteriormente se consideraba partículas, se describe ahora como ondas viajando por las cuerdas, como las notas musicales que emiten las cuerdas vibrantes de un violín. La emisión o absorción de una partícula por otra corresponde a la división o reunión de cuerdas.

La Teoría de cuerdas trata de incorporar la Gravedad a las otras tres fuerzas y completar así el panorama actual de la Física de Partículas en el Modelo Estándar en el que sólo están incluídas estas tres interacciones de arriba, la Gravedad queda fuera por surgir infinitos no renormalizables que, desaparecen en la Teoría de supercuerdas de 26 dimensiones de espacio tiempo para los Bosones y de 10 y 11 dimensiones de espacio tiempo para los Fermiones.

El trabajo que aquí hemos leido lo he obtenido de fuentes diversas y, como tantos otros, nos dice más o menos lo que todos. La realidad de la Teoría de supercuerdas está en que no podemos llegar a ese límite necesario de los 10-35 m, donde supuestamente, está instalada la cuerda, y, como llegar a esa distancia nos exige una energía de 1019 GeV con la que no podemos ni soñar. Seguirán, por mucho tiempo, las especulaciones y cada cual, tendrá su idea, su propia teoría, toda vez que, ninguna de ellas podrá ser verificadas y mientras eso sea así (que lo es), todas las teorías tendrán la posibilidad de ser refrendadas…algún día.

Resultado de imagen de Al dividir la cuerda en dos, tres, cuatro, cinco, o más partes iguales, se generan las notas de la escala musical que conocemos, o técnicamente, los armónicos de la cuerda

  • ¿Dónde estarán las respuestas?

Sin embargo, una cosa es cierta, es la única teoría, la de supercuerdas, que nos da cierta garantía de que vamos por el buen camino, en su desarrollo aparecen indicios confirmados por los experimentos, como por ejemplo, la aparici´çon de una partícula de espín 2, el Gravitón que nos lleva a pensar que, en la teoría de supercuerdas está integrada una teoría Cuántica de la Gravedad que nos, podrá llevar, hasta esos primeros momentos del Big Bang que ahora quedan tan oscuros a la vista de los observadores y, de la misma manera, nos dejará entrar en la Singularidad de un Agujero Negro para poder ver (al fin) lo que allí pueda haber, qué clase de partículas o de materia se ha podido formar en un material tan extremadamente denso como el de la singularidad.

Resultado de imagen de El gravitón

Que parece reirse de nuestra ignorancia

Habrá que tener paciencia con la Teoría de cuerdas y con el hallazgo tan esperado del Gravitón que nos confirmará, al fín, que la Gravedad como las demás interacciones, también está cuantizada y tiene su Bosón transmisor. De lo que no acabo de estar seguro es…del hecho en sí, de que podamos univer la Gravedad con la cuántica…¡son tan dispares! y habitan en reinos tan diferentes.

emilio silvera

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Entradas anteriores

   

 

 

 

Han pasado ya cincuenta años que Richard Feynman dictara su famosa charla:  There is plenty of room at the bottom: An invitation to enter a new field of physics (Hay suficiente espacio en el fondo: Una invitación a entrar en un campo en la Física). En ella estableció que las leyes de la Física no impiden manipular las cosas átomo a átomo; –“es algo que no se ha hecho debido a que somos demasiado grandes para hacerlo”-. Eso ha quedado atrás y, en la actualidad, sí que se manipulan los átomos.

 

 

  

 

 

 

 

 

Hemos logrado determinar con precisión nuestros orígenes como especie mediante precisos análisis genéticos; por ejemplo, los estudios llevados a cabo sobre los genes de las mitocondrias pertenecientes a individuos de todas las poblaciones del mundo y de todas las razas.

Estudiando el A D N mitocondrial de miles de personas se ha llegado a formular la llamada “Teoría de la Eva Negra”, según la cual todos nosotros, los Homosapiens sapiens, procedemos de una hembra que vivió en algún lugar de África hace ahora unos tres cientos mil años.  Otros estudios se han realizado mediante el análisis del polimorfismo del cromosoma Y.

 

 

Resultado de imagen de Las estrellas

 

 

¡Las Estrellas! ¡Qué importante son para nosotros!

 

Surgen como por arte de magia en las Nebulosas, donde ayudadas por los vientos estelares y la Gravedad, se forman protoestrellas que, finalmente, comienzan a brillar en la secuencia principal fusionando elementos sencillos en otros más complejos, y, las edades que puedan alcanzar, dependen de la masa que puedan tener. Una pequeña estrella roja puede llegar a tener más edad que el Universo ahora tiene. Si tiene la masa del Sol, durará (en sus distintas fases) 19.999 millones de años, y, si es una estrella gigante supermasiva, su avidez devoradora de materia, la hará vivir poco tiempo, es decir, unos cientos o miles de millones de años.

 

 WISE: Nebulosas Corazón y Alma en Infrarrojo

 

“¿Está el Corazón y el Alma de nuestra Galaxia localizadas en Casiopeia? Posiblemente no, pero ahí es donde dos brillantes nebulosa de emisión apodadas Corazón y Alma descansan. La Nebulosa del Corazón, oficialmente catalogada como IC 1805 y visible en la parte superior derecha, tiene una forma en luz visible que nos recuerda a un clásico símbolo de un corazón. La imagen de arriba, sin embargo , fue realizada en luz infrarroja por el recientemente lanzado telescopio WISE. La luz infrarroja penetra bien dentro de las enormes y complejas burbujas creadas por la formación estelar en el interior de estas dos regiones de formación de estrellas.

Los estudios de estrellas y polvo como éstos encontrados en las Nebulosas Corazón y Alma se han focalizado en cómo se forman las estrellas masivas y cómo les afecta su entorno. La luz tarda unos 6.000 años en llegarnos desde estas nebulosas, que juntas abarcan unos 300 años luz.” (APOD)

Ubicadas en el brazo de Perseo de nuestra galaxia, la nebulosa Corazon (derecha) y la nebulosa Alma (izquierda) son muy brillantes (a pesar de eso es necesario un telescopio para verlas) en una region de la galaxia donde muchas estrellas se están formando. IC 1805 (la nebulosa Corazon) es a menudo llamada también como la nebulosa del Perro Corriendo, debido obviamente a la apariencia de la nebulosa vista desde un telescopio.

 

 

http://bibliotecadeinvestigaciones.files.wordpress.com/2010/07/estrellas.jpg

 

 

Es curioso que, mirando en la oscura noche como brillan las estrellas del cielo, nos atrae su titilar engañoso (es la atmósfera terrestre la que hace que lo parezca) y su brillo, Sin embargo, pocos llegan a pensar en lo que verdaderamente está allí ocurriendo. Las transformaciones de fase por fusión no cesan. Esta transformación de materia en energía es consecuencia de la equivalencia materia-energía, enunciada por Albert Einstein en su famosa fórmula E=mc2; donde E es la energía resultante, m es la masa transformada en energía, y c es la velocidad de la luz (300 000 kilómetros por segundo). La cantidad de energía que se libera en los procesos de fusión termonuclear es fabulosa. Un gramo de materia transformado íntegramente en energía bastaría para satisfacer los requerimientos energéticos de una familia mediana durante miles de años.

 

 

Foto de la estrella Sirio A y B a la izquierda inferior

 

 

Imagen de Sirio A (estrella grande) y Sirio B (estrella pequeña abajo a la izquierda) tomadas por el Telescopio Hubble (Créd. NASA). Sirio es la quinta estrella más cercana y tiene una edad de 300, millones de años. Es una estrella blanca de la secuencia principal de tipo espectral A1V con temperatura superficial de 10 000 K y situada a 8,6 años luz de la Tierra. Es una estrella binaria y, de ella, podríamos contar muchas historias. La estrella fue importante en las vidas de Civilizaciones pasadas como, por ejemplo, la egipcia.

 

Lo que conocemos como estrella es una bola de gas luminosa que, durante una etapa de su vida, produce energía por la fusión nuclear del hidrógeno en helio. El término estrella, por tanto, no sólo incluye estrellas como el Sol, que están en la actualidad quemando hidrógeno, sino también protoestrellas, aún en formación y no lo suficientemente calientes como para que dicha combustión nuclear haya comenzado, y también varios tipos de objetos más evolucionados como estrellas gigantes y supergigantes, que están quemando otros combustibles nucleares, o las enanas blancas y las estrellas nucleares, que están formadas por combustible nuclear gastado.

 

 

En el centro de la Nebulosa del Corazón ¿Qué poderes

Seguimos en la Nebulosa del Corazón (otra región)

 

Las estrellas se forman a partir de enormes nubes de gas y polvo que a veces tienen hasta años-luz de diámetro. Las moléculas de polvo, unidas a las de los gases, se rozan y se ionizan, se calientan y la nube comienza a girar lentamente. El enorme conglomerado, poco a poco se va juntando y la temperatura aumenta. Tal enormidad de materia crea una fuerza gravitatoria que hace contraerse la nube sobre sí misma; su diámetro y su temperatura en el núcleo es tal que se produce la fusión de los protones de hidrógeno que se transforman en un material más complejo, el helio, y ese es el momento en que nace la estrella que, a partir de ahí, puede estar miles de millones de años brillando y produciendo energía termonuclear.

La masa máxima de las estrellas puede rondar las 120 masas solares, es decir, ser 120 veces mayor que nuestro Sol, y por encima de este límite sería destruida por la enorme potencia de su propia radiación. La masa mínima para poder ser una estrella se fija en 0’08 masas solares; por debajo de ella, los objetos no serían lo suficientemente calientes en sus núcleos como para que comience la combustión del hidrógeno y se convertirían en enanas marrones. Las luminosidades de las estrellas varían desde alrededor de medio millón de veces la luminosidad del Sol para las más calientes hasta menos de la milésima de la del Sol para las enanas más débiles. Aunque las estrellas más prominentes visibles a simple vista son más luminosas que el Sol, la mayoría de las estrellas son en realidad más débiles que éste y, por tanto, imperceptibles a simple vista.

 

 

 

La estrella Sirio es la más brillante y tiene el doble de tamaño que nuestro Sol

 

 

Eta Carinae (NGC 3372) tiene 400 veces el diámetro del Sol inmersa en esa Nebulosa que la esconde dentro del gas y el polvo.

 

 

 

Betelgeuse tiene 1.000 veces el diámetro de nuestro Sol

Pero la estrella más grande conocida es:

 

VY Canis Majoris, supergigante roja que es aproximadamente 2.100 veces más grande que nuestro Sol.

 

El brillo de las estrellas (la luz y el calor) es el resultado de la conversión de masa en energía (E = mc2), por medio de reacciones nucleares, las enormes temperaturas de millones de grados de su núcleo, hace posible que los protones de los átomos del hidrógeno se fusionen y se conviertan en átomos de helio. Por cada kilogramo de hidrógeno quemado de esta manera, se convierten en energía aproximadamente siete gramos de masa. De acuerdo con la famosa ecuación de Einstein (arriba reseñada), los siete gramos equivalen a una energía de 6’3 × 1014 julios. Las reacciones nucleares no sólo aportan la luz y el calor de las estrellas, sino que también producen elementos pesados, más complejos que el hidrógeno y el helio que, posteriormente, son distribuidos por el universo, cuando al final de la estrella, esta explota en supernova, lanzando sus capas exteriores al espacio que de esta forma, deja “sembrado” de estos materiales el “vacío” estelar.

 

Resultado de imagen de Clasificación estelarResultado de imagen de Clasificación estelar

 

 

Las estrellas pueden clasificarse de muchas maneras. Una manera es mediante su etapa evolutiva: en presecuencia principal, secuencia principal, gigante, supergigante, enana blanca, estrella de neutrones y agujeros negros. Estas últimas son la consecuencia del final de sus vidas como tales estrellas, convirtiéndose en objetos estelares de una u otra clase en función de sus masas originales. Estrellas como nuestro Sol, al agotar el combustible nuclear se transforman en gigantes rojas, explotan en novas y finalmente quedan como enanas blancas. Si la masa es mayor serán estrellas de neutrones, y si aún son mayores, su final está en agujeros negros.

 

 

 

Nuestro Sol, nos parece un objeto enorme, grandioso que, es capaz, con su actividad de enviar a la Tierra luz y calor (radiación) para que podamos vivir los seres que la pueblan. Sin embargo, a pesar de su “grandeza”, la comparamos con otros objetos celestes y, desde luego, nos podemos quedar asombrados de que puedan existir cosas tan grandes como VY Canis Majoris. Podéis observar en ellas su tamaño en comparación con nuestro Sol.

El Color de las estrellas indican de qué materiales están conformadas y, así se compruena mediante el estudio de sus espectros.

 

 

Resultado de imagen de Color blanco-azul, como la estrella Spica

 

  • Color blanco-azul, como la estrella Spica

 

 

 

  • Color blanco, como la estrella Vega

 

 

https://bitacoradegalileo.files.wordpress.com/2010/02/procyon.jpg

 

  • Color blanco-amarillo, como la estrella Proción

 

 

 

  • Color amarillo, como el Sol

 

 

https://bitacoradegalileo.files.wordpress.com/2010/02/arcturus-star.jpg

 

  • Color naranja, como Arcturus

 

 

https://bitacoradegalileo.files.wordpress.com/2010/02/betelgeuse.jpg

 

  • Color rojo, como la estrella Betelgeuse.

Otra clasificación es a partir de sus espectros, que indican su temperatura superficial. También por el color. Otra manera es en poblaciones I, II y III, que engloban estrellas con abundancias progresivamente menores de elementos pesados, indicando paulatinamente una mayor edad. También evolución estelar y magnitudes aparentes y absolutas y el tipo espectral con la distancia en a. L., es otra de las clasificaciones.

Después de estas clasificaciones genéricas tenemos otras mas particulares y definidas referidas a estrellas binarias, estrellas capullo, con baja velocidad, con envoltura, con exceso de ultravioleta, de alta velocidad, de baja luminosidad, de baja masa, de bario, de bariones, de campo, de carbono, de circonio, de estroncio, de helio, estrella de la población I extrema, de la población intermedia, de la rama gigante asintótica, estrella de litio, de manganeso, de manganeso-mercurio y, viceversa, estrella de metales pesados, de neutrones, estrellas de quarks (hipotética con densidad intermedia entre la estrella de neutrones y el agujero negro), estrella de referencia, de silicio, de tecnecio, de tiempo intermedio, de tipo tardío, de tipo temprano, estrella del polo, estrella doble, estrella enana, estándar, evolucionada, etc.

 

Resultado de imagen de La salida del Sol

 

 

La luz proveniente de la superficie caliente del Sol pasa a través de la atmósfera solar más fría, es absorbida en parte, por eso llega a nosotros presentando las características líneas oscuras en su espectro. Las líneas oscuras del espectro del sol coinciden con líneas de los espectros de algunos elementos y revelan la presencia de estos elementos en la superficie solar. Las longitudes de onda de las radiaciones se indican en nanometros (nm).

 

 

El Sol

 

Resultado de imagen de 1354055999851-sol2f.gifResultado de imagen de 1354055999851-sol2f.gifResultado de imagen de 1354055999851-sol2f.gifResultado de imagen de 1354055999851-sol2f.gif

Sabemos de qué está hecho el Sol y cómo son los mecanismos que allí se producen para formar elementos

 

La posición e intensidad de las líneas oscuras del espectro solar han permitido establecer que casi las tres cuartas partes de la masa del Sol son hidrógeno, el elemento más simple. Casi todo el resto es helio, el segundo elemento más simple. En suma, entre hidrógeno y helio suman alrededor del 98 por ciento de la masa solar. El 2% restante está compuesto, aproximadamente, por la siguiente proporción de elementos: 0,8% de oxígeno, 0,6% de carbono, 0,2% de neón, 0,15% de nitrógeno, 0,05% de magnesio, y, en menor porcentaje aún, hierro, sodio y silicio.

 

 

Resultado de imagen de Estrella de Carbono

R. Leporis, la estrella de Carbono que denominaron con el sobrenombre de “Carmesí”

 

La composición química de una estrella varía según la generación a la que pertenezca. Cuánto más antigua sea, más baja será su metalicidad. Al inicio de su vida una estrella similar al Sol contiene aproximadamente 75% de hidrógeno y 23% de helio. El 2% restante lo forman elementos más pesados, aportados por estrellas que finalizaron su ciclo antes que ella. Estos porcentajes son en masa; en volumen, la relación es 90% de hidrógeno y 10% de helio.

En la Vía Láctea las estrellas se clasifican según su riqueza en metales en dos grandes grupos. Las que tienen una cierta abundancia se denominan de la población I, mientras que las estrellas pobres en metales forman parte de la población II. Normalmente la metalicidad está directamente relacionada con la edad de la estrella. A más elementos pesados, más joven es la estrella.

 

 

http://animalderuta.files.wordpress.com/2010/10/188091main_d-protoplanetary-082907-5161.jpg

 

 

Un equipo japones de astrónomos han descubierto una fuerte correlación entre la metalicidad del disco de polvo protoplanetario y su longevidad. A partir de éste hallazgo proponen que las estrellas de baja metalicidad son menos propensas a tener planetas, incluyendo gigantes gaseosos, debido a la corta vida de los discos protoplanetarios.

La composición de una estrella evoluciona a lo largo de su ciclo, aumentando su contenido en elementos pesados en detrimento del hidrógeno, sobre todo. Sin embargo, las estrellas sólo queman un 10% de su masa inicial, por lo que globalmente su metalicidad no aumenta mucho. Además, las reacciones nucleares sólo se dan en las regiones centrales de la estrella. Este es el motivo por el que cuando se analiza el espectro de una estrella lo que se observa es, en la mayoría de los casos, la composición que tenía cuando se formó. En algunas estrellas poco masivas los movimientos de convección penetran mucho en el interior, llegando a mezclar material procesado con el original. Entonces se puede observar incluso en la superficie parte de ese material procesado. La estrella presenta, en esos casos, una composición superficial con más metales.

 

 

Resultado de imagen de Diversidad de estrellas en el cosmos

 

La variedad de estrellas es grande y para los estudiosos fascinantes. Tal diversidad es debida a la evolución que desde su formación tiene cada tipo de estrella en función de su masa y de los gases y polvo cósmico que la forman y los que se crean en su núcleo (horno solar) a miles de millones de grados de temperatura capaces de transformar materiales simples como el hidrógeno hacia una gama más compleja y pesada que, finalmente, mediante la explosión de supernova (más temperatura), arroja al espacio materiales que, a su vez, forman nuevas estrellas de 2ª y 3ª generación con materiales complejos. La vida en nuestro planeta pudo surgir gracias a que en la Tierra había abundancia de estos materiales creados en las estrellas. Podemos decir, sin temor a equivocarnos que nosotros mismos estamos hechos del material creado en las estrellas lejanas que posiblemente, hace miles de millones de años explotó en supernova a millones de años luz de nuestro Sistema Solar.

 

 

Resultado de imagen de Las fuerzas fundamentales de la Naturaleza

 

 

Pero el Universo se rige por lo que llamamos las Fuerzas y Constantes Fundamentales de la Naturaleza, tenemos que decir que, precisamente, estas constantes son las que tienen el mérito de que las estrellas brillen en las galaxias y de que nosotros estemos aquí para mirar a los cielos y contemplar su belleza.

Las constantes fundamentales (constantes universales) están referidas a los parámetros que no cambian a lo largo del universo. La carga de un electrón, la velocidad de la luz en el espacio vacío, la constante de Planck, la constante gravitacional, la constante eléctrica y magnética se piensa que son todos ejemplos de constantes fundamentales.

 

 

 

 

Las fuerzas de la naturaleza que gobiernan la electricidad, el magnetismo, la radiactividad y las reacciones nucleares están confinadas a un “mundobrana” tridimensional, mientras que la gravedad actúa en todas las dimensiones y es consecuentemente más débil.

 

Las fuerzas fundamentales

 

 

Tipo de Fuerza

Alcance en m

Fuerza relativa

Función

Nuclear fuerte

<3×10-15

1041

Une Protones y Neutrones en el núcleo atómico por medio de Gluones.
Nuclear débil

< 10-15

1028

Es responsable de la energía radiactiva producida de manera natural. Portadoras W y Z
Electromagnetismo

Infinito

1039

Une los átomos para formar moléculas; propaga la luz y las ondas de radio y otras formas de energías eléctricas y magnéticas por medio de los fotones.
Gravitación

Infinito

1

Mantiene unidos los planetas del Sistema Solar, las estrellas en las galaxias y, nuestros pies pegados a la superficie de la Tierra. 

La partícula que transporta la fuerza de Gravedad,  el hipotético  gravitón, no ha sido hallado… aún.

 

Las constantes fundamentales


Constante

Símbolo

Valor en unidades del SI

Aceleración en caída libre

g

9,80665 m s-2

Carga del electrón

e

1,60217733(49) × 10-19 C

Constante de Avogadro

NA

6,0221367 (36) × 1023 mol-1

Constante de Boltzmann

K=R/NA

1,380658 (12) × 10-23 J K-1

Constante de Faraday

F

9,6485309 (29) × 10C mol-1

Constante de los gases

R

8,314510 (70) × J K-1 mol-1

Constante de Loschmidt

NL

2,686763 (23) × 1025 mol-3

Constante de Planck

h

6,6260755 (40) × 10-34 J s

Constante de Stefan-Boltzmann

σ

5,67051 (19) × 10-8 Wm-2 K-4

Constante eléctrica

ε0

8,854187817 × 10-12 F m-1

Constante gravitacional

G

6,67259 (85) × 10-11 m3 Kg-1 s-2

Constante magnética

μ0

4π × 10-7 Hm-1

Masa en reposo del electrón

me

9,1093897 (54) × 10-31 Kg

Masa en reposo del neutrón

mn

1,6749286 (10) × 10-27 Kg

Masa en reposo del protón

mp

1,6726231 (10) × 10-27 Kg

Velocidad de la luz

c

2,99792458× 10m s-1

Constante de estructura fina

α

2 π e2/h c

Unas pueden ser más constantes naturales que otras, pero lo cierto es que, de momento, han servido como herramientas eficaces.

La última lección importante que aprendemos de la manera en que números puros como α (alfa) definen el mundo, es el verdadero significado de que los mundos sean diferentes. El número puro que llamamos constante de estructura fina, e indicamos con α, es como hemos dicho antes, una combinación de ec y h(el electrón, la velocidad de la luz y la constante de Planck). Inicialmente, podríamos estar tentados a pensar que un mundo en el que la velocidad de la luz fuera más lenta sería un mundo diferente. Pero sería un error. Si eh y c cambian de modo que los valores que tienen en unidades métricas (o cualesquiera otras) fueran diferentes cuando las buscamos en nuestras tablas de constantes físicas, pero el valor de α permaneciera igual; este nuevo mundo sería observacionalmente indistinguible de nuestro mundo. Lo único que cuenta en la definición del mundo son los valores de las constantes adimensionales de la naturaleza.

 

Si pudiéramos coger una Gran Nave superlumínica y recorriéramos el espacio interestelar paseando por las distintas regiones del Universo, veríamos que, todo es igual en todas partes: Cúmulos y supercúmulos de Galaxias, Galaxias cuajadas de estrellas en cúmulos y sueltas con sus sistemas planetarios, púlsares de giros alucinantes, magnétares creando inmensos capos electromagnéticos, agujeros negros que se tragan todo lo que traspasa el Horizonte de sucesos, Hermosas y brillantes Nebulosas de las que surgen las nuevas estrellas.

“Cuando hace un año se descubrió la estrella de neutrones SGR0418, poco podían pensar los astrónomos que su funcionamiento alteraría todas las teorías existentes hasta ahora acerca del funcionamiento de los magnétares. Sin embargo es así, ya que funciona como uno de éstos y no como sería propio de su condición. Este hallazgo, según la investigadora Nanda Rea del Instituto de Ciencias del Espacio, obliga a la ciencia a replantearse las teorías que se manejaban hasta ahora acerca del origen y evolución de los magnétares.”

Está claro que pensar siquiera en que en nuestro universo, dependiendo de la región en la que nos encontremos, habrá distintos leyes físicas, sería pensar en un universo chapuza. Lo sensato es pensar como Einstein y creer que en cualquier parte del universo rigen las mismas leyes físicas, hasta que no se encuentre pruebas reales a favor de lo contrario, los científicos suponen con prudencia que, sea cual fueren las causas responsables de las pautas que llamamos “Leyes de la Naturaleza”, es mucho más inteligente adoptar la creencia de la igualdad física en cualquier parte de nuestro universo por muy remota que se encuentre; los elementos primordiales que lo formaron fueron siempre los mismos,

Cuando los físicos empezaron a apreciar el papel de las constantes en el dominio cuántico y explotar la nueva teoría de la gravedad de Einstein para describir el universo en conjunto, las circunstancias eran las adecuadas para que alguien tratara de casarlas.

 http://4.bp.blogspot.com/_vN2CzO8lJI8/TCgyBTdgFLI/AAAAAAAAAC0/3G3ep8WFRGA/s1600/resplandor.jpg

Sí, el Universo podría ser considerado como la mayor Obra de Arte que, a su vez, es capaz de generar otras Obras de Artes que, en alguna ocasión, dan mucho que pensar, ya que, el surgir de la vida partiendo del simple hidrógeno que evoluciona en las estrellas del cielo…es ¡Increíble! pero, sin embargo, nada más cierto hay.

Así entró en escena Arthur Stanley Eddington: un extraordinario científico que había sido el primero en descubrir cómo se alimentaban las estrellas a partir de reacciones nucleares. También hizo importantes contribuciones a nuestra comprensión de las galaxias, escribió la primera exposición sistemática de la teoría de la relatividad general de Einstein y fue el responsable de la expedición que durante un eclipse de Sol, pudo confirmar con certeza la predicción de la relatividad general que debería desviar la luz estelar que venía hacia la Tierra en aproximadamente 1’75 segundos de arco cuando pasaba cerca de la superficie solar, cuyo espacio estaría curvado debido a la gravedad generada por la masa del Sol. En aquella expedición, el equipo de Eddington hizo una exitosa medición del fenómeno desde la isla Príncipe, que confirmó que Einstein tenía razón y que su teoría predecía de manera exacta la medida de curvatura del espacio en función de la masa del objeto estelar que genera la gravitación distorsionando el espaciotiempo a su alrededor.

Resultado de imagen de Año Internacional de la Luz

El Año Internacional de Luz, fue celebrado en el año 2015 y, si fuese por la importancia que la luz tiene para nosotros, todos los años debería celebrarse tal acontecimiento. no debemos perder de vista que la luz tiene tanto importancia para vida como el agua. Sin luz tendríamos un planeta oscuro con una sola noche eterna, y, un frío de tenebroso, sin esos bellos rincones que se pueden conformar cuando la luz, aparece tras una montaña, en el bosque, en el horizonte del Océano, o, simplemente se refleja en la blanca nieve, en las olas del Mar o en una atronadora catarata. Incide en nuestro planeta que, con sus 23º de inclinación, hace posible que existan las Estaciones, la luz y el calor del Sol, además, es absorbida por los seres fotosintéticos haciendo posible la base de la cadena trófica.

La luz Natural es un un regalo de vida que nos dio nuestro Universo y hace posible que esa luz y ese calor que el Sol nos envía, haga factible la dinámica y la vida en el planeta, para que se realice la tan necesaria fotosíntesis, y muchos más beneficiosos y fenónomenos que, no siempre sabemos valorar en su justa medida.

emilio silvera

¿Qué es realmente la luz? ¿Partículas? ¿Ondas?

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen de La luz son ondas y partículas a la vez

Desde que puedo recordar, he sido un amante de la física. Me asombran cuestiones como la luz, su naturaleza de un conglomerado de colores, ondas y partículas, su velocidad que nos marca el límite del máximo que podemos correr en nuestro universo, y en fin, muchos otros misterios que encierra esa cosa tan cotidiana que nos rodea y lo inunda todo haciendo posible que podamos ver por donde vamos, que las plantas vivan y emitan oxígeno o que nos calentemos. Realmente, sin luz, nuestra vida no sería posible. Entonces, ¿qué es realmente la luz?

Imagen relacionada

                                          Ondas de luz de luces de colores, enjambres de fotones

Muchos (casi todos) opinan que es algo inmaterial. Los objetos materiales grandes o muy pequeños como las galaxias o los electrones, son materia. La luz, sin embargo, se cree que es inmaterial; dos rayos de luz se cruzan sin afectarse el uno al otro. Sin embargo, yo, que desde luego no soy un experto, opino en cambio que la luz es simplemente una forma de energía lumínica, otra forma en la que se puede presentar la materia. Nosotros mismos, en última instancia, somos luz.

Resultado de imagen de El origen de la luz siempre ha sido misterioso

  Ahora sabemos que la luz es una de las formas de radiación, la que el ojo humano puede captar

Está claro que los estudiosos de la época antigua y medieval estaban por completo a oscuras acerca de la naturaleza de la luz. Especulaban sobre que consistía en partículas emitidas por objetos relucientes o tal vez por el mismo ojo. Establecieron el hecho de que la luz viajaba en línea recta, que se reflejaba en un espejo con un ángulo igual a aquel con el que el rayo choca con el espejo, y que un rayo de luz se inclina (se refracta) cuando pasa del aire al cristal, al agua o a cualquier otra sustancia transparente.

Resultado de imagen de La luz entra a través de un cristal y se quiebra el rayo

Cuando la luz entra en un cristal o en alguna sustancia transparente, de una forma oblicua (es decir, en un ángulo respecto de la vertical), siempre se refracta en una dirección que forma un ángulo menor respecto de la vertical. La exacta relación entre el ángulo original y el ángulo reflejado fue elaborada por primera vez en 1.621 por el físico neerlandés Willerbrord Snell. No publicó sus hallazgos y el filósofo francés René Descartes descubrió la ley, independientemente, en 1.637.

Los primeros experimentos importantes acerca de la naturaleza de la luz fueron llevados a cabo por Isaac Newton en 1.666, al permitir que un rayo de luz entrase en una habitación oscura a través de una grieta de las persianas, cayendo oblicuamente sobre una cara de un prisma de cristal triangular. El rayo se refracta cuando entra en el cristal y se refracta aún más en la misma dirección cuando sale por una segunda cara del prisma (las dos refracciones en la misma dirección se originan porque los lados del prisma se encuentran en ángulo en vez de en forma paralela, como sería el caso de una lámina ordinaria de cristal).

Resultado de imagen de Newton y la luz

Newton atrapó el rayo emergente sobre una pantalla blanca para ver el efecto de la refracción reforzada. Descubrió que, en vez de formar una mancha de luz blanca, el rayo se extendía en una gama de colores: rojo, anaranjado, amarillo verde, azul y violeta, en este orden. Newton dedujo de ello que la luz blanca corriente era una mezcla de varias luces que excitaban por separado nuestros ojos para producir las diversas sensaciones de colores. La amplia banda de sus componentes se denominó spectrum (palabra latina que significa espectro o fantasma). Newton llegó a la conclusión de que la luz se componía de diminutas partículas (“corpúsculos”), que viajaban a enormes velocidades. Le surgieron y se planteó algunas inquietantes cuestiones: ¿por qué se refractaban las partículas de luz verde más que las de luz amarilla? ¿Cómo se explicaba que dos rayos de luz se cruzaran sin perturbarse mutuamente, es decir, sin que se produjeran colisiones entre partículas?

Resultado de imagen de christian huygens y su reloj de péndulo - imagen gifs

En 1.678, el físico neerlandés Christian Huyghens (un científico polifacético que había construido el primer reloj de péndulo y realizado importantes trabajos astronómicos) propuso una teoría opuesta: la de que la luz se componía de minúsculas ondas. Y si sus componentes fueran ondas, no sería difícil explicar las diversas difracciones de los diferentes tipos de luz a través de un medio refractante, siempre y cuando se aceptara que la luz se movía más despacio en ese medio refractante que en el aire. La cantidad de refracción variaría con la longitud de las ondas: cuanto más corta fuese tal longitud, tanto mayor sería la refracción. Ello significaba que la luz violeta (la más sensible a este fenómeno) debía de tener una longitud de onda más corta que la luz azul; ésta, más corta que la verde, y así sucesivamente.

Resultado de imagen de Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda

“La teoría del color se refiere a cómo el ojo humano percibe los colores, y a la descripción y gestión de dichos colores en el monitor y en la impresión. La Teoría del Color tiene relación con todas las áreas del proceso de producción gráfica: fotografía, escaneado, presentación en pantalla, pruebas finales e impresión. También es importante en el “mundo” astronómico.”

Lo que permitía al ojo distinguir los colores eran esas diferencias entre longitudes de onda. Y como es natural, si la luz estaba integrada por ondas, dos rayos podrían cruzarse sin dificultad alguna (las ondas sonoras y las del agua se cruzan continuamente sin perder sus respectivas identidades).

Pero la teoría de Huyghens sobre las ondas tampoco fue muy satisfactoria. No explicaba por qué se movían en línea recta los rayos luminosos, ni por qué proyectaban sombras recortadas, ni aclaraba por qué las ondas luminosas no podían rodear los obstáculos, del mismo modo que pueden hacerlo las ondas sonoras y de agua. Por añadidura, se objetaba que si la luz consistía en ondas, ¿cómo podía viajar por el vacío, ya que cruzaba el espacio desde el Sol y las estrellas? ¿Cuál era esa mecánica ondulatoria?

Resultado de imagen de La teoría corpuscular de la luz

Aproximadamente durante un siglo, contendieron entre sí estas teorías. La teoría corpuscular de Newton fue, con mucho, la más popular, en parte porque la respaldó el famoso nombre de su autor. Pero hacia 1.801, un físico y médico inglés, de nombre Thomas Young, llevó a cabo un experimento que arrastró la opinión pública al campo opuesto. Proyectó un fino rayo luminoso sobre una pantalla, haciéndolo pasar antes por dos orificios casi juntos; si la luz estuviera compuesta por partículas, cuando los dos rayos emergieran de ambos orificios, formarían presuntamente en la pantalla una región más luminosa donde se superpusieran, y regiones menos brillantes, donde no se diera tal superposición. La pantalla mostró una serie de bandas luminosas, separadas entre sí por bandas oscuras; pareció incluso que en esos intervalos de sombra, la luz de ambos rayos contribuía a intensificar la oscuridad.

Resultado de imagen de Ondas de luz

Propugnada por Christian Huygens en el año 1678, describe y explica lo que hoy se considera como leyes de reflexión y refracción. Define a la luz como un movimiento ondulatorio semejante al que se produce con el sonido.

Ahora, como los físicos de la época consideraban que todas las ondas requerían de algún medio que las transportaran en el vacío, para las ondas lumínicas se postula como medio a una materia insustancial e
invisible a la cual se le llamó éter.

Resultado de imagen de Ondas de luz

Sería fácil explicarlo mediante la teoría ondulatoria; la banda luminosa representaba el refuerzo prestado por las ondas de un rayo a las ondas del otro, dicho de otra manera, entraban “en fase” dos trenes de ondas, es decir, ambos nodos, al unirse, se fortalecían el uno al otro. Por otra parte, las bandas oscuras representaban puntos en los que las ondas estaban “desfasadas” porque el vientre de una neutralizaba el nodo de la otra. En vez de aunar sus fuerzas, las ondas se interferían mutuamente, reduciendo la energía luminosa neta a las proximidades del punto cero.

Considerando la anchura de las bandas y la distancia entre los dos orificios por lo que surgen ambos rayos, se pudo calcular la longitud de las ondas luminosas, por ejemplo, de la luz roja a la violeta o de los colores intermedios. Las longitudes de onda resultaron ser muy pequeñas. Así, la de la luz roja era de unos 0’000075 cm. Hoy se  expresan las longitudes de las ondas luminosas mediante una unidad muy práctica ideada por Ángstrom; esta unidad, denominada igualmente Ángstrom (Å) en honor a su autor, es la cienmillonésima parte de un centímetro. Así pues, la longitud de onda de la luz roja equivale más o menos a 7.500 Å, y la de la luz violeta a 3.900 Å, mientras que las de colores visibles en el espectro oscilan entre ambas cifras.

El Espectro
Electromagnético

La cortedad de estas ondas es muy importante. La razón de que las ondas luminosas se desplacen en línea recta y proyecten sombras recortadas se debe a que todas son incomparablemente más pequeñas que cualquier objeto; pueden contornear un obstáculo sólo si este no es mucho mayor que la longitud de onda. Hasta las bacterias, por ejemplo, tienen un volumen muy superior al de una onda luminosa, y por tanto, la luz puede definir claramente sus contornos bajo el microscopio. Sólo los objetos cuyas dimensiones se asemejan a la longitud de onda luminosa (por ejemplo, los virus y otras partículas subatómicas) son lo suficientemente pequeños como para que puedan ser contorneados por las ondas luminosas.

Resultado de imagen de Un físico francés, Augustin-Jean Fresnel

Un físico francés, Agustín-Jean Fresnel, fue quien demostró por vez primera en 1.818 que si un objeto es lo suficientemente pequeño, la onda luminosa lo contorneará sin dificultad. En tal caso, la luz determina el llamado fenómeno de “difracción”. Por ejemplo, las finísimas líneas paralelas de una “reja de difracción” actúan como una serie de minúsculos obstáculos, que se refuerzan entre sí. Puesto que la magnitud de la difracción va asociada a la longitud de onda, se produce el espectro. A la inversa, se puede calcular la longitud de onda midiendo la difracción de cualquier color o porción del espectro, así como la separación de las marcas sobre el cristal.

Fraunhofer exploró dicha reja de difracción con objeto de averiguar sus finalidades prácticas, progreso que suele olvidarse, pues queda eclipsado por su descubrimiento más famoso, los rayos espectrales. El físico americano Henry Augustus Roland ideó la reja cóncava y desarrolló técnicas para regularlas de acuerdo con 20.000 líneas por pulgada. Ello hizo posible la sustitución del prisma por el espectroscopio.

Ante tales hallazgos experimentales, más el desarrollo metódico y matemático del movimiento ondulatorio, debido a Fresnel, pareció que la teoría ondulatoria de la luz había arraigado definitivamente, desplazando y relegando para siempre a la teoría corpuscular.

Resultado de imagen de el físico francés Jacques Babinet

No sólo se aceptó la existencia de ondas luminosas, sino que también se midió su longitud con una precisión cada vez mayor. Hacia 1.827, el físico francés Jacques Babinet sugirió que se empleara la longitud de onda luminosa (una cantidad física inalcanzable) como unidad para medir tales longitudes, en vez de las muy diversas unidades ideadas y empleadas por el hombre. Sin embargo, tal sugerencia no se llevó a la práctica hasta 1.880 cuando el físico germano-americano Albert Abraham Michelson inventó un instrumento denominado “interferómetro”, que podía medir las longitudes de ondas luminosas con una exactitud sin precedentes. En 1.893, Michelson midió la onda de la raya roja en el espectro del cadmio y determinó que su longitud era de 1/1.553.164 m.

Imagen relacionada

Pero la incertidumbre reapareció al descubrirse que los elementos estaban compuestos por isótopos diferentes, cada uno de los cuales aportaba una raya cuya longitud de onda difería ligeramente de las restantes. En la década de 1.930 se midieron las rayas del criptón 86. Como quiera que este isótopo fuera gaseoso, se podía abordar con bajas temperaturas, para frenar el movimiento atómico y reducir el consecutivo engrosamiento de la raya.

En 1.960, el Comité Internacional de Pesos y Medidas adoptó la raya del criptón 86 como unidad fundamental de la longitud. Entonces se re-estableció la longitud del metro como 1.650.763’73 veces la longitud de onda de dicha raya espectral. Ello aumentó mil veces la precisión de las medidas de longitud. Hasta entonces se había medido el antiguo metro patrón con un margen de error equivalente a una millonésima, mientras que en lo sucesivo se pudo medir la longitud de onda con un margen de error equivalente a una milmillonésima.

emilio silvera