sábado, 24 de enero del 2026 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¿El Libre Albedrío, dónde está?

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

El ser humano está dotado de libre albedrío, y puede elegir entre el bien y el mal”, sentenciaba Anthony Burgess, escritor inglés y autor de La Naranja Mecánica.

Sin embargo, otros autores, como el escritor colombiano Fernando Vallejo, no opinan lo mismo: “El libre albedrío es ilusión, mera falacia. Por más que arrojen a Edipo a los lobos, el niño crecerá y matará a su padre, desposará a su madre, se vaciará los ojos. El destino está escrito en el cielo y escrito con sangre”.

Entonces ¿somos dueños absolutos de todas nuestras decisiones o es un mero espejismo?

Se trata de un tema controvertido del que hay infinidad de opiniones. No obstante, la ciencia ha tratado de encontrar la verdad y disipar este tipo de dudas existenciales.

¿Nuestro cerebro nos engaña?

                              Horizontal

El Azar tiene mucho que decir en todo esto, nadie sabe qué pasará mañana

Un equipo de investigadores de psicología de la Universidad de Yale llevó a cabo un estudio para tratar de comprender el funcionamiento interno de nuestra mente para conocer qué decisiones tomamos de forma consciente y cuáles no. Los resultados, publicados en Psychological Science, revelaron cómo nuestra libertad de elección a veces puede ser una ilusión.

                                Reseña de "Nuestra mente nos engaña", de Helena Matute: Sesgos

Durante el estudio hicieron que 25 universitarios observasen cinco círculos blancos aleatorios en una pantalla de ordenador. Se les dio una fracción de segundo para mirarlos y decidir cuál de ellos iba a volverse de color rojo. Después debían indicar si habían acertado. La sorpresa fue que lo que ellos creían como una decisión consciente y una predicción acertada era, en realidad, un engaño de su mente. De una manera inconsciente ya habían visto el color rojo, antes incluso de hacer su predicción.

                                        decidir

                                                     Consciencia y libertad

Para Mattioli es un tema “envenenado”, porque baraja dos conceptos que los humanos tendemos a idealizar por propio narcisismo: consciencia y libertad.

“Nuestra consciencia no manda mucho y tampoco somos tan libres como quisiéramos y, si lo fuéramos, quizás no nos gustaría tanto”, afirma el psicólogo.

Sin embargo, hace hincapié en que, pese al escaso papel de nuestra consciencia, no podemos utilizarlo para justificar las decisiones de las que luego nos arrepentimos.

La consciencia, qué es y dónde reside - Eleva tu consciencia entrenando tu  mente con la meditación

“Nuestra consciencia no manda mucho y tampoco somos tan libres como quisiéramos y, si lo fuéramos, quizás no nos gustaría tanto”

Guillermo Mattioli

Entonces, ¿Quién toma las decisiones?

Las personas se ven obligadas a tomar muchas permanentemente e intervienen dos tipos de sistemas a la hora de tomarlas.

“El primero funciona de una manera más automática, inconsciente, veloz, motivado por la experiencia previa, las creencias, las expectativas, los prejuicios, los deseos, los temores y las emociones. Las valoramos como las más espontáneas, sin darnos cuenta de que son las más aprendidas y automatizadas, es decir que tienen poco de espontáneas. El segundo es más consciente, racional, lento, ponderado, amigo de valorar las alternativas, también inseguro puesto que contempla más puntos de vista y sabe que todo pro tiene su contra”, asegura el Dr. Mattioli.

Pese a todos los estudios, el tema sobre el pleno control de nuestros actos continúa siendo un misterio.

Lo único cierto es que sabemos,,, ¡Mucho menos de lo que creemos saber. Ya el sabio dijo:

“Daría todo lo que se, a cambio de la mitad de lo que ignoro”.

¿Libre Albedrío? Es el auto engaño de nuestras Mentes, todos los seres, inteligentes o no, encausan sus vidas en función de lo que la vida le ha proporcionado. A veces, aparecen raras excepciones que salen de ese parámetro, y, teniendo una Mente privilegiada, puede cambiar en parte (solo en parte) su destino.

¿Quién puede, en todo momento, hacer lo que le venga en gana?

Nadie podrá hacerlo nunca, el llamado Libre Albedrío, siempre será limitado a decisiones puntuales  que dependan realmente del individuo que las toma. Bien entendido que el círculo de las mismas estará circunscrito a lo muy personal, ya que, si existe un simple “resorte” del que no pueda disponer, el “Libre Albedrio” dejará de existir.

¿Libre Albedrío?

¿Dónde?

Emilio Silvera V.

¡La Vida! ¿Cómo pudo suceder?

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo y la Vida    ~    Comentarios Comments (3)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 

Qué es el horizonte de sucesos de un agujero negro?

El misterio del inmenso objeto consumido por el agujero negro de la Vía Láctea al fin fue revelado | WIRED

 

El Telescopio del Horizonte de Sucesos muestra la “bamboleante” sombra del agujero negro de M87 | Instituto de Astrofísica de Andalucía - CSIC

En 2019, la colaboración del Telescopio Horizonte de Sucesos (EHT) publicó la primera imagen de la sombra de un agujero negro, en concreto de M87, el objeto supermasivo situado en el centro de la galaxia M87.

Aprovechando la experiencia adquirida, el equipo del EHT ha analizado observaciones de M87* obtenidas previamente entre los años 2009 y 2013, muchas de los cuales aún no habían visto la luz.

Este completo análisis ha revelado el comportamiento de la imagen del agujero negro a lo largo de varios años. Los resultados muestran variaciones temporales en la orientación de la característica sombra en forma de media luna de M87*, compatibles con un aparente “bamboleo”. Los resultados se publican hoy en  The Astrophysical Journal.

 

Anatomía de un agujero negro** # *Horizonte de sucesos* Es lo que hace que un agujero negro sea negro. El horizonte de sucesos es la superficie del agujero negro. Dentro de

La mente predictiva: el poder del cerebro para anticipar realidades
   LUCA, el ancestro común | Investigando la clasificación de los seres vivos | Serie investigandoLUCA, el ancestro común | Investigando la clasificación de los seres vivos | Serie investigando

¿Cuál es el antecesor común de todas las formas de vida? Los científicos creen que el origen de toda la vida terrestre surgió una sola vez, en forma de un primitivo microbio. Lo han bautizado como LUCA.

Ésta es sin duda una incógnita de gran importancia, ya que dentro de este esquema se forma el tronco común, de donde emergieron los organismos superiores primitivos (eucariontes), las bacterias y las arqueobacterias.

Aunque no podamos ubicar con exactitud dónde empezó la vida de una manera categórica, parece cada vez más probable que, una vez acabado el bombardeo al que fue sometida la Tierra en su juventud, la vida surgió confinada en lugares situados o bien por debajo del lecho marino, o bien cerca de las chimeneas volcánicas, o dentro de los sistemas hidrotermales en las margenes de las dorsales oceánicas. Una vez establecida al resguardo de lugares semejantes, el camino quedó abierto para la proliferación y diversificación.

 

Resultado de imagen de Ubicando el comienzo de la Vida en la TierraResultado de imagen de Ubicando el comienzo de la Vida en la TierraResultado de imagen de Ubicando el comienzo de la Vida en la TierraReal Circulo de Labradores | 17 de enero, conferencia 'La Tierra primitiva y el origen de la vida'

Los distintos pasajes nos muestra la Tierra primigenia donde pudo surgir aquella primera célula replicante

Está claro que, a partir de todas estas suposiciones, hemos seguido especulando acerca de lo que pudo ser y, a partir de todo lo anterior, admitamos que aquellos microbios primitivos eran termófilos y que podían soportar temperaturas de entre 100 y 150 grados Celcius. Moraban al menos a un kilómetro bajo la superficie, posiblemente en el lecho marino, pero más probablemente en las rocas porosas que hay debajo. Inmersos en agua supercaliente repleta de minerales, ingerían rápidamente y procesaban hierro, azufre, hidrógeno y otras sustancias disponibles, liberando energía a partir de ciclos químicos primitivos y más bien ineficientes. Estas células primitivas eran comedoras de roca en bruto. Ni la luz ni el oxígeno desempeñaban ningún papel en su metabolismo. Ni tampoco requerían material orgánico, hacían lo que necesitaban directamente, a partir de las rocas y el dióxido de carbono disuelto en el agua.

 

 

La primera colonia microbiana tenía todo el mundo a su disposición, y un completo suministro de materiales y energía. Se habría extendido con sorprendente velocidad. La capacidad de los microbios para multiplicarse a velocidad explosiva garantizaba que ellos invadirían  rápidamente cualquier nicho accesible. Sin ninguna competencia de los residentes, podrían heredar rápidamente la Tierra. Sin embargo, dada la explosión de población, la colonia habría alcanzado pronto los limites de su hábitat. Impedidos para ir a mayor profundidad por las temperaturas crecientes, e incapaces de reproducirse en los estratos superficiales más fríos, los microbios sólo podían expandirse horizontalmente a lo largo de las cordilleras volcánicas, y lateralmente a través del basalto del suelo oceánico.

 

Historia de la Tierra | Argentina.gob.ar

 

La capa rígida y más externa de la Tierra, que comprende la corteza y el manto superior, es llamada litosfera.  La corteza oceánica contiene un 0,147% de la masa de la corteza terrestre.  La mayor parte de la corteza terrestre fue creada a través de actividad volcánica.  El sistema de cordilleras oceánicas, una red de 40.000 kilómetros de volcanes (25.000 millas), genera nueva corteza oceánica a un ritmo de 17 km3 por año, cubriendo el suelo oceánico con basalto.  Hawai e Islandia son dos ejemplos de la acumulación de material basáltico.

En alguna etapa, quizá hace 3.800 millones de años se alcanzó la primera gran división evolutiva, cuando un grupo de microbios se encontraron repentinamente aislados de su hábitat caliente y acogedor debido a alguna catástrofe geológica, como un terremoto o una gran erupción volcánica.

 

El volcán Sakurajima con rayos |Indonesia eleva al máximo el nivel de alerta por la erupción del volcán RuangCómo visitar el siempre activo volcán Sakurajima en Kagoshima

 

Aquel grupo, aislado de la colonia principal, y encerrados en una región más fría, hizo que los microbios se quedaran en estado latente o simplemente murieron, pues sus membranas eran demasiado rígidas a estas temperaturas inferiores para que su metabolismo pudiera funcionar. Sin embargo, un mutante feliz, que accidentalmente tenía una membrana más flexible, sobrevivió y se multiplicó. Al hacer la transición a condiciones más frías, el microbio mutante allanó el camino para acceder a la superficie inhabitada del planeta. Mientras tanto, para los miembros de la colonia original, confinada confortablemente en el reino subterráneo, la vida ha continuado prácticamente igual hasta nuestros días.

 

ORIGEN Y EVOLUCIÓN CELULAR | Mind Map

La Vida, se cree que fue evolucionando a partir de simples células unicelulares

Un primer desarrollo clave fue un cambio que hicieron algunos organismos de las sustancias químicas a la luz como fuente de energía, y por entonces la vida debió de extenderse hasta la superficie. Probablemente, el primero de tales “fotótrofos” no utilizaba la moderna fotosíntesis de clorofila, sino algún proceso más elemental. Algunas arqueobacterias del Mar Muerto siguen utilizando una forma más bien primitiva de fotosíntesis basada en una sustancia roja relacionada con la vitamina A. La captura de la luz solar comenzó en serio con las bacterias, que descubrieron una forma de arrancar electrones de minerales, potenciarlos con fotones solares y utilizar la energía almacenada para fabricar material orgánico.

 

Resultado de imagen de La Vida en las profundidades abisales de la Tierra

 

En las profundidades abisales del océano, las bacterias usan hidrógeno y producen materia orgánica. En aquellas profundidades abisales surgieron formas de vida de increíbles conformación.

Un refinamiento posterior los liberó de la dependencia de minerales, permitiendo a las bacterias arrancar electrones del agua y liberar oxígeno en consecuencia. El componente crucial en este ingenioso proceso era la clorofila, la sustancia que da el color verde a las plantas. Puesto que sólo se necesitaba agua, dióxido de carbono y luz, estaba abierto el camino el verdor del planeta.

Todavía queda por responder cómo y aparecieron  los tres grandes dominios: arqueobacterias, bacterias y eucarias. Parece probable que la gran división en el árbol de la vida arqueobacterias y bacterias tuvo lugar antes de la invención de la fotosíntesis, quizá tan temprano como hace 3.900  o  4.000  millones de años, bien entrada la era del bombardeo intenso.

La evidencia apunta a que las arqueobacterias sean los organismos más viejos y más primitivos, y que las bacterias aparecieron algo más tarde. Tan profunda era la división entre las arqueobacterias y las bacterias que ellas no han sido nunca rivales; siguen ocupando nichos diferentes después de varios miles de millones de de evolución.

 

Resultado de imagen de Los tres dominios en el árbol de la Vida

Nos creemos muy importantes pero, solo somos una pequeña ramita en el árbol de la vida

Finalmente, la profunda escisión que produjo el dominio de las eucarias ocurrió probablemente cuando las condiciones eran algo más frías. Por alguna razón, quizá por estar expuestas a los desafíos de un entorno menos estable, las eucarias de temperatura más baja se desarrollaron a un ritmo mucho más rápido.

El posterior florecimiento de la vida, su diversificación en muchas especies, y el enorme aumento de la complejidad biológica derivan  directamente de la ramificación de las eucarias en el árbol de la vida. Sin este paso trascendental, es poco probable que nosotros -o cualesquiera otros seres sintientes- existiéramos hoy en la Tierra para poder reflexionar sobre el significado de la vida en la Tierra desde sus comienzos hasta el momento presente.

 

Los 5 Reinos de la naturaleza (Whittaker): características y ...

 

Mas tarde, en 1969, Robert Whuttaker propone una clasificación de los seres vivos en cinco reinos, en la que incorpora la distinción procariota-eucariota (ésta se considera actualmente mucho más importante que la de vegetal-aminal del sistema tradicional). Así quedan patente las diferencias entre las algas verde-azuladas(cianobacterias) y las bacterias (ambas sin núcleo patente (procariotas) y todos los demás organismos que tienen un núcleo rodeado por membrana (eucariotas). Los procariotas fueron incluidos en el reino Monera y los eucariotas en los cuatro restantes.

 

Tierra y luna en vista oscura desde el espacio. Copie el espacio. | Foto Premium

 

La regularidad de la Tierra que viene dada por la intensidad de energía que nos envía el Sol, desde 150 millones de kilómetros, y, la intensidad está amortiguada por la rica y densa atmósfera terrestre, y, los seres vivos, tienen un escudo contra las radiaciones nocivas. Una vez pasados aquellos primeros miles de millones de años en los que las formas de vida primitiva pudieron evolucionar, surgieron las condiciones ambientales y ecológicas que dieron lugar a la presencia de formas de vida más avanzadas.

 

En 1990 el científico Alemán Carl Woese propuso la existencia de tres dominios para clasificar a los seres vivos: Archaea, Bacteria y Eukarya. En el dominio Eukarya se consideran cuatro reinos: protistas.

 

1.10: Dominio - LibreTexts Español

 

Pero a partir de la anterior clasificación surgió la de Margulis- Schwartz (1985), también en cinco reinos (es la que aún aparece en los libros de texto). Se basa en estudios filogenéticos y tiene la ventaja de hacer grupos más homogéneos. Cambia el reino protistas por el de Protistas, en el que incluye a Protozoos, todas las algas (excepto cianofíceas) y los hongos inferiores.

 

 

Difícilmente podríamos aquí, en un simple repaso a lo que fue el comienzo y la evolución de la vida primigenia en nuestro planeta, hacer una relación pormenorizada de todo lo que ello implica y, nos limitamos, como podéis ir comprobando, a dejar trabajos sueltos con retazos de lo que “pudo haber sucedido” para que, de alguna manera, podamos llegar a una más amplia comprensión de tan complejo problema. Nada más y nada menos que…¡La Vida!

La conclusión a la presencia de la Vida en nuestro planeta, después de muchos estudios científicos, concluye para decir que: La Vida está presente en todo el Universo allí donde exista un planeta situado en la zona habitable de su estrella, tenga atmósfera respirable, océanos, y, reciba la radiación de su estrella madre. Y, todo eso es así debido a que el Universo es igual en todas partes y, las cuatro leyes fundamentales y las Constantes Universales, han sido moduladas para que la vida sea posible.

 

El Universo y la Mente? ¡Estrecha relación! : Blog de Emilio Silvera V.

Miramos el Universo y no llegamos a entenderlo, pero…

¿Qué tendrá en “Mente” el Universo en relación a los seres vivos inteligentes?

Bueno, a veces parezco algo loco, y, puedo hablar del Universo como si de alguien se tratara. Pero, lo cierto es que… ¡Yo creo en la existencia de una Conciencia Cósmica! No es posible que todas las maravillas que están aquí presentes sean debidas al Azar.

Emilio Silvera V.

¿La masa perdida? ¿O no entendemos nada?

Autor por Emilio Silvera    ~    Archivo Clasificado en Astronomía y Astrofísica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

La masa perdida? ¿O no entendemos nada? : Blog de Emilio Silvera V.

  Recreación artística del WHIM en la Pared del Escultor. Fuente: NASA.

La idea de la masa perdida se introdujo porque la densidad observada de la materia en el universo está cerca del valor crítico (10-29 g/cm3). Sin embargo, hasta comienzo de los ochenta, no hubo una razón teórica firme para suponer que el universo tenía efectivamente la masa crítica. En 1981, Alan Guth, publicó la primera versión de una teoría que desde entonces se ha conocido como “universo inflacionista”. desde entonces la teoría ha sufrido cierto número de modificaciones técnicas, pero los puntos centrales no han cambiado. Lo cierto es que la idea del universo inflacionista, estableció por primera vez una fuerte presunción de que la masa del universo tenía realmente el valor crítico.

 

File:End of universe.jpg

 

Diagrama de las tres posibles geometrías del universo: cerrado, abierto y plano, correspondiendo a valores del parámetro de densidad Ω0 mayores que, menores que o iguales a 1 respectivamente. En el universo cerrado si se viaja en línea recta se llega al mismo punto, en los otros dos no. ( Ω es lo que los cosmólogos llaman el Omega Negro, es decir, la cantidad de materia que hay en el Universo).

La predicción de Guht viene de las teorías que describen la congelación de la fuerza fuerte en el segundo 10-35 del Big Bang. Entre los muchos otros procesos en marcha en ese tiempo estaba una rápida expansión del universo, un proceso que vino a ser conocido como inflación. Es la presencia de la inflación la que nos lleva a la predicción de que el universo tiene que ser plano.

 

El proceso mediante el cual la fuerza nuclear fuerte se congela es un ejemplo de un cambio de fase, similar en muchos aspectos a la congelación del agua. Cuando el agua se convierte en hielo, se expande; una botella de leche explotará si se deja en el exterior una noche fría del crudo invierno. No debería ser demasiado sorprendente que el universo se expanda del mismo modo al cambiar de fase.
Lo que sí sorprende es la enorme magnitud de la expansión. El tamaño del universo aumentó en un factor no menor de 1050. Este número es tan inmenso que virtualmente no tiene significado para la mayoría de la gente. Y es lógico que así sea, ya que, si su altura aumentase de repetente en un factor tan grande como ése, se extendería de un extremo del universo al otro y les faltaría sitio. Incluso un solo protón de un solo átomo de su cuerpo, si sus dimensiones aumentaran en 1050, sería mayor que el universo.
En 10-35 segundos, el universo pasó de algo con un radio de curvatura mucho menor que la partícula elemental más pequeña a algo con el tamaño de una buena naranja. No es extraño que el nombre inflación esté ligado a este proceso en un cambio de fase tan descomunalmente inusual.
File:Universes-es.svg
Todas estas ideas han dado lugar a que los científicos se planteen el problema de la clase de universo en el que vivimos, y, se ha llegado a la conclusión de que será el que determine la cantidad de materia que contenga, es decir, conforme lo determine Ω, signo que significa toda la masa que contiene el universo y que será la que determine su geometría final y también, qué clase de final le espera en función de ese parámetro que llamamos Densidad Crítica del Universo y que según las medidas más afinadas está en 10-29 g/cm3.
Claro que cuando uno lee estas cosas y le dicen que el universo sufrió una expansión de tal magnitud, no se puede sustraer a la pregunta: ¿No violaría un crecimiento tan rápido las reglas de Einstein contra viajar más rápido que la luz? Si un cuerpo material viajó de un extremo de una naranja al otro en 10-35 segundos, su velocidad excedió la de la luz en una cantidad muy considerable.
La respuesta a la pregunta de arriba:
Las galaxias se mueven a velocidades superiores a la de la luz, pero simplemente es que, son transportadas por el Espacio que se expansiona, lo que no vulnera el límite de la velocidad de la luz. Si fuesen las galaxias las que viajaran por sí misma, al acercarse a c (la velocidad de la luz en el vacío), su masa se incrementaría más y más hasta el ininito.
Claro que la respuesta a tal objeción la podemos encontrar, de manera simple y sencilla (como antes lo explicamos), en un globo que tiene dibujadas algunas galaxias. A medida que le añadimos aire y el globo se hincha (se expande), podemos apreciar cómo las galaxias se van separando las unas de las otras. Sin embargo, no son las galaxias las que viajan velozmente a medida que el aire entra en el globo, sino que es, el espacio mismo dentro del globo el que se infla haciendo que las galaxias se muevan y dando la sensación de que son éstas las que corren, cuando, en realidad, es el espacio el que se está expandiendo. Ningún cuerpo material, ninguna de las galaxias se mueve a altas velocidades en el espacio. Las reglas contra el viaje a velocidad mayor que la luz sólo se aplica al movimiento dentro del espacio, no al movimiento del espacio mismo. Así que, nunca se ha violado la regla impuesta por la relatividad especial y la velocidad de la luz es una constante del universo inviolable.
La consecuencia de la rápida expansión se puede describir mejor con referencia a la visión einsteniana de la gravitación. Antes de que el universo tuviera 10-35 segundos de edad, es de suponer que había algún tipo de distribución de la materia (su forma precisa no importa). A causa de esta materia, el espacio-tiempo tendrá alguna forma característica. Podríamos suponer que estaba algo arrugado o bamboleado, es decir, no era uniforme y en presencia de materia se curvaba en función de la masa allí presente. Pero llegó la inflación y comenzó una especie de estiramiento del espacio-tiempo que dejó al universo como lo podemos ver hoy, es decir, según la materia que parece que contiene, es casi perfectamente plano por lo general.

 

Se ha tratado de medir la Densidad Crítica del Universo para poder saber en qué clase de universo estamos y, parece que es plano.

Universo cerrado

 

Astrofísica - Universo con curvatura positiva (esférico o... | Facebook

 

Si Ω>1, entonces la geometría del espacio sería cerrada como la superficie de una esfera. La suma de los ángulos de un triángulo exceden 180 grados y no habría líneas paralelas. Al final, todas las líneas se encontrarían. La geometría del universo es, al menos en una escala muy grande, elíptico.

En un universo cerrado carente del efecto repulsivo de la energía oscura, la gravedad acabará por detener la expansión del universo, después de lo que empezará a contraerse hasta que toda la materia en el universo se colapse en un punto. Entonces existirá una singularidad final llamada el Big Crunch, por analogía con el Big Bang. Sin embargo, si el universo tiene una gran suma de energía oscura (como sugieren los hallazgos recientes), entonces la expansión será grande.

 Universo abierto

 

Si Ω<1, la geometría del espacio es abierta, p.ej., negativamente curvada como la superficie de una silla de montar. Los ángulos de un triángulo suman menos de 180 grados (llamada primera fase) y las líneas paralelas no se encuentran nunca equidistantes, tienen un punto de menor distancia y otro de mayor. La geometría del universo sería hiperbólica.

Incluso sin energía oscura, un universo negativamente curvado se expandirá para siempre, con la gravedad apenas ralentizando la tasa de expansión. Con energía oscura, la expansión no sólo continúa sino que se acelera. El destino final de un universo abierto es, o la muerte térmica” o “Big Freeze” o “Big Rip”,  dónde la aceleración causada por la energía oscura terminará siendo tan fuerte que aplastará completamente los efectos de las fuerzas gravitacionales, electromagnéticas y los enlaces débiles.

   Universo plano

 

Cuál es la forma del universo, ¿plana, esférica o como una silla de montar? - BBC News Mundo

 

Si la densidad media del universo es exactamente igual a la densidad crítica tal que Ω=1, entonces la geometría del universo es plana: como en la geometría ecuclidiana,  la suma de los ángulos de un triángulo es 180 grados y las líneas paralelas nunca se encuentran.

Sin energía oscura, un universo plano se expande para siempre pero a una tasa continuamente desacelerada: la tasa de expansión se aproxima asintóticamentre a cero. Con energía oscura, la tasa de expansión del universo es inicialmente baja, debido al efecto de la gravedad, pero finalmente se incrementa. El destino final del universo es el mismo que en un universo abierto, la muerte caliente del universo, el “Big Freeze” o el “Big Rip”. En 2005, se propuso la teoría del destino del universo Fermión-Bosón,  proponiendo que gran parte del universo estaría finalmente ocupada por condensado de Bose-Einstein  y la quasipartícula análoga al fermión,  tal vez resultando una implosión. Muchos datos astrofísicos hasta la fecha son consistentes con un universo plano.

 

http://upload.wikimedia.org/wikipedia/commons/9/94/Big_rip.gif

                                      Simulación del Big Rip
En un Universo abierto, la relatividad general predice que el Universo tendrá una existencia indefinida, pero con un estado donde la vida que se conoce no puede existir. Bajo este escenario, la energía oscura causa que las tasa de expansión del universo se acelere.  Llevándolo al extremo, una aceleración de la expansión eterna significa que toda la materia del Universo, empezando por las galaxias y eventualmente todas las formas de vida, no importa cuán pequeñas sean, se disgregarán en partículas elementales  desligadas. El estado final del Universo es una singularidad, ya que la tasa de expansión es infinita.
File:Big crunch.png
           El Big Crunch. El eje vertical se puede considerar como tiempo positivo o negativo

La teoría del Big Crunch es un punto de vista simétrico del destino final del Universo. Justo con el Big Bang empezó una expansión cosmológica, esta teoría postula que la densidad media del Universo es suficiente para parar su expansión y empezar la contracción. De ser así, se vería cómo las estrellas tienden a ultravioleta, por efecto Doppler.  El resultado final es desconocido; una simple extrapolación sería que toda la materia y el espacio-tiempo en el Universo se colapsaría en una singularidad espaciotemporal adimensional, pero a estas escalas se desconocen los efectos cuánticos necesarios para ser considerados -se aconseja mirar en Gravedad-Cuántica-..

Este escenario permite que el Big Bang esté precedido inmediatamente por el Big Crunch de un Universo precedente. Si esto ocurre repetidamente, se tiene un universo oscilante. El Universo podría consistir en una secuencia infinita de Universos finitos, cada Universo finito terminando con un Big Crunch que es también el Big Bang del siguiente Universo. Teóricamente, el Universo oscilante no podría reconciliarse con la segunda ley de la termodinámica:

 

La Entropía | Blog de Jose Antonio Martin

 

la entropía aumentaría de oscilación en oscilación y causaría la muerte caliente. Otras medidas sugieren que el Universo no es cerrado. Estos argumentos indujeron a los cosmólogos a abandonar el modelo del Universo oscilante. Una idea similar es adoptada por el modelo cíclico, pero esta idea evade la muerte caliente porque de una expansión de branas se diluye la entropía acumulada en el ciclo anterior.

Como podéis comprobar por todo lo anteriormente leído, siempre estamos tratando de saber en qué universo estamos y pretendemos explicar lo que pudo pasar desde aquel primer momento que no hemos podido comprender de manera exacta y científicamente autosuficiente para que sea una ley inamovible del nacimiento del universo. Simplemente hemos creado modelos que se acercan de la mejor manera a lo que pudo ser y a lo que podría ser.

 

Cuando pasen algunos miles de millones de años más, no sabemos que será del Universo ni que rumbo habrán tomado las cosas, toda vez que, el Universo es dinámico y cambiante. Si todo sigue como ahora lo podemos contemplar, lo que parece es que vamos, sin remisión, hacia una muerte térmica del Universo en el que el espacio continuará expandiéndose y las galaxias se alejanran las unas de las otras hasta que, la entropía deje sin energía a todo el universo que, como sistema cerrado, se verá abocado a quedar estático, en el frío más profundo de los -273 ºC. Allí, entonces, nada se moverá, ni los átomos tendrán la posibilidad de que sus componentes se muevan.
Claro que, nada de todo lo anterior… ¡lo podemos asegurar!
Emilio Silvera V.

Velocidades inimaginables

Autor por Emilio Silvera    ~    Archivo Clasificado en Física Cuántica    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 

En el centro del átomo se encuentra un pequeño grano compacto aproximadamente 100.000 veces más pequeño que el propio átomo: el núcleo atómico. Su masa, e incluso más aún su carga eléctrica, determinan las propiedades del átomo del cual forma parte. Debido a la solidez del núcleo parece que los átomos, que dan forma a nuestro mundo cotidiano, son intercambiables entre sí, e incluso cuando interaccionan entre ellos para formar sustancias químicas (los elementos). Pero el núcleo, a pesar de ser tan sólido, puede partirse. Si dos átomos chocan uno contra el otro con gran velocidad podría suceder que los núcleos llegaran a chocar entre sí y entonces, o bien se rompen en trozos, o se funden liberando en el proceso partículas sub-nucleares. La nueva física de la primera mitad del siglo XX estuvo dominada por los nuevos acertijos que estas partículas planteaban.

 

Resultado de imagen de El núcleo atómico unido por fuerzas fundamentales

 

Pero tenemos la mecánica cuántica; ¿es que no es aplicable siempre?, ¿Cuál es la dificultad? Desde luego, la mecánica cuántica es válida para las partículas subatómicas, pero hay más que eso. Las fuerzas con que estas partículas interaccionan y que mantienen el núcleo atómico unido son tan fuertes que las velocidades a las que tienen que moverse dentro y fuera del núcleo están cerca de la velocidad de la luz, c, que es de 299.792’458 Km/s. Cuando tratamos con velocidades tan altas se necesita una segunda modificación a las leyes de la física del siglo XIX; tenemos que contar con la teoría de la relatividad especial de Einstein.

Esta teoría también fue el resultado de una publicación de Einstein de 1905. en esta teoría quedaron sentadas las bases de que el movimiento y el reposo son conceptos relativos, no son absolutos, como tampoco habrá un sistema de referencia absoluto con respecto al cual uno pueda medir la velocidad de la luz.

 

Resultado de imagen de La relatividad Especial

 

Pero había más cosas que tenían que ser relativas. En este teoría, la masa y la energía también dependen de la velocidad, como lo hacen la intensidad del campo eléctrico y del magnético. Einstein descubrió que la masa de una partícula es siempre proporcional a la energía que contienen, supuesto que se haya tenido en cuenta una gran cantidad de energía en reposo de una partícula cualquiera, como se denota a continuación:

 

Resultado de imagen de La relatividad Especial y la velocidad de la luz

E = mc2

Como la velocidad de la luz es muy grande, esta ecuación sugiere que cada partícula debe almacenar una cantidad enorme de energía, y en parte esta predicción fue la que hizo que la teoría de la relatividad tuviese tanta importancia para la física (¡y para todo el mundo!). Para que la teoría de la relatividad también sea auto-consistente tiene que ser holista, esto es, que todas las cosas y todo el mundo obedezcan a las leyes de la relatividad. No son sólo los relojes los que se atrasan a grandes velocidades, sino que todos los procesos animados se comportan de la forma tan inusual que describe esta teoría cuando nos acercamos a la velocidad de la luz. El corazón humano es simplemente un reloj biológico y latirá a una velocidad menor cuando viaje en un vehículo espacial a velocidades cercanas a la de la luz. Este extraño fenómeno conduce a lo que se conoce como la “paradoja de los gemelos”, sugerida por Einstein, en la que dos gemelos idénticos tienen diferente edad cuando se reencuentran después de que uno haya permanecido en la Tierra mientras que el otro ha viajado a velocidades relativistas.

Einstein comprendió rápidamente que las leyes de la gravedad también tendrían que ser modificadas para que cumplieran el principio relativista.

 

La relatividad especial de Einstein – La regla de BarrowLa dilatación del tiempo a la velocidad de la luz – CURIOSIDADES  ASTRONÓMICAS "Divulgación de la Astronomía"

 

Para poder aplicar el principio de la relatividad a la fuerza gravitatoria, el principio tuvo que ser extendido de la siguiente manera: no sólo debe ser imposible determinar la velocidad absoluta del laboratorio, sino que también es imposible distinguir los cambios de velocidad de los efectos de una fuerza gravitatoria.

Einstein comprendió que la consecuencia de esto era que la gravedad hace al espacio-tiempo lo que la humedad a una hoja de papel: deformar la superficie con desigualdades que no se pueden eliminar. Hoy en día se conocen muy bien las matemáticas de los espacios curvos, pero en el época de Einstein el uso de estas nociones matemáticas tan abstractas para formular leyes físicas era algo completamente nuevo, y le llevó varios años encontrar la herramienta matemática adecuada para formular su teoría general de la relatividad que describe cómo se curva el espacio en presencia de grandes masas como planetas y estrellas.

Einstein tenía la idea en su mente desde 1907 (la relatividad especial la formuló en 1905), y se pasó 8 años buscando las matemáticas adecuadas para su formulación.

 

Tensor métrico - Wikipedia, la enciclopedia libreBlack Holes

 

En geometría de Riemann, el tensor métrico es un tensor de rango 2 que se utiliza para definir conceptos métricos como distancia, ángulo y volumen en un espacio localmente euclídeo. Paraboloide de Flamm (solución exterior de Schwarzschild).

Leyendo el material enviado por un amigo al que pidió ayuda, Einstein quedó paralizado. Ante él, en la primera página de una conferencia dada ante el Sindicato de Carpinteros, 60 años antes por un tal Riemann, tenía la solución a sus desvelos: el tensor métrico de Riemann, que le permitiría utilizar una geometría espacial de los espacios curvos que explicaba su relatividad general.

No está mal que en este punto recordemos la fuerza magnética y gravitatoria que nos puede ayudar a comprender mejor el comportamiento de las partículas subatómicas.

El electromagnetismo, decíamos al principio, es la fuerza con la cual dos partículas cargadas eléctricamente se repelen (si sus cargas son iguales) o se atraen (si tienen cargas de signo opuesto).

Resultado de imagen de Las partículas cargadas en movimiento generan un campo magnético

La interacción magnética es la fuerza que experimenta una partícula eléctricamente cargada que se mueve a través de un campo magnético. Las partículas cargadas en movimiento generan un campo magnético como, por ejemplo, los electrones que fluyen a través de las espiras de una bobina.

Las fuerzas magnéticas y eléctricas están entrelazadas. En 1873, James Clerk Maxwell consiguió formular las ecuaciones completas que rigen las fuerzas eléctricas y magnéticas, descubiertas experimentalmente por Michael Faraday. Se consiguió la teoría unificada del electromagnetismo que nos vino a decir que la electricidad y el magnetismo eran dos aspectos de una misma cosa.

¿Qué dicen?

 

Electricidad y magnetismo. | PPT

 

La electricidad y el magnetismo no pueden desvanecerse sin más. Una región de un campo eléctrico girando crea un campo magnético perpendicular al giro. Una región de un campo magnético girando crea un campo eléctrico perpendicular al giro, pero en el sentido opuesto.

¿Por qué es importante?

Fue la primera unificación importante de fuerzas físicas, mostrando que la electricidad y el magnetismo están íntimamente interrelacionados, o, son dos aspectos diferentes de la misma cosa.

¿Qué provocó?

La predicción de que las ondas electromagnéticas existen, desplazándose a la velocidad de la luz, de modo que la propia luz es una de dichas ondas. Esto motivó la invención de la radio, el radar, la televisión, las conexiones inalámbricas para los ordenadores y la mayoría de las comunicaciones modernas.

 

La interacción es universal, de muy largo alcance (se extiende entre las estrellas), es bastante débil. Su intensidad depende del cociente entre el cuadrado de la carga del electrón y 2hc (dos veces la constante de Planck por la velocidad de la luz). Esta fracción es aproximadamente igual a 1/137’036…, o lo que llamamos Alfa  (α) y se conoce como constante de estructura fina.

En general, el alcance de una interacción electromagnética es inversamente proporcional a la masa de la partícula mediadora, en este caso, el fotón, sin masa.

También antes hemos comentado sobre la interacción gravitatoria de la que Einstein descubrió su compleja estructura y la expuso al mundo en 1915 con el nombre de teoría general de la relatividad, y la relacionó con la curvatura del espacio y el tiempo. Sin embargo, aún no sabemos cómo se podrían reconciliar las leyes de la gravedad y las leyes de la mecánica cuántica (excepto cuando la acción gravitatoria es suficientemente débil).

 

https://nadamasquelaverdad.files.wordpress.com/2011/01/universo-vivo.png

 

La teoría de Einstein nos habla de los planetas y las estrellas del cosmos. La teoría de Planck, Heisenberg, Schrödinger, Dirac, Feynman y tantos otros, nos habla del comportamiento del átomo, del núcleo, de las partículas elementales en relación a estas interacciones fundamentales. La primera se ocupa de los cuerpos muy grandes y de los efectos que causan en el espacio y en el tiempo; la segunda de los cuerpos muy pequeños y de su importancia en el universo atómico. Cuando hemos tratado de unir ambos mundos se produce una gran explosión de rechazo. Ambas teorías son (al menos de momento) irreconciliables.

  • La interacción gravitatoria actúa exclusivamente sobre la masa de una partícula.
  • La gravedad es de largo alcance y llega a los más lejanos confines del universo conocido.
  • Es tan débil que, probablemente, nunca podremos detectar esta fuerza de atracción gravitatoria entre dos partículas elementales. La única razón por la que podemos medirla es debido a que es colectiva: todas las partículas (de la Tierra) atraen a todas las partículas (de nuestro cuerpo) en la misma dirección.

 

Resultado de imagen de El hipotético gravitón

El gravitón hace tiempo que se ríe de nosotros…y se oculta donde no lo podamos ver.

La partícula mediadora es el hipotético gravitón. Aunque aún no se ha descubierto experimentalmente, sabemos lo que predice la mecánica cuántica: que tiene masa nula y espín 2.

La ley general para las interacciones es que, si la partícula mediadora tiene el espín par, la fuerza entre cargas iguales es atractiva y entre cargas opuestas repulsiva. Si el espín es impar (como en el electromagnetismo) se cumple a la inversa.

Pero antes de seguir profundizando en estas cuestiones hablemos de las propias partículas subatómicas, para lo cual la teoría de la relatividad especial, que es la teoría de la relatividad sin fuerza gravitatoria, es suficiente.

 

Resultado de imagen de El núcleo atómico y su contenido

 

Si viajamos hacia lo muy pequeño tendremos que ir más allá de los átomos, que son objetos voluminosos y frágiles comparados con lo que nos ocupará a continuación: el núcleo atómico y lo que allí se encuentra. Los electrones, que ahora vemos “a gran distancia” dando vueltas alrededor del núcleo, son muy pequeños y extremadamente robustos. El núcleo está constituido por dos especies de bloques: protones y neutrones. El protón (del griego πρώτος, primero) debe su nombre al hecho de que el núcleo atómico más sencillo, que es el hidrógeno, está formado por un solo protón. Tiene una unidad de carga positiva. El neutrón recuerda al protón como si fuera su hermano gemelo: su masa es prácticamente la misma, su espín es el mismo, pero en el neutrón, como su propio nombre da a entender, no hay carga eléctrica; es neutro.

La masa de estas partículas se expresa en una unidad llamada mega-electrón-voltio o MeV, para abreviar. Un MeV, que equivale a 106 electrón-voltios, es la cantidad de energía de movimiento que adquiere una partícula con una unidad de carga (tal como un electrón o un protón) cuando atraviesa una diferencia de potencial de 106 (1.000.000) voltios. Como esta energía se transforma en masa, el MeV es una unidad útil de masa para las partículas elementales.

 

El núcleo atómicoLa estructura atómica nuclear - Foro Nuclear

 

La mayoría de los núcleos atómicos contienen más neutrones que protones. Los protones se encuentran tan juntos en el interior de un núcleo tan pequeño que se deberían repeles entre sí fuertemente, debido a que tienen cargas eléctricas del mismo signo. Sin embargo, hay una fuerza que los mantiene unidos estrechamente y que es mucho más potente e intensa que la fuerza electromagnética: la fuerza o interacción nuclear fuerte, unas 102 veces mayor que la electromagnética, y aparece sólo entre hadrones para mantener a los nucleones confinados dentro del núcleo. Actúa a una distancia tan corta como 10-15 metros, o lo que es lo mismo, 0’000000000000001 metros.

La interacción fuerte está mediada por el intercambio de mesones virtuales, 8 gluones que, como su mismo nombre indica (glue en inglés es pegamento), mantiene a los protones y neutrones bien sujetos en el núcleo, y cuanto más se tratan de separar, más aumenta la fuerza que los retiene, que crece con la distancia, al contrario que ocurre con las otras fuerzas.

 

Resultado de imagen de La luz es una manifestación del fenómeno electromagnético y está cuantizada en “fotones”, que se comportan generalmente como los mensajeros de todas las interacciones electromagnéticas

 

La luz es una manifestación del fenómeno electromagnético y está cuantizada en “fotones”, que se comportan generalmente como los mensajeros de todas las interacciones electromagnéticas. Así mismo, como hemos dejado reseñado en el párrafo anterior, la interacción fuerte también tiene sus cuantos (los gluones). El físico japonés Hideki Yukawa (1907 – 1981) predijo la propiedad de las partículas cuánticas asociadas a la interacción fuerte, que más tarde se llamarían piones. Hay una diferencia muy importante entre los piones y los fotones: un pión es un trozo de materia con una cierta cantidad de “masa”. Si esta partícula está en reposo, su masa es siempre la misma, aproximadamente 140 MeV, y si se mueve muy rápidamente, su masa parece aumentar en función E = mc2. Por el contrario, se dice que la masa del fotón en reposo es nula. Con esto no decimos que el fotón tenga masa nula, sino que el fotón no puede estar en reposo. Como todas las partículas de masa nula, el fotón se mueve exclusivamente con la velocidad de la luz, 299.792’458 Km/s, una velocidad que el pión nunca puede alcanzar porque requeriría una cantidad infinita de energía cinética. Para el fotón, toda su masa se debe a su energía cinética.

 

Los rayos cósmicos de muy alta energía vienen de fuera de la Vía Láctea

Fotones en los rayos cósmicos que llegan a la Tierra

En el estudio de los rayos cósmicos, las trazas de luz y los fotones son elementos clave tanto en la composición como en los métodos utilizados para su detección en la Tierra.
1. Los fotones como rayos cósmicos primarios y secundarios.
  • Fotones Primarios: Aunque la gran mayoría de los rayos cósmicos son protones y núcleos atómicos, una pequeña fracción está compuesta por fotones de alta energía (rayos gamma). Estos viajan en línea recta desde su fuente (como supernovas o agujeros negros), a diferencia de las partículas cargadas que son desviadas por campos magnéticos.
  • Fotones Secundarios: Cuando un rayo cósmico primario choca con la atmósfera, crea una cascada atmosférica extensa (EAS). En este proceso se generan miles de millones de partículas secundarias, incluyendo grandes cantidades de fotones, electrones y piones.
2. Trazas de luz: ¿Cómo se detectan?
Los observatorios no suelen “ver” el rayo cósmico directamente, sino las trazas de luz que deja su interacción con el medio:
  • Luz de Fluorescencia: Al atravesar la atmósfera, las partículas de la cascada excitan las moléculas de nitrógeno, las cuales emiten una tenue luz ultravioleta al desexcitarse. Detectores como los del Observatorio Pierre Auger captan estas trazas para reconstruir la energía y trayectoria del rayo.
  • Radiación Cherenkov: Si las partículas viajan más rápido que la luz en el aire (o en el agua de un detector), producen un “destello” azulado llamado luz Cherenkov.
  • Trazas en detectores: En laboratorios o globos aerostáticos, se utilizan cámaras de niebla o sensores CCD para visualizar las trazas de ionización (caminos de burbujas o señales eléctricas) que dejan las partículas al pasar.
3. Fenómenos visuales en humanos.
Los astronautas han reportado ver “destellos de luz” (fosfenos) incluso con los ojos cerrados. Esto ocurre cuando un rayo cósmico atraviesa directamente la retina o el nervio óptico, activando las neuronas y creando la percepción de una traza luminosa.
Partículas de verdad: construya su propia cámara de niebla –  scienceinschool.org

Los físicos experimentales buscaban partículas elementales en las trazas de los rayos cósmicos que pasaban por aparatos llamados cámaras de niebla. Así encontraron una partícula coincidente con la masa que debería tener la partícula de Yukawa, el pión, y la llamaron mesón (del griego medio), porque su masa estaba comprendida entre la del electrón y la del protón. Pero detectaron una discrepancia que consistía en que esta partícula no era afectada por la interacción fuerte, y por tanto, no podía ser un pión. Actualmente nos referimos a esta partícula con la abreviatura μ y el nombre de muón, ya que en realidad era un leptón, hermano gemelo del electrón, pero con 200 veces su masa.

Antes de seguir veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.

 

Nombre Símbolo Masa (MeV) Carga Espín Vida media (s)
Fotón γ 0 0 1
Leptones (L = 1, B = 0)
Electrón e 0’5109990 ½
Muón μ 105’6584 ½ 2’1970 × 10-6
Tau τ
Neutrino electrónico νe ~ 0 0 ½ ~ ∞
Neutrino muónico νμ ~ 0 0 ½ ~ ∞
Neutrino tauónico ντ ~ 0 0 ½ ~ ∞
Mesones (L = 0, B = 0)
Pión + π+ 139’570 2’603 × 10-8
Pión – π 139’570 2’603 × 10-8
Pión 0 π0 134’976 0’84 × 10-16
Kaón + k+ 493’68 1’237 × 10-8
Kaón – k 493’68 1’237 × 10-8
Kaón largo kL 497’7 5’17 × 10-8
Kaón corto kS 497’7 0’893 × 10-10
Eta η 547’5 0 0 5’5 × 10-19
Bariones (L = 0, B = 1)
Protón p 938’2723 + ½
Neutrón n 939’5656 0 ½ 887
Lambda Λ 1.115’68 0 ½ 2’63 × 10-10
Sigma + Σ+ 1.189’4 + ½ 0’80 × 10-10
Sigma – Σ 1.1974 ½ 7’4× 10-20
Sigma 0 Σ0 0 ½ 1’48 × 10-10
Ksi 0 Ξ0 1.314’9 0 ½ 2’9 × 10-10
Ksi – Ξ 1.321’3 ½ 1’64 × 10-10
Omega – Ω 1.672’4 0’82 × 10-10

Resultado de imagen de Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria

 

Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con  y el electrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π, al igual que ocurre con k+ y k. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.

Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isoespín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos.

Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.

 

Resultado de imagen de el Espín de las partículas

Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planck, h, dividido por . Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.

El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electrones pudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.

Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.

 

La esencia de la materia: una historia de fermiones y bosones | Gluones

 

La familia de los Bosones son partículas elementales que4 se caracterizan por tener espín entero (0, 1, 2, …),, lo que les permite ocupar el mismo estado cuántico simultáneamente, a diferencia de los fermiones (con espín semi-entero) que obedecen el Principio de Exclusión de Pauli y no pueden hacerlo. Ejemplos de bosones son los fotones, el bosón de Higgs y los gluones, y son cruciales para mediar las fuerzas de la naturaleza.

 

Pauli Exclusion Principle

 

Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermiones se comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.

 

Cómo funciona un láser? Lo explicamos de forma sencilla - ferrosplanes

 

En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.

Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.

 

Fuerza Nuclear Débil- Fuerzas Fuendamentales | Science Time ...

¿Cuál es la diferencia entre el protón y el neutrón?

Basta con cambiar un quark tipo U a uno tipo D.

Pues justamente esto es lo que ocurre en la naturaleza cuando entra en acción la fuerza nuclear débil. Un quark tipo U cambia a uno tipo D por medio de la interacción débil así

 

Positrón - EcuRedQué es un Electrón

Las otras dos partículas que salen son un anti-electrón y un neutrino.

Este mismo proceso es el responsable del decaimiento radiactivo de algunos núcleos atómicos. Cuando un neutrón se convierte en un protón en el decaimiento radiactivo de un núcleo, aparece un electrón y un neutrino. Este es el origen de la radiación beta (electrones).

En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:

  • La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
  • Comparada con las demás interacciones, ésta tiene un alcance muy corto.
  • La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinos para poder estudiar tales sucesos.
  • Los mediadores de la interacción débil, llamados W+, W y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.

 

Resultado de imagen de electrodébil de Weinberg-Salam

A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).

La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.

Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10-13 cm aproximadamente).

 

Cómo explicarías la fuerza nuclear fuerte a un no físico? - Quora

 

En 1963, cuando se supo que protones y neutrones (los llamados nucleones) están formados por Quarks, se pensó que la fuerza fuerte actúa realmente entre los Quarks.

En la teoría cuántica de campos, a cada tipo de interacción le corresponde una familia de partículas portadoras de la interacción.Las partículas que transportan la fuerza fuerte nuclear que interactúa entre los quarks se denominan gluones.

La fuerza nuclear fuerte se deduce del requisito de que las ecuaciones que describen a los quarks deben ser las mismas, independientemente de cómo se elija la definición de  los colores de los quarks.

 

fuerza nuclear | Mgmdenia's Blog

La interacción es fuerte. En realidad, la más fuerte de todas.

Lo dejaré aquí, en verdad, eso que el Modelo Estándar de la Física, es feo, complejo e incompleto y, aunque hasta el momento es una buena herramienta con la que trabajar, la verdad es que, se necesita un nuevo modelo más avanzado y que incluya la Gravedad.

Veremos que más descubre  el LHC.

Emilio Silvera V.

¿Vamos camino de esta aberración?

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Nuestra condición nos puede llevar al escenario que aquí nos pinta la I.A., que finalmente se querrá hacer con el mando