Abr
7
Velocidades inimaginables
por Emilio Silvera ~
Clasificado en Física Cuántica ~
Comments (0)

En el centro del átomo se encuentra un pequeño grano compacto aproximadamente 100.000 veces más pequeño que el propio átomo: el núcleo atómico. Su masa, e incluso más aún su carga eléctrica, determinan las propiedades del átomo del cual forma parte. Debido a la solidez del núcleo parece que los átomos, que dan forma a nuestro mundo cotidiano, son intercambiables entre sí, e incluso cuando interaccionan entre ellos para formar sustancias químicas (los elementos). Pero el núcleo, a pesar de ser tan sólido, puede partirse. Si dos átomos chocan uno contra el otro con gran velocidad podría suceder que los núcleos llegaran a chocar entre sí y entonces, o bien se rompen en trozos, o se funden liberando en el proceso partículas subnucleares. La nueva física de la primera mitad del siglo XX estuvo dominada por los nuevos acertijos que estas partículas planteaban.

Pero tenemos la mecánica cuántica; ¿es que no es aplicable siempre?, ¿cuál es la dificultad? Desde luego, la mecánica cuántica es válida para las partículas subatómicas, pero hay más que eso. Las fuerzas con que estas partículas interaccionan y que mantienen el núcleo atómico unido son tan fuertes que las velocidades a las que tienen que moverse dentro y fuera del núcleo están cerca de la velocidad de la luz, c, que es de 299.792’458 Km/s. Cuando tratamos con velocidades tan altas se necesita una segunda modificación a las leyes de la física del siglo XIX; tenemos que contar con la teoría de la relatividad especial de Einstein.
Esta teoría también fue el resultado de una publicación de Einstein de 1905. en esta teoría quedaron sentadas las bases de que el movimiento y el reposo son conceptos relativos, no son absolutos, como tampoco habrá un sistema de referencia absoluto con respecto al cual uno pueda medir la velocidad de la luz.

Pero había más cosas que tenían que ser relativas. En este teoría, la masa y la energía también dependen de la velocidad, como lo hacen la intensidad del campo eléctrico y del magnético. Einstein descubrió que la masa de una partícula es siempre proporcional a la energía que contienen, supuesto que se haya tenido en cuenta una gran cantidad de energía en reposo de una partícula cualquiera, como se denota a continuación:
E = mc2
Como la velocidad de la luz es muy grande, esta ecuación sugiere que cada partícula debe almacenar una cantidad enorme de energía, y en parte esta predicción fue la que hizo que la teoría de la relatividadtuviese tanta importancia para la física (¡y para todo el mundo!). Para que la teoría de la relatividadtambién sea autoconsistente tiene que ser holista, esto es, que todas las cosas y todo el mundo obedezcan a las leyes de la relatividad. No son sólo los relojes los que se atrasan a grandes velocidades, sino que todos los procesos animados se comportan de la forma tan inusual que describe esta teoría cuando nos acercamos a la velocidad de la luz. El corazón humano es simplemente un reloj biológico y latirá a una velocidad menor cuando viaje en un vehículo espacial a velocidades cercanas a la de la luz. Este extraño fenómeno conduce a lo que se conoce como la “paradoja de los gemelos”, sugerida por Einstein, en la que dos gemelos idénticos tienen diferente edad cuando se reencuentran después de que uno haya permanecido en la Tierra mientras que el otro ha viajado a velocidades relativistas.
Einstein comprendió rápidamente que las leyes de la gravedad también tendrían que ser modificadas para que cumplieran el principio relativista.

Para poder aplicar el principio de la relatividad a la fuerza gravitatoria, el principio tuvo que ser extendido de la siguiente manera: no sólo debe ser imposible determinar la velocidad absoluta del laboratorio, sino que también es imposible distinguir los cambios de velocidad de los efectos de una fuerza gravitatoria.
Einstein comprendió que la consecuencia de esto era que la gravedad hace al espacio-tiempo lo que la humedad a una hoja de papel: deformar la superficie con desigualdades que no se pueden eliminar. Hoy en día se conocen muy bien las matemáticas de los espacios curvos, pero en el época de Einstein el uso de estas nociones matemáticas tan abstractas para formular leyes físicas era algo completamente nuevo, y le llevó varios años encontrar la herramienta matemática adecuada para formular su teoría general de la relatividad que describe cómo se curva el espacio en presencia de grandes masas como planetas y estrellas.
Einstein tenía la idea en su mente desde 1907 (la relatividad especial la formuló en 1905), y se pasó 8 años buscando las matemáticas adecuadas para su formulación.

Leyendo el material enviado por un amigo al que pidió ayuda, Einstein quedó paralizado. Ante él, en la primera página de una conferencia dada ante el Sindicato de Carpinteros, 60 años antes por un tal Riemann, tenía la solución a sus desvelos: el tensor métrico de Riemann, que le permitiría utilizar una geometría espacial de los espacios curvos que explicaba su relatividad general.
No está mal que en este punto recordemos la fuerza magnética y gravitatoria que nos puede ayudar a comprender mejor el comportamiento de las partículas subatómicas.
El electromagnetismo, decíamos al principio, es la fuerza con la cual dos partículas cargadas eléctricamente se repelen (si sus cargas son iguales) o se atraen (si tienen cargas de signo opuesto).

La interacción magnética es la fuerza que experimenta una partícula eléctricamente cargada que se mueve a través de un campo magnético. Las partículas cargadas en movimiento generan un campo magnético como, por ejemplo, los electrones que fluyen a través de las espiras de una bobina.
Las fuerzas magnéticas y eléctricas están entrelazadas. En 1873, James Clerk Maxwell consiguió formular las ecuaciones completas que rigen las fuerzas eléctricas y magnéticas, descubiertas experimentalmente por Michael Faraday. Se consiguió la teoría unificada del electromagnetismo que nos vino a decir que la electricidad y el magnetismo eran dos aspectos de una misma cosa.

¿Qué dicen?
La electricidad y el magnetismo no pueden desvanecerse sin más. Una región de un campo eléctrico girando crea un campo magnético perpendicular al giro. Una región de un campo magnético girando crea un campo eléctrico perpendicular al giro, pero en el sentido opuesto.
¿Por qué es importante?
Fue la primera unificación importante de fuerzas físicas, mostrando que la electricidad y el magnetismo están íntimamente interrelacionados, o, son dos aspectos diferentes de la misma cosa.
¿Qué provocó?
La predicción de que las ondas electromagnéticas existen, desplazándose a la velocidad de la luz, de modo que la propia luz es una de dichas ondas. Esto motivó la invención de la radio, el radar, la televisión, las conexiones inalámbricas para los ordenadores y la mayoría de las comunicaciones modernas.

La interacción es universal, de muy largo alcance (se extiende entre las estrellas), es bastante débil. Su intensidad depende del cociente entre el cuadrado de la carga del electrón y 2hc (dos veces la constante de Planck por la velocidad de la luz). Esta fracción es aproximadamente igual a 1/137’036…, o lo que llamamos Alfa (α) y se conoce como constante de estructura fina.
En general, el alcance de una interacción electromagnética es inversamente proporcional a la masa de la partícula mediadora, en este caso, el fotón, sin masa.
También antes hemos comentado sobre la interacción gravitatoria de la que Einstein descubrió su compleja estructura y la expuso al mundo en 1915 con el nombre de teoría general de la relatividad, y la relacionó con la curvatura del espacio y el tiempo. Sin embargo, aún no sabemos cómo se podrían reconciliar las leyes de la gravedad y las leyes de la mecánica cuántica (excepto cuando la acción gravitatoria es suficientemente débil).

La teoría de Einstein nos habla de los planetas y las estrellas del cosmos. La teoría de Planck, Heisemberg, Schrödinger, Dirac, Feynman y tantos otros, nos habla del comportamiento del átomo, del núcleo, de las partículas elementales en relación a estas interacciones fundamentales. La primera se ocupa de los cuerpos muy grandes y de los efectos que causan en el espacio y en el tiempo; la segunda de los cuerpos muy pequeños y de su importancia en el universo atómico. Cuando hemos tratado de unir ambos mundos se produce una gran explosión de rechazo. Ambas teorías son (al menos de momento) irreconciliables.
- La interacción gravitatoria actúa exclusivamente sobre la masa de una partícula.
- La gravedad es de largo alcance y llega a los más lejanos confines del universo conocido.
- Es tan débil que, probablemente, nunca podremos detectar esta fuerza de atracción gravitatoria entre dos partículas elementales. La única razón por la que podemos medirla es debido a que es colectiva: todas las partículas (de la Tierra) atraen a todas las partículas (de nuestro cuerpo) en la misma dirección.

El gravitón hace tiempo que se ríe de nosotros…y se oculta donde no lo podamos ver
La partícula mediadora es el hipotético gravitón. Aunque aún no se ha descubierto experimentalmente, sabemos lo que predice la mecánica cuántica: que tiene masa nula y espín 2.
La ley general para las interacciones es que, si la partícula mediadora tiene el espín par, la fuerza entre cargas iguales es atractiva y entre cargas opuestas repulsiva. Si el espín es impar (como en el electromagnetismo) se cumple a la inversa.
Pero antes de seguir profundizando en estas cuestiones hablemos de las propias partículas subatómicas, para lo cual la teoría de la relatividad especial, que es la teoría de la relatividad sin fuerza gravitatoria, es suficiente.
Si viajamos hacia lo muy pequeño tendremos que ir más allá de los átomos, que son objetos voluminosos y frágiles comparados con lo que nos ocupará a continuación: el núcleo atómico y lo que allí se encuentra. Los electrones, que ahora vemos “a gran distancia” dando vueltas alrededor del núcleo, son muy pequeños y extremadamente robustos. El núcleo está constituido por dos especies de bloques: protones y neutrones. El protón (del griego πρώτος, primero) debe su nombre al hecho de que el núcleo atómico más sencillo, que es el hidrógeno, está formado por un solo protón. Tiene una unidad de carga positiva. El neutrónrecuerda al protón como si fuera su hermano gemelo: su masa es prácticamente la misma, su espín es el mismo, pero en el neutrón, como su propio nombre da a entender, no hay carga eléctrica; es neutro.
La masa de estas partículas se expresa en una unidad llamada mega-electrón-voltio o MeV, para abreviar. Un MeV, que equivale a 106 electrón-voltios, es la cantidad de energía de movimiento que adquiere una partícula con una unidad de carga (tal como un electrón o un protón) cuando atraviesa una diferencia de potencial de 106 (1.000.000) voltios. Como esta energía se transforma en masa, el MeV es una unidad útil de masa para las partículas elementaccles.

La mayoría de los núcleos atómicos contienen más neutrones que protones. Los protones se encuentran tan juntos en el interior de un núcleo tan pequeño que se deberían repeles entre sí fuertemente, debido a que tienen cargas eléctricas del mismo signo. Sin embargo, hay una fuerza que los mantiene unidos estrechamente y que es mucho más potente e intensa que la fuerza electromagnética: la fuerza o interacción nuclear fuerte, unas 102 veces mayor que la electromagnética, y aparece sólo entre hadronespara mantener a los nucleones confinados dentro del núcleo. Actúa a una distancia tan corta como 10-15 metros, o lo que es lo mismo, 0’000000000000001 metros.
La interacción fuerte está mediada por el intercambio de mesones virtuales, 8 gluones que, como su mismo nombre indica (glue en inglés es pegamento), mantiene a los protones y neutrones bien sujetos en el núcleo, y cuanto más se tratan de separar, más aumenta la fuerza que los retiene, que crece con la distancia, al contrario que ocurre con las otras fuerzas.
La luz es una manifestación del fenómeno electromagnético y está cuantizada en “fotones”, que se comportan generalmente como los mensajeros de todas las interacciones electromagnéticas. Así mismo, como hemos dejado reseñado en el párrafo anterior, la interacción fuerte también tiene sus cuantos (los gluones). El físico japonés Hideki Yukawa (1907 – 1981) predijo la propiedad de las partículas cuánticas asociadas a la interacción fuerte, que más tarde se llamarían piones. Hay una diferencia muy importante entre los piones y los fotones: un pión es un trozo de materia con una cierta cantidad de “masa”. Si esta partícula está en reposo, su masa es siempre la misma, aproximadamente 140 MeV, y si se mueve muy rápidamente, su masa parece aumentar en función E = mc2. Por el contrario, se dice que la masa del fotónen reposo es nula. Con esto no decimos que el fotón tenga masa nula, sino que el fotón no puede estar en reposo. Como todas las partículas de masa nula, el fotón se mueve exclusivamente con la velocidad de la luz, 299.792’458 Km/s, una velocidad que el pión nunca puede alcanzar porque requeriría una cantidad infinita de energía cinética. Para el fotón, toda su masa se debe a su energía cinética.
Los físicos experimentales buscaban partículas elementales en las trazas de los rayos cósmicos que pasaban por aparatos llamados cámaras de niebla. Así encontraron una partícula coincidente con la masa que debería tener la partícula de Yukawa, el pión, y la llamaron mesón (del griego medio), porque su masa estaba comprendida entre la del electrón y la del protón. Pero detectaron una discrepancia que consistía en que esta partícula no era afectada por la interacción fuerte, y por tanto, no podía ser un pión. Actualmente nos referimos a esta partícula con la abreviatura μ y el nombre de muón, ya que en realidad era un leptón, hermano gemelo del electrón, pero con 200 veces su masa.
Antes de seguir veamos las partículas elementales de vida superior a 10-20 segundos que eran conocidas en el año 1970.
| Nombre | Símbolo | Masa (MeV) | Carga | Espín | Vida media (s) |
| Fotón | γ | 0 | 0 | 1 | ∞ |
| Leptones (L = 1, B = 0) | |||||
| Electrón | e– | 0’5109990 | – | ½ | ∞ |
| Muón | μ– | 105’6584 | – | ½ | 2’1970 × 10-6 |
| Tau | τ | ||||
| Neutrino electrónico | νe | ~ 0 | 0 | ½ | ~ ∞ |
| Neutrino muónico | νμ | ~ 0 | 0 | ½ | ~ ∞ |
| Neutrino tauónico | ντ | ~ 0 | 0 | ½ | ~ ∞ |
| Mesones (L = 0, B = 0) | |||||
| Pión + | π+ | 139’570 | 2’603 × 10-8 | ||
| Pión – | π– | 139’570 | 2’603 × 10-8 | ||
| Pión 0 | π0 | 134’976 | 0’84 × 10-16 | ||
| Kaón + | k+ | 493’68 | 1’237 × 10-8 | ||
| Kaón – | k– | 493’68 | 1’237 × 10-8 | ||
| Kaón largo | kL | 497’7 | 5’17 × 10-8 | ||
| Kaón corto | kS | 497’7 | 0’893 × 10-10 | ||
| Eta | η | 547’5 | 0 | 0 | 5’5 × 10-19 |
| Bariones (L = 0, B = 1) | |||||
| Protón | p | 938’2723 | + | ½ | ∞ |
| Neutrón | n | 939’5656 | 0 | ½ | 887 |
| Lambda | Λ | 1.115’68 | 0 | ½ | 2’63 × 10-10 |
| Sigma + | Σ+ | 1.189’4 | + | ½ | 0’80 × 10-10 |
| Sigma – | Σ– | 1.1974 | – | ½ | 7’4× 10-20 |
| Sigma 0 | Σ0 | 0 | ½ | 1’48 × 10-10 | |
| Ksi 0 | Ξ0 | 1.314’9 | 0 | ½ | 2’9 × 10-10 |
| Ksi – | Ξ– | 1.321’3 | – | ½ | 1’64 × 10-10 |
| Omega – | Ω– | 1.672’4 | – | 1½ | 0’82 × 10-10 |
Para cada leptón y cada barión existe la correspondiente antipartícula, con exactamente las mismas propiedades a excepción de la carga que es la contraria. Por ejemplo, el antiprotón se simboliza con y el electrón con e+. Los mesones neutros son su propia antipartícula, y el π+ es la antipartícula del π–, al igual que ocurre con k+ y k–. El símbolo de la partícula es el mismo que el de su antipartícula con una barra encima. Las masas y las vidas medias aquí reflejadas pueden estar corregidas en este momento, pero de todas formas son muy aproximadas.
Los símbolos que se pueden ver algunas veces, como s (extrañeza) e i (isoespín) están referidos a datos cuánticos que afectan a las partículas elementales en sus comportamientos.
Debo admitir que todo esto tiene que sonar algo misterioso. Es difícil explicar estos temas por medio de la simple palabra escrita sin emplear la claridad que transmiten las matemáticas, lo que, por otra parte, es un mundo secreto para el común de los mortales, y ese lenguaje es sólo conocido por algunos privilegiados que, mediante un sistema de ecuaciones pueden ver y entender de forma clara, sencilla y limpia, todas estas complejas cuestiones.

Si hablamos del espín (o, con más precisión, el momento angular, que es aproximadamente la masa por el radio por la velocidad de rotación) se puede medir como un múltiplo de la constante de Planck, h, dividido por 2π. Medido en esta unidad y de acuerdo con la mecánica cuántica, el espín de cualquier objeto tiene que ser o un entero o un entero más un medio. El espín total de cada tipo de partícula – aunque no la dirección del mismo – es fijo.
El electrón, por ejemplo, tiene espín ½. Esto lo descubrieron dos estudiantes holandeses, Samuel Gondsmit (1902 – 1978) y George Uhlenbeck (1900 – 1988), que escribieron sus tesis conjuntamente sobre este problema en 1972. Fue una idea audaz que partículas tan pequeñas como los electronespudieran tener espín, y de hecho, bastante grande. Al principio, la idea fue recibida con escepticismo porque la “superficie del electrón” se tendría que mover con una velocidad 137 veces mayor que la de la luz, lo cual va en contra de la teoría de la relatividad general en la que está sentado que nada en el universo va más rápido que la luz, y por otra parte, contradice E=mc2, y el electrón pasada la velocidad de la luz tendría una masa infinita.
Hoy día, sencillamente, tal observación es ignorada, toda vez que el electrón carece de superficie.

Las partículas con espín entero se llaman bosones, y las que tienen espín entero más un medio se llaman fermiones. Consultado los valores del espín en la tabla anterior podemos ver que los leptones y los bariones son fermiones, y que los mesones y los fotones son bosones. En muchos aspectos, los fermionesse comportan de manera diferente de los bosones. Los fermiones tienen la propiedad de que cada uno de ellos requiere su propio espacio: dos fermiones del mismo tipo no pueden ocupar o estar en el mismo punto, y su movimiento está regido por ecuaciones tales que se evitan unos a otros. Curiosamente, no se necesita ninguna fuerza para conseguir esto. De hecho, las fuerzas entre los fermiones pueden ser atractivas o repulsivas, según las cargas. El fenómeno por el cual cada fermión tiene que estar en un estado diferente se conoce como el principio de exclusión de Pauli. Cada átomo está rodeado de una nube de electrones, que son fermiones (espín ½). Si dos átomos se aproximan entre sí, los electrones se mueven de tal manera que las dos nubes se evitan una a otra, dando como resultado una fuerza repulsiva. Cuando aplaudimos, nuestras manos no se atraviesan pasando la uno a través de la otra. Esto es debido al principio de exclusión de Pauli para los electrones de nuestras manos que, de hecho, los de la izquierda rechazan a los de la derecha.

En contraste con el característico individualismo de los fermiones, los bosones se comportan colectivamente y les gusta colocarse todos en el mismo lugar. Un láser, por ejemplo, produce un haz de luz en el cual muchísimos fotones llevan la misma longitud de onda y dirección de movimiento. Esto es posible porque los fotones son bosones.
Cuando hemos hablado de las fuerzas fundamentales que, de una u otra forma, interaccionan con la materia, también hemos explicado que la interacción débil es la responsable de que muchas partículas y también muchos núcleos atómicos exóticos sean inestables. La interacción débil puede provocar que una partícula se transforme en otra relacionada, por emisión de un electrón y un neutrino. Enrico Fermi, en 1934, estableció una fórmula general de la interacción débil, que fue mejorada posteriormente por George Sudarshan, Robert Marschak, Murray Gell-Mann, Richard Feynman y otros. La fórmula mejorada funciona muy bien, pero se hizo evidente que no era adecuada en todas las circunstancias.
¿Cuál es la diferencia entre el protón y el neutrón?
Basta con cambiar un quark tipo U a uno tipo D.
Pues justamente esto es lo que ocurre en la naturaleza cuando entra en acción la fuerza nuclear débil. Un quark tipo U cambia a uno tipo D por medio de la interacción débil .

Las otras dos partículas que salen son un anti-electrón y un neutrino.
Este mismo proceso es el responsable del decaimiento radiactivo de algunos nñucleos atómicos. Cuando un neutrón se convierte en un protón en el decaimiento radiactivo de un núcleo, aparece un electrón y un neutrino. Este es el origen de la radiación beta (electrónes).
En 1970, de las siguientes características de la interacción débil sólo se conocían las tres primeras:
- La interacción actúa de forma universal sobre muchos tipos diferentes de partículas y su intensidad es aproximadamente igual para todas (aunque sus efectos pueden ser muy diferentes en cada caso). A los neutrinos les afecta exclusivamente la interacción débil.
- Comparada con las demás interacciones, ésta tiene un alcance muy corto.
- La interacción es muy débil. Consecuentemente, los choques de partículas en los cuales hay neutrinos involucrados son tan poco frecuentes que se necesitan chorros muy intensos de neutrinospara poder estudiar tales sucesos.
- Los mediadores de la interacción débil, llamados W+, W– y Z0, no se detectaron hasta la década de 1980. al igual que el fotón, tienen espín 1, pero están eléctricamente cargados y son muy pesados (esta es la causa por la que el alcance de la interacción es tan corto). El tercer mediador, Z0, que es responsable de un tercer tipo de interacción débil que no tiene nada que ver con la desintegración de las partículas llamada “corriente neutra”, permite que los neutrinos puedan colisionar con otras partículas sin cambiar su identidad.

A partir de 1970, quedó clara la relación de la interacción débil y la electromagnética (electrodébil de Weinberg-Salam).
La interacción fuerte (como hemos dicho antes) sólo actúa entre las partículas que clasificamos en la familia llamada de los hadrones, a los que proporciona una estructura interna complicada. Hasta 1972 sólo se conocían las reglas de simetría de la interacción fuerte y no fuimos capaces de formular las leyes de la interacción con precisión.
Como apuntamos, el alcance de esta interacción no va más allá del radio de un núcleo atómico ligero (10-13cm aproximadamente).

En 1963, cuando se supo que protones y neutrones (los llamados nucleones) están formados por Quarks, se pensó que la fuerza fuerte actúa realmente entre los Quarks.
En la teoría cuántica de campos, a cada tipo de interacción le corresponde una familia de partículas portadoras de la interacción.Las partículas que transportan la fuerza fuerte nuclear que interactúa entre los quarks se denominan gluones.
La fuerza nuclear fuerte se deduce del requisito de que las ecuaciones que describen a los quarks deben ser las mismas, independientemente de cómo se elija la definición de los colores de los quarks.

La interacción es fuerte. En realidad, la más fuerte de todas.
Lo dejaré aquí, en verdad, eso que el Modelo Estándar de la Física, es feo, complejo e incompleto y, aunque hasta el momento es una buena herramienta con la que trabajar, la verdad es que, se necesita un nuevo modelo más avanzado y que incluya la Gravedad.
Veremos que nos trae la nueva etapa del LHC.
Emilio Silvera V.
Abr
7
El error de creer que sabemos
por Emilio Silvera ~
Clasificado en Los Pensamientos ~
Comments (0)
TABLA DE ALGUNAS DISCIPLINAS CIENTÍFICAS

ASTRONOMÍA

Astrofísica

ASTROBIOLOGÍA

Cosmología

BIOLOGÍA
.
![]()

Biofísica

Electromagnetismo

Física Atómica y Molecular

Física de los Fluidos

Física del Espacio

Física del Estado Sólido

Física Médica
Física Nuclear
Física Teórica

Física Térmica o Termofísica
Mecánica Clásica

Mecánica Cuántica
![]()
Mecánica Estadística
Química y otras muchas disciplinas se podrían relacionar aquí y nos dejaría sin sitio para describirlas. Sin embargo, no veo la de las matemáticas ni la metafísica.

“Siempre le digo a mis alumnos que si esta fórmula no les quita el aliento es que no tienen alma”, dice Chris Budd, profesor de la Universidad de Bath, en Reino Unido. Es una ecuación que todos aprendimos en el instituto: describe cómo la circunferencia de un círculo varía según su diámetro, con una relación igual a un número denominado Pi que equivale aproximadamente a 3,14. Con eso se describe la geometría del mundo y se hacen funcionar los GPS.
¡Las matemáticas, la metafísica?
Esas son las raíces del árbol, sin ellas las demás disciplinas no podrían crecer.
¿En qué estado de conocimiento estamos, en relación al Universo, la Naturaleza que lo conforma y las disciplinas científicas que los desarrollan?

La realidad está situada en un punto que podríamos calificar de aceptable, si tenemos en cuenta el recorrido que la Humanidad ha tenido que realizar para alcanzar los logros actuales que, no siendo suficientes, sí que son herramientas bastante válidas como para afirmar que no estamos inmersos en la ignorancia.

Anduvimos extraviados en el Modelo correcto del Sistema Solar, creíamos que las estrellas siempre serían inalcanzables y que nunca podríamos saber de que qué estaban hechas, desconocíamos los caminos que recorría la Naturaleza para formar la materia, no sabíamos que existían objetos como las galaxias y otros extraños y exóticos como los agujeros negros y las estrellas de neutrones, tampoco podíamos conocer (por falta de conocimiento) las transiciones de fase que se producían en muchos de los mecanismos que estaban presentes en el universo dinámico del que formamos parte.

¿Está hecha la luz de ondas o de partículas? Una pregunta fundamental que ha inquietado a científicos durante décadas, pues parece ser ambas a la vez, pero… ¿Qué secretos nos quedan por desvelar en relación a la luz?

Éste es el detector “más aislado de todo” para detectar la “materia oscura”.
Dicen:
“De toda la materia del universo visible, solo un 4% es materia normal, como la materia de la que están formadas todas las cosas que conocemos. Un 23% está hecho de materia oscura (invisible), que los físicos intuyen que existe pero no saben lo que es. El 73% restante, es decir, casi toda la materia del universo, es energía oscura, que también es invisible.”

“El premio Nobel de Física de 2015 ha sido concedido a Takaaki Kajita y Arthur McDonald “por el descubrimiento de las oscilaciones de neutrinos, que demuestran que los neutrinos tienen masa”. Los neutrinos son partículas elementales del Modelo Estándar, la exitosa teoría que describe los componentes más fundamentales de la materia.”

“Cuenta la mitología nórdica que Ymir era un gran gigante. Ymir vivía acompañado de una vaca llamada Auðumbla. Un día la vaca estaba lamiendo el suelo cuando, de repente, surgió el cuerpo de un hombre llamado Buri. Buri engendró más adelante a Bor, y este a su vez tuvo tres hijos; Odín, Vili y Ve. Los tres hermanos decidieron matar al gran Ymir, no había espacio suficiente para todos. Odín y sus hermanos usaron el cuerpo de Ymir para crear el mundo de los humanos.”

¿Será la versión más extraña la clase de materia que surge de la fusión de dos agujeros negros?
Aunque nuestra especie siempre ha gozado de una gran imaginación, como lo demuestra la mitología de los distintos pueblos, llegado el momento, hemos sabido dejar de lado la fantasía para aplicar la lógica y buscar esa verdad que incansables perseguimos.

El Sincrotrón ALBA es una infraestructura científica de tercera generación situada en Cerdanyola del Vallès (Barcelona) y es la más importante de la zona del Mediterráneo.
Se trata de un complejo de aceleradores de electrones para producir luz de sincrotrón, que permite visualizar la estructura atómica y molecular de los materiales y estudiar sus propiedades.
La energía del haz de electrones que se genera en el ALBA es de 3 GeV y se consigue mediante la combinación de un acelerador lineal (LINAC) y un propulsor de baja emitancia y máxima potencia colocado en el mismo túnel que el anillo de almacenamiento. El Sincrotrón ALBA tiene un perímetro de 270 metros y 17 tramos rectos disponibles para la instalación de dispositivos de inserción.
![]()
El telescopio espacial Hubble de la Administración Nacional de la Aeronáutica y del Espacio de EE.UU. (NASA, por sus siglas en inglés) logró captar una impresionante imagen en la que se ve una “burbuja” de color azul.
La “burbuja” en realidad es una nube interestelar formada por polvo, hidrógeno, helio y otros gases, según informó el sitio web del Hubble.
La nube interestelar rodea la estrella de Wolf-Rayet o WR 31a que se encuentra en la constelación Carina, a 30 mil años luz de la Tierra.
Los científicos estiman que la “burbuja” se formó hace 20 mil años y que se expande a una velocidad de 220 mil kilómetros por hora.
“Por desgracia, el ciclo de vida de una estrella Wolf-Rayet es de apenas algunos miles de años: un abrir y cerrar de ojos en términos cósmicos”,

El recorrido sería interminable si nos sumergimos en todas y cada una de las disciplinas científicas que el Ser Humano estudia para profundizar más y más en los secretos de la Naturaleza, del Universo, de la propia Vida. Tanto en el ámbito de lo muy pequeño como en el de lo muy grande, los pasos dados nos llevaron lejos pero… ¡No podemos alcanzar el horizonte del saber!
Emilio Silvera V.
Abr
7
¿En qué nos convertiremos?
por Emilio Silvera ~
Clasificado en El Futuro incierto ~
Comments (0)

-
1. Cerebro · En los años 60 del siglo XX, el fisiólogo José Rodríguez Delgado inventó el “stimoceiver”o estimulador transdermal, un dispositivo implantado en el cerebro para transmitir impulsos eléctricos que modificaban comportamientos básicos como la agresión o sensaciones de placer.· En 2013 la FDA aprobaba un dispositivo de respuesta cerebral para el tratamiento de la epilepsia que venía siendo desarrollado por los médicos de la USC desde 2006.
· Neil Harbisson (Londres, 1984) es la primera persona en el mundo reconocida como cíborg por un gobierno y la primera persona con una antena implantada en la cabeza que le permite escuchar los colores y percibir infrarrojos, ultravioletas, recibir imágenes, vídeos, música o llamadas telefónicas directamente a su cabeza desde aparatos externos como móviles o satélites.

· En 2010, se logró devolver la vista a tres pacientes ciegos con un microchipimplantado en la retina sin una cámara externa. Creado por el profesor Eberhart Zrennera y Retina Implant AG.


4. Corazón · La primera implantación clínica de un marcapasos interno en un humano fue hecha por el cirujano Åke Senning en 1958 en el Instituto Karolinska en Solna, Suecia, usando un marcapasos diseñado por Rune Elmqvist. El dispositivo falló tres horas después. Un segundo dispositivo fue implantado y duró dos días. El primer paciente en el mundo con marcapasos interno, Arne Larsson, recibió 26 marcapasos diferentes a lo largo de su vida. Murió en 2001 a la edad de 86 años.

5. Brazos y manos · En el año 1510-1590 el cirujano francés Ambroise Paré desarrolló el primer brazo artificial móvil llamado Le Petit Lorraine. Los dedos podían abrirse o cerrarse.


Mediante piel tomada de su brazo y unos tubos implantados, su pene biónico de 20 cm puede conseguir una erección instantánea a través de un botón localizado en sus testículos para ‘encenderlo’ y otro para ‘apagarlo’.

http://eyeborgproject.tv/
http://www.investigacionyciencia.es/
http://www.elfinanciero.com.mx/
http://www.excelsior.com.mx/
http://www.latam.discovery.com/
Ilustraciones: Olivia López Bueno
Abr
7
La NASA quiere ir a Alpha Centauri antes de 2070
por Emilio Silvera ~
Clasificado en Viajar al Espacio ~
Comments (0)

“Alfa Centauri es el sistema estelar más cercano al Sistema Solar, alejado de nosotros 4,37 años luz Es un sistema triple compuesto por tres estrellas: Alfa Centauri A, Alfa Centauri B (que forman una binaria) y la enana roja Próxima Centauri, siendo esta última la estrella individual más cercana al Sol.”
El viaje interestelar de 400 años a Alfa Centauri: diseñan una nave-ciudad de 58 kilómetros para ir a las estrellas.
El proyecto Chrysalis contempla el diseño, el control de la natalidad y los detalles psicológicos para que 13 generaciones consigan un reto inédito para la humanidad.

Impresión artística de Próxima b orbitando la estrella Próxima Centauri. Las estrellas Alpha Centauri A y B pertenecientes al mismo sistema se muestran …

A pesar de que la Humanidad no ha explorado aún a fondo algunos de los mundos más interesantes y prometedores de nuestro propio Sistema Solar, la NASA tiene ya la vista puesta en un objetivo mucho más lejano y ambicioso: el primer viaje interestelar.
Según ha revelado la revista New Scientist, en efecto, un grupo de investigadores del Jet Propulsion Laboratory acaba de presentar, en el marco de la Conferencia Anual de la Unión Geofísica Americana, celebrada en New Orleans, un plan para alcanzar el sistema de Alpha Centauri, la estrella más próxima a nosotros, a “solo” 4,3 años luz de distancia o, lo que es lo mismo, a casi 41 billones de km. de la Tierra.
Tienen la esperanza de encontrar ese mundo habitable
La fecha elegida para la hazaña tampoco es casual. Será en 2069, justo cuando se cumplan cien años de la llegada del primer hombre a la Luna.
La idea, tan nueva que aún no tiene nombre, nació para cumplir un mandato presupuestario de 2016 que se refiere, precisamente, a la necesidad de “hacer progresos” en el desarrollo de los viajes interestelares. Si este plan se convierte finalmente en una misión oficial, la agencia espacial norteamericana explorará, en las próximas décadas, varias tecnologías capaces de acelerar una nave a una fracción significativa (se habla de un 10%) de la velocidad de la luz, lo que permitiría alcanzar Alpha Centauri en alrededor de unos 40 años. Muy poco tiempo si consideramos que, con la tecnología actual, tardaríamos más de 30.000 años en llegar hasta allí.

Alpha Centauri es un sistema formado por tres estrellas diferentes. Las dos principales, Alpha Centauri A y B, se orbitan mutuamente. Y la tercera, Próxima Centauri, que probablemente esté solo “de paso”, es la estrella más cercana a nuestro Sol, su vecina inmediata.
Similar a la Tierra

“Alfa centauri es un sistema estelar formado por tres estrellas y que están muy cercana al sistema solar, de las tres dos de ellas se encuentra separada 23 veces por encima que existe entre la distancia dede la tierra al sol, estas corresponden a alfa centauri A y a Alfa centari β y la tercera y ultima de este sistema estelar se le llamo próxima centauri, es una enana roja y es la que esta mas cercana a la tierra”
Como se recordará, el sistema cuenta, por lo menos, con un planeta, Próxima b, que hace apenas unos meses hizo correr ríos de tinta en todo el mundo, ya que es muy similar a la Tierra. Rocoso y del mismo tamaño que nuestro propio mundo, Próxima b se encuentra, además, en la zona de habitabilidad de su estrella, es decir, a la distancia adecuada para que las temperaturas de su superficie permitan la existencia de agua líquida. Descubierto por el español Guillem Anglada Escudé, Próxima b se ha convertido, de hecho, en uno de los mejores exoplanetas candidatos a albergar vida. Y su cercanía, en términos espaciales, está agudizando el ingenio de la comunidad científica, que busca la mejor manera de llegar hasta él.
Anthony Freeman, el científico del JPL que presentó el proyecto durante la Conferencia de Nueva Orleans, explicó cuáles serían los objetivos científicos de la misión. El primero y más importante será buscar signos de vida en el sistema vecino, pero también se han incluido el estudio de la composición de la materia y la radiación que la nave encuentre en su camino a través del vasto espacio interestelar, así como la realización de experimentos que pongan a prueba la relatividad general. A su llegada a Alpha Centauri, la sonda deberá observar el sistema, determinar si contiene más planetas (algo que hoy no sabemos) y analizar tanto la atmósfera como la superficie de Próxima b en busca de agua y signos que revelen la presencia de vida.

Según el plan, unos años después del lanzamiento la NASA enviaría un gran telescopio al espacio profundo. Allí, se posicionaría de forma que la luz de Alpha Centauri roce nuestro sol, creando una “lente gravitacional” que nos permita obtener una vista completa del exoplaneta.
Luces que se encienden
Según ha declarado a New Scientist Stacy Weinstein-Weiss, autora principal del documento que plantea la misión, “podremos caracterizar la atmósfera. Y podremos ver el planeta, suponiendo que no esté cubierto de nubes”. Las técnicas para detectar vida una vez en órbita incluyen la búsqueda de estructuras artificiales, el encendido y apagado de luces y la búsqueda de modificaciones de la tierra a gran escala.

Por supuesto, el mayor desafío para culminar con éxito la primera misión interestelar de la Humanidad pasa por desarrollar una tecnología de propulsión que sea realmente capaz de alcanzar el objetivo en un plazo de tiempo razonable. Una tecnología, por cierto, que aún no existe más que en el papel.
El equipo del JPL ha propuesto varias técnicas “prometedoras”, desde la propulsión nuclear a motores de antimateria. Y, por supuesto, las velas solares impulsadas por láser, el mismo sistema que se propone utilizar en el Proyecto Starshot de Breakthrough Initiatives, avalado por el mismísimo Stephen Hawking y que consiste, precisamente, en enviar a Alpha Centauri un enjambre de micro naves de apenas unos centímetros de longitud.
Nota de este Blog: No podemos ni viajar a Marte que está a la puerta de la esquina, y, hablamos de viajar a Alfa Centauri en 400 años… ¿Estamos locos? ¿Estamos perdiendo el Norte? Bueno, lo más logico sería pensar que, los de la NASA, buscan subvenciones para un proyecto a largos años, a sabiendas de que tal meta… ‘No está a nuestro alcance!
Abr
7
Viajar a las estrellas (I)
por Emilio Silvera ~
Clasificado en Viajar al Espacio ~
Comments (0)
Kepler-452b, destino Imserso para 2100
Acaba de salir publicado mi libro Exoplanetas para la colección Un paseo por el Cosmos de RBA. Uno de los capítulos que escribí para el primer borrador acabó descolgándose del texto final. No quiero que se pierda como lágrimas en la lluvia, así que os lo incluyo a continuación en los siguientes dos artículos (este es el primero). Tomadlos como un anexo a la Versión del Director. Que lo disfrutéis.
—————————————————————————————————-
El profe de Física
El blog de Arturo Quirantes
VIAJAR A LAS ESTRELLAS – Parte 1
Los exoplanetas se encuentran a grandes distancias, mucho más lejos de lo que un ser humano podría viajar. Aun así, los humanos no se resignarán a permanecer confinados en su propio sistema planetario. Las propias leyes de la Física imponen límites a la posibilidad de viajar a otras estrellas, pero hay otras opciones.
Descubrir la existencia y propiedades de mundos extrasolares tiene una gran interés para los científicos. pero su importancia se extiende mucho más allá. Las sociedades humanas, con apenas excepciones, han atendido siempre la llamada a expandirse por todo tipo de territorios en busca de espacio vital. Parece que se trata de algo consustancial al ser humano. Buscamos tierras de cultivo, recursos minerales, puertos naturales, territorios para colonizar, enclaves militares estratégicos. En el proceso algunas naciones prosperan más que otras, pero el resultado general es una expansión de la raza humana.

Hemos colonizado todos los continentes, hemos establecido colonias en la Antártida y en órbita terrestre baja. La siguiente frontera es el espacio. En las últimas décadas hemos desplegado un buen número de sondas interplanetarias, paso previo antes de la exploración tripulada. Ya hay planes para colonizar mundos en nuestro propio sistema solar y para explotar los recursos minerales de asteroides y cometas cercanos. Más cerca de casa, la Luna nos brinda una estación espacial natural en la que podemos extraer recursos como helio-3 y donde podemos establecer bases de exploración.
Tarde o temprano el hombre saldrá de su pequeña isla planetaria y colonizará el archipiélago que forma el Sistema Solar. Después de eso se plantearán dos alternativas: o bien la humanidad se contenta con ocupar su propio sistema planetario y nada más, o bien dará el gran salto a la búsqueda de nuevos mundos en otras estrellas. La primera alternativa es poco probable, dado el impuso natural que tenemos por seguir ampliando horizontes. En cuanto a la segunda, plantea problemas de enorme dificultad.
Resulta difícil comprender la enormidad del espacio entre las estrellas. En tiempos de Felipe II la mayoría de las personas tenían su movilidad limitada a pocos kilómetros por los medios de transporte de la época. El galeón de Filipinas unía dicho archipiélago con la Península una vez al año, recorriendo una distancia mil veces superior a la que una persona podía recorrer a pie o a caballo en un solo día. En la actualidad, la sonda New Horizons se dirige al exterior de nuestro Sistema Solar tras estudiar Plutón, un cuerpo situado a 6.000 millones de kilómetros de la Tierra que tardó nueve años en alcanzar. Es una de las sondas más rápidas jamás lanzadas por el hombre, pero a pesar de eso tardaría unos 300.000 años en llegar a la estrella más cercana a la nuestra. Las distancias interplanetarias se miden en millones de kilómetros, las interestelares se miden en millones de millones.
![]()
Finalmente nadie podrá evitar el intento de colonizar otros mundos
Podemos diseñar naves más avanzadas y veloces. La duración de un viaje desde Filipinas hasta España se ha reducido del año que requería en el siglo XVII a apenas un día en la actualidad, y si hubiese incentivos económicos podría hacerse incluso en menos tiempo. El problema es que los viajes espaciales se parecen muy poco a los vuelos de avión. Una nave espacial es como una bola de billar, lanzada con gran precisión para llegar a su objetivo. Los ingenieros espaciales utilizan los planetas como ayuda gravitacional para poder desviar la sonda a donde interese y en el proceso la velocidad puede aumentar, pero ese efecto tiene sus límites.
Intentemos dotar a nuestra nave espacial de un poderoso motor y una gran cantidad de combustible. ¿Viajará así más rápido? La respuesta es sí, pero por desgracia la Física actúa en contra de los viajeros. La única forma que tenemos de propulsarnos está basada en la Tercera Ley de Newton: si queremos avanzar tenemos que dejar algo atrás. Para que una nave espacial avance tiene que llevar algo que pueda arrojar hacia atrás, como los gases de combustión del cohete. Ahora bien, si queremos viajar más rápido la cantidad de combustible necesario aumenta de forma exponencial: duplicar la velocidad requiere mucho más del doble de combustible.


Para aumentar la velocidad de una nave espacial, una de las cosas que pueden hacerse es elevar la velocidad de salida de los gases de combustión. Eso puede lograrse sustituyendo el motor clásico, en el que sustancias químicas reaccionan y salen del cohete a gran velocidad, por un motor iónico donde las partículas cargadas eléctricamente son aceleradas por un campo eléctrico. La velocidad de las partículas expulsadas por el cohete es mucho mayor, y también lo será la velocidad final de la nave.
Los primeros prototipos de motor iónico fueron probados por la NASA en la década de los sesenta y han sido usados con éxito en la sonda Dawn que fue enviada para estudiar los asteroides Vesta y Ceres. El motor iónico que la impulsa por el espacio es muy lento en términos absolutos, y su empuje es tan pequeño que la aceleración que produce es equivalente a pasar de 0 a 100 km/h en cuatro días. A su favor cuenta con una mayor eficiencia que un motor convencional, lo que se traduce en un menor consumo de material de propulsión, y su menor empuje es compensado de sobra por su mayor tiempo de funcionamiento.

Nuevas técnicas, nuevos materiales y nuevas energías
Más allá del motor químico o el iónico, un cohete propulsado mediante energía nuclear proporcionaría un empuje muy alto, permitiendo a la nave alcanzar velocidades muy altas. Existen diversos proyectos en los tableros de diseño esperando un apoyo presupuestario masivo para convertirse en alternativas viables. Los actuales viajes de exploración del Sistema Solar no precisan de motores nucleares, pero el salto a las estrellas será una empresa con necesidades muy distintas.
Buscando métodos para mejorar la eficiencia de futuras naves interestelares, los ingenieros han dado con una solución eficaz: no acarrear combustible. Eso se puede hacer de diversas formas. Una opción consiste en desplegar una gigantesca y finísima vela solar, capaz de captar los fotones emitidos por el Sol. Los fotones son partículas que carecen de masa en reposo pero pueden transportar momento lineal, o como se decía antiguamente, «cantidad de movimiento.» Cuando impactan contra una superficie, como la de una vela, pueden transmitir parte de su momento linean a ésta, actuando de forma similar al viento sobre una vela terrestre. También puede usarse la luz de un láser de alta potencia disparado desde el punto de origen del viaje.

Del Espacio “vacío” por el que surcaran los caminos siderales recogerán su propio combustible
Una interesante alternativa, propuesta en los años sesenta por el físico norteamericano Robert Bussard, se basa en el hecho de que el vacío del espacio interestelar no está realmente vacío. Bussard imaginó un gigantesco colector formado por un campo magnético que recogería los átomos de hidrógeno desperdigados por el espacio. Ese hidrógeno podría ser usado como fuente de energía (mediante fusión termonuclear) y como sustancia arrojadiza. La idea cuenta con un serio inconveniente: el hidrógeno que va siendo recogido se encuentra prácticamente en reposo, y al colisionar con la nave crearía en esta un efecto de frenado.
Pero las enormes distancias interestelares hace que incluso los más eficientes y veloces sistemas de propulsión se encuentren con limitaciones impuestas por las propias leyes de la naturaleza. La primera proviene de la Teoría de la Relatividad de Einstein: nada puede viajar más rápido que la luz en el vacío. Se trata de una velocidad tan alta que a escala humana parece infinita porque no suelen abundar los casos en que podamos notar el retardo. Las comunicaciones por radio y televisión en nuestro mundo son prácticamente instantáneas, y los medios de transporte más veloces a nuestra disposición viajan a apenas una fracción de la velocidad de la luz, cuyo valor suele representarse mediante la letra c.

El efecto de c finito comienza a manifestarse en los vuelos interplanetarios. Cuando los ingenieros de la NASA o la ESA controlan una sonda espacial han de asumir que pasarán horas entre la transmisión de una orden y su recepción, lo que dificulta el control desde tierra. Cuando en julio de 2015 la sonda New Horizons pasó por Plutón, la señal de «todo en orden» que envió tardó casi cuatro horas y media en llegar a la Tierra; para entonces la sonda había avanzado casi un cuarto de millón de kilómetros. A tales distancias no se puede establecer una comunicación en tiempo real y por ese motivo la lista de instrucciones de la New Horizons estaba programada de antemano.
La situación empeora al salir del Sistema Solar. La estrella más cercana a nuestro sol, Próxima Centauri, se hallan a unos 4,22 años-luz de nosotros. Incluso viajando a la velocidad de la luz tardaríamos más de cuatro años en llegar a ella. Algunas de las estrellas de nuestros cielos se encuentran mucho más lejos. Polaris, la estrella polar, que indica el Norte a los marineros de nuestros mares, se encuentra a 434 años-luz, lo que significa que la luz que nos llega ahora de ella abandonó su superficie cuando el reinado de Felipe II estaba en su apogeo.

La segunda limitación es de índole matemática. Acelerar un objeto hasta alcanzar una velocidad próxima a la de la luz requiere una gran cantidad de energía. Para llevar una moneda de un euro desde el reposo a una velocidad de 0,9c necesitaríamos todo el suministro energético de una central nuclear durante diez días; la factura rondaría los treinta millones de euros. Y aumentar la velocidad será cada vez más difícil. Un objeto necesita tanta energía para pasar del reposo a una velocidad de 0,9c como para subir esa velocidad de 0,9c a 0,96c. Rozar la velocidad de la luz se hace prohibitivo. Lástima, porque viajar a altísimas velocidades tiene un efecto positivo para los viajeros: el tiempo viaja más despacio para ellos. Un viaje a Próxima Centauri a 0,99c tardaría unos cuatro años según el cómputo de la Tierrra, pero para los viajeros solamente habrían transcurrido siete meses. Se trata del efecto de dilatación temporal descrito por la Relatividad de Einstein.
El blog de Arturo Quirantes
















Totales: 87.083.488
Conectados: 57

































