“Inicialmente, se presenta, de modo simplificado, el Modelo Estándar como una teoría sofisticada que identifica las partículas elementales y sus interacciones. Después, en el ámbito de esa teoría, se enfocan aspectos – el vacuo no es vacío; partículas desnudas y vestidas; materia oscura y viento oscuro; materia y antimateria; el campo y el bosón de Higgs; neutrinos oscilantes – que pueden ser motivadores desde el punto de vista de la enseñanza y del aprendizaje de la Física. Finalmente, se discute la probable superación de esa teoría por otra más completa.”
Los leptones sólo interaccionan entre sí mediante fuerzas débiles y/o electromagnéticas. Los quarks, sin embargo, interaccionan por cualquiera de las tres fuerzas indicadas. Y, en todo esto, la gravedad está ausente y hace que la teoría esté incompleta. De todas las maneras, no debemos quitar mérito a tan compleja construcción de la mente humana que tan buenos resultados nos ha dado.
Gordon Kane, un físico teórico de la Universidad de Michigan
De acuerdo con el Modelo Estándar, leptones y quarks son partículas verdaderamente elementales, en el sentido de que no poseen estructura interna. Las partículas que tienen estructura interna se llaman hadrones; están constituidas por quarks: bariones cuando están formadas por tres quarks o tres anti-quarks, o mesones cuando están constituidas por un quark y un anti-quark.
Pero ¿Cómo se da la interacción? ¿Quién “transmite el mensaje” de la fuerza entre las partículas que interactúan? Eso nos lleva a las partículas mediadoras o partículas de fuerza o, también, partículas virtuales.
Estos son los Bosones que intermedian en las fuerzas
Las interacciones fundamentales tienen lugar como si las partículas que interactúan “intercambiasen” otras partículas entre sí. Esas partículas mediadoras serían los fotones en la interacción electromagnética, los gluones en la interacción fuerte, las partículas W y Z en la interacción débil y los gravitones (aún no detectados) en la interacción gravitacional. Es decir, partículas eléctricamente cargadas interactuarían intercambiando fotones, partículas con carga color interactuarían intercambiando gluones, partículas con carga débil intercambiarían partículas W y Z, mientras que partículas con masa intercambiarían gravitones.
Las partículas mediadoras pueden no tener masa, pero tienen energía, o sea, son pulsos de energía. Por eso, se llaman virtuales. De los cuatro tipos de partículas mediadoras8, las del tipo W y Z tienen masa, pero es común que todas sean llamadas partículas virtuales.
En el primero actúa el gravitón y en el segundo el Fotón
¡Pero faltan los campos! Los cuatro campos. Sabemos que un cuerpo con masa crea alrededor de sí un campo gravitacional, un campo de fuerza que ejerce una fuerza sobre otro cuerpo masivo y viceversa. Análogamente, un cuerpo cargado eléctricamente, crea un campo electromagnético (si está en reposo, se percibe sólo su componente eléctrico, si está en movimiento se manifiesta también el componente magnético) y ejerce una fuerza electromagnética sobre otro cuerpo electrizado y viceversa.
El problema en esa bella simetría de cuatro cargas, cuatro interacciones, cuatro fuerzas, cuatro tipos de partículas mediadoras y cuatro campos es que aún no hemos podido detectar ningún gravitón y la gravedad, en sí, no encaja bien en esa teoría llamada Modelo Estándar.
La primera ha dado muy buenos resultados y, la segunda, está por verificar
La Física actual busca una teoría más amplia que el modelo estándar . Una teoría que dé una descripción completa, unificada y consistente de la estructura fundamental del universo. ¿Será la compleja Teoría de cuerdas, que integra también la interacción gravitatoria?
Si finalmente se verificara la Teoría de Cuerdas, el Modelo Estándar estaría en peligro
El modelo estándar es una poderosa herramienta pero no cumple todas las expectativas; no es un modelo perfecto. En primer lugar, podríamos empezar por criticar que el modelo tiene casi veinte constantes que no se pueden calcular. Desde luego, se han sugerido numerosas ideas para explicar el origen de todos estos parámetros o números inexplicables y sus valores, pero el problema de todas estas teorías es que los argumentos que dan nunca han sido enteramente convincentes. ¿Por qué se iba a preocupar la naturaleza de una fórmula mágica si en ausencia de tal fórmula no hubiera contradicciones? Lo que realmente necesitamos es algún principio fundamental nuevo, tal como el principio de la relatividad, pero no queremos abandonar todos los demás principios que ya conocemos.
Ésos, después de todo, han sido enormemente útiles en el descubrimiento del modelo estándar. El mejor lugar para buscar un nuevo principio es precisamente donde se encuentran los puntos débiles de la presente teoría y, construimos máquinas como el LHC para que nos diga lo que no sabemos.
Una regla universal en la física de partículas es que para partículas con energías cada vez mayores, los efectos de las colisiones están determinados por estructuras cada vez más pequeñas en el espacio y en el tiempo. El modelo estándar es una construcción matemática que predice sin ambigüedad cómo debe ser el mundo de las estructuras aún más pequeñas. Pero existen varias razones para sospechar que sus predicciones pueden, finalmente (cuando podamos emplear más energía en un nivel más alto), resultar equivocadas.
Vistas a través del microscopio, las constantes de la naturaleza parecen estar cuidadosamente ajustadas sin ninguna otra razón aparente que hacer que las partículas parezcan lo que son. Hay algo muy erróneo aquí. Desde un punto de vista matemático no hay nada que objetar, pero la credibilidad del modelo estándar se desploma cuando se mira a escalas de tiempo y longitud extremadamente pequeñas, o lo que es lo mismo, si calculamos lo que pasaría cuando las partículas colisionan con energías extremadamente altas. ¿Y por qué debería ser el modelo válido hasta aquí? Podrían existir muchas clases de partículas súper pesadas que no han nacido porque se necesitan energías aún inalcanzables. ¿Dónde está la partícula de Higgs? ¿Cómo se esconde de nosotros el gravitón?
Parece que el Modelo estándar no admite la cuarta fuerza y tendremos que buscar más profundamente, en otras teorías que nos hablen y describan además de las partículas conocidas de otras nuevas que están por nacer y que no excluya la Gravedad. Ese es el Modelo que necesitamos para conocer mejor la Naturaleza.
Claro que las cosas no son tan sencilla y si deseamos evitar la necesidad de un delicado ajuste de las constantes de la naturaleza, creamos un nuevo problema: ¿cómo podemos modificar el modelo estándar de tal manera que el ajuste fino no sea necesario? Está claro que las modificaciones son necesarias, lo que implica que muy probablemente haya un límite más allá del cual el modelo tal como está deja de ser válido. El modelo estándar no será nada más que una aproximación matemática que hemos sido capaces de crear, de forma que todos los fenómenos que hemos observado hasta el presente están reflejados en él, pero cada vez que se pone en marcha un aparato más poderoso, tenemos que estar dispuestos a admitir que puedan ser necesarias algunas modificaciones del modelo para incluir nuevos datos que antes ignorábamos.
Más allá del modelo estándar habrá otras respuestas que nos lleven a poder hacer otras preguntas que en este momento, no sabemos ni plantear por falta de conocimientos. Si no conociéramos que los protones están formados por Quarks, ¿Cómo nos podríamos preguntar si habrá algo más allá de los Quarks?
El gobierno de Estados Unidos, después de llevar gastados miles de millones de dólares, suspendió la construcción del super-colisionador superconductor de partículas asestando un duro golpe a la física de altas energías, y se esfumó la oportunidad para obtener nuevos datos de vital importancia para el avance de este modelo, que de momento es lo mejor que tenemos.
“Esta relación del modelo estándar se consigue con bosones de Higgs elementales en dobletes electrodébiles; está verificado experimentalmente a más del 1%. Aquí, g y g′ son acoplamientos gaugeSU(2) y U(1) y tanθW = g′/g define el ángulo de mezcla débil.
La importante idea de una nueva interacción fuerte de gauge de fermiones sin masa en la escala electrodébil FEW que conducen a la ruptura espontánea de su simetría quiral, de la cual un sugrupo SU(2) ⊗ U(1) es de gauge débil, fue propuesta por primera vez en 1979 por S. Weinberg and L. Susskind. Este mecanismo “technicolor” es natural ya que no necesita ajuste fino de parámetros.”
Se han estado inventando nuevas ideas, como la supersimetría y el technicolor. Los astrofísicos estarán interesados en tales ideas porque predicen una gran cantidad de nuevas partículas superpesadas, y también varios tipos de partículas que interaccionan ultra-débilmente, los technipiones. Éstas podrían ser las WIMP’s (Weakly Interacting Massive Particles, o Partículas Masivas Débilmente Interactivas) que pueblan los huecos entre las galaxias, y serían así las responsables de la masa perdida que los astrofísicos siguen buscando y llaman “materia oscura”.
Que aparezcan “cosas” nuevas y además, imaginarlas antes, no es fácil. Recordemos cómo Paul Dirac se sintió muy incómodo cuando en 1931 dedujo, a partir de su ecuación del electrón, que debería existir una partícula con carga eléctrica opuesta.
Esa partícula no había sido descubierta y le daba reparo perturbar la paz reinante en la comunidad científica con una idea tan revolucionaria, así que disfrazó un poco la noticia: “Quizá esta partícula cargada positivamente, tan extraña, sea simplemente el protón”, sugirió. Cuando poco después se identificó la auténtica antipartícula del electrón (el positrón) se sorprendió tanto que exclamó: “¡Mi ecuación es más inteligente que su inventor!”. Este último comentario es para poner un ejemplo de cómo los físicos trabajan y buscan caminos matemáticos mediante ecuaciones de las que, en cualquier momento (si están bien planteadas), surgen nuevas ideas y descubrimientos que ni se podían pensar. Así pasó también con las ecuaciones de Einstein de la relatividad general, donde Schwarzschild dedujo la existencia de los agujeros negros.
Se piensa que al principio del comienzo del tiempo, cuando surgió el Big Bang, las energías eran tan altas que allí reinaba la simetría total; sólo había una sola fuerza que todo lo englobaba. Más tarde, a medida que el universo se fue expandiendo y enfriando, surgieron las cuatro fuerzas que ahora conocemos y que todo lo rigen. Tenemos los medios, en los supercolisionadores de partículas, para viajar comenzando por 1.000 MeV, hasta finalizar en cerca de 1019 MeV, que corresponde a una escala de longitudes de aproximadamente 10–30 cm. Howard Georgi, Helen Quinn y Steven Weinberg descubrieron que ésta es la región donde las tres constantes de acoplamiento gauge se hacen iguales (U(1), SU(2) y SU(3)); resultan ser lo mismo. ¿Es una coincidencia que las tres se hagan iguales simultáneamente? ¿Es también una coincidencia que esto suceda precisamente en esa escala de longitud? Faltan sólo tres ceros más para alcanzar un punto de retorno. Howard Georgi y Sheldon Glashow descubrieron un modelo genuinamente unificado en el dominio de energías de 1019 MeV tal que, cuando se regresa de allí, espontáneamente surgen las tres fuerzas gauge tal como las conocemos. De hecho, ellos encontraron el modelo; la fórmula sería SU(5), que significa que el multiplote más pequeño debe tener cinco miembros.
Materia y Energía Oscura… Un Misterio…Sin resolver.
Y, a todo esto, ¿Dónde está esa energía oculta? ¿Y donde la materia? Podemos suponer que la primera materia que se creo en el Universo fue la que llamamos (algún nombre había que ponerle) “Materia Oscura”, esa clase de Ilem o sustancia primera del Universo que mejor sería llamarla invisible, ya que, de no ser así, difícil sería explicar cómo se pudieron formar las primeras estrellas y galaxias de nuestro Universo, ¿Dónde está el origen de la fuerza de Gravedad que lo hizo posible, sino en esa materia escondida?
¡Lo dicho! Necesitamos saber, y, deseo que de una vez por todas, se cumpla lo que dejó dicho Hilbert en su tumba de Gotinga (Alemania): “Tenemos que saber, ¡sabremos!. Pero…
Está claro que todas estas ideas son fruto de la imaginación, y, muy alejadas de la realidad en el Presente. Sin embargo, si echamos una mirada hacia atrás en el Tiempo, si miramos todos los avances conseguidos en los últimos 300 años ¿Qué se podría pensar de lo que se logrará en el Futuro?
Hiperespacio, Agujeros de Gusano, “Doblar” el Espacio-Tiempo, de tal manera que, estrellas lejanas se acerquen a nosotros para poder llegar a ellas sin recorrer la distancia física que nos separa. ¿Quién puede saber lo que la mente humana podrá alcanzar “mañana”?
Lo que sí es cierto y no podemos poner en duda es el hecho de que, la Ciencia, seguirá intentando llegar a esas distancias (ahora inalcanzables), buscando atajos que burlen (que no vencer), a la velocidad de la luz en el vacío, ese límite que impone el Universo que, cuando se intenta sobrepasar, ocurren cosas extrañas.
Nuestras Mentes nos engañan y nos hacen creer que ya lo sabemos todo. Nada más lejos de la realidad. Aquí, en nuestro propio mundo, existen misterios que no podemos resolver.
Cuando ir al psicólogo no funciona:¿todas las terapias son efectivas?.
¿Por qué no funciona la terapia?
Recurrir a terapia psicológica es especialmente frecuente. Tal como se refleja en el informe científico sobre salud mental publicado por la Organización Mundial de la Salud (OMS), durante el primer año de la pandemia se observó un incremento significativo de los problemas de salud mental en todo el mundo: los casos de depresión han aumentado un 27,6 % y los de ansiedad, un 25,6 %.
Una encuesta de la Asociación Americana de Psicología (APA), hecha a profesionales de Estados Unidos y publicada en 2021, muestra que dicho incremento tiene un reflejo directo en el número de personas que acuden a terapia.
Muchos de estos profesionales (hasta un 96 %) recurrieron a la asistencia en línea, un sistema que ha proliferado durante 2020 y 2021 y que se percibe positivamente. Sin embargo, también se refleja el agotamiento derivado del hecho de tener más pacientes: casi la mitad de los profesionales indicaban sentirse exhaustos, y tres de cada diez reconocían estar atendiendo a más pacientes desde que comenzó la pandemia.
Más allá de que el aumento de pacientes o el agotamiento de los profesionales pueda influir en el éxito de un tratamiento, Pablo Vallejo, profesor de los Estudios de Psicología y Ciencias de la Educación de la UOC, apunta seis factores que hay que tener en cuenta:
La conexión terapéutica entre un paciente y su psicólogo «parece ser más importante de lo que se pensaba», comenta Vallejo. «Puede que un simple prejuicio o el sexo del terapeuta —aunque esto sea más relevante en la sexología clínica— sea una barrera infranqueable en algún momento. Es uno de los motivos por los que la terapia puede no funcionar, pero no es el único», afirma el experto.
No todas las terapias psicológicas tienen el mismo nivel de evidencia empírica ni todas las problemáticas se abordan con la misma eficacia desde las distintas terapias. «La terapia sistémica, por ejemplo, es la que mejores resultados muestra en el tratamiento de la anorexia, pero no hay ningún indicio de éxito para tratar la disfunción eréctil. Algo similar pasaría con los tratamientos cognitivo-conductuales, que son muy efectivos para algunas fobias, pero no tienen ninguna eficacia para la fobia a la sangre o las inyecciones», explica Vallejo.
El hecho de que el psicólogo acierte con la evaluación del paciente es otro de los factores decisivos a la hora de que una terapia funcione. «Hacer, por ejemplo, una terapia psicológica para un problema de origen orgánico va a implicar no solo que la terapia no aporte nada (salvo gastar tiempo y dinero), sino que se retrase el tratamiento médico pertinente», señala el profesor de la UOC.
Otra de las causas que inciden en el éxito de una terapia es, como explica Pablo Vallejo, que el terapeuta «esté casado con un enfoque y lo aplique de forma exclusiva, independientemente de lo que la evidencia empírica sugiera». El doctor Gerald P. Koocher, profesor y decano de la Escuela de Estudios de la Salud del Simmons College de Boston, incide también en este punto en su artículo «Three Myths About Empirically Validated Therapies»: indica que el terapeuta profesional debe tener la mente abierta a distintos tratamientos y tiene que estar dispuesto a actualizarse.
La falta de actualización del profesional es otro factor que hay que tener en cuenta. Un escenario de potencial fracaso es que la terapia, aun siendo la adecuada para el paciente, no se aplique correctamente porque el terapeuta no está al día y ha habido «avances que habrían reducido los tiempos de terapia o mejorado sus resultados».
Aunque el terapeuta sea adecuado, «puede que la terapia no sea la correcta porque el psicólogo, por muy bueno que sea, también se equivoca», afirma Vallejo.
La inteligencia artificial, el próximo paso en la terapia psicológica
Desde que existe la psicología como disciplina, ha habido distintas generaciones de terapias, o —como las define Vallejo— «momentos principales en la terapia psicológica». Las más antiguas son las psicodinámicas o psicoanalíticas. Algo más tarde surgen las evoluciones del psicoanálisis, así como las llamadas terapias de segunda generación, entre las que destacan la terapia cognitivo-conductual, la sistémica o la Gestalt.
Ya llegando al presente, la tercera generación está dominada por las terapias conductuales-contextuales, en las que predominan la terapia de aceptación y compromiso (ACT) o la atención plena (mindfulness). Por último, están las terapias de cuarta generación, enfocadas en los procesos centrales, es decir, en «intentar encontrar el origen del malestar y actuar sobre él con toda la artillería de la que disponemos los psicólogos», indica el profesor.
En paralelo, las terapias anteriores, como las de segunda generación, «también han ido evolucionando, por lo que se postulan como alternativas más modernas y con mayor evidencia empírica».
El terapeuta debe elegir entre todas estas herramientas. «Hay terapias mejores y peores para distintos procesos», comenta Pablo Vallejo. «Empezamos a personalizar el tratamiento en función de las características biopsicosociales de nuestros pacientes», añade. En este contexto, el experto señala que «muchos de estos avances nos llegarán gracias a la inteligencia artificial», como nueva herramienta que se incorporará a las terapias. Un ejemplo reciente es el ensayo pionero que la UOC y la UB están llevando a cabo, con la aplicación de realidad virtual en las terapias de un conjunto de jóvenes con depresión.
Qué hacer cuando la terapia no funciona
«Existe un dicho popular que dice que, cuando un médico lo hace mal, es culpa de ese médico en particular, que no sabe nada; no obstante, cuando es un psicólogo quien se equivoca, es la psicología en general la que no sirve», comenta Vallejo. Sin embargo, la visualización de los problemas mentales ha ayudado a desterrar este mito. «La idea de que el psicólogo es solo para los locos suena ya desfasada, y casi todos conocemos a algún allegado que ha ido al psicólogo», afirma el experto.
Si la terapia psicológica es cada vez más común, ¿Cómo actuar si el tratamiento no nos parece el adecuado? «Hay múltiples motivos por los que la terapia puede salir mal», explica el profesor. «Ningún profesional tiene éxito al cien por cien. Quizá lo mejor que puede hacer el paciente es identificar qué factores de la terapia no le han gustado y buscar un nuevo profesional que ponga más énfasis en esos aspectos», concluye Vallejo.
Reportaje de prensa en Periodista Digital.
Y, ahora digo Yo, que a no tardar muchos años, tendremos:
Robot Jueces, Robots niñeros
Robots informáticos Robots científicos
Robots filósofos Robot Astronauta
Y, así podríamos seguir hasta que ocupen todas las actividades humanas.
¿Qué harán los humanos cuando los robots hagan todo el trabajo?
Lo cierto es que, si le damos todo lo que nosotros tenemos, incluida la consciencia de SER, se podrían preguntar:
¿Para qué nos hacen falta los humanos?
Si acaso… ¿Cómo animales de compañía?
¡Cuidado con la Inteligencia Artificial que podría ser nuestra perdición!