martes, 28 de enero del 2020 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Estamos tratando de recrear la creación

Autor por Emilio Silvera    ~    Archivo Clasificado en Ciencia futura    ~    Comentarios Comments (8)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Como es habitual, recibo en mi correo el Boletin de la RSEF de Marzo, nº 14. Entre otras muchas noticias, me ha llamado la atención una que dice:

“Europa construirá un acelerador tres veces mayor que el LHC.  Aunque el LHC seguirá funcionando por lo menos durante dos décadas más, Europa ya empieza a pensar en su sucesor: un enorme colisionador con una circunferencia de 100 km (frente a los 27 del LHC) y capaz de alcanzar una energía de 100 TeV, siete veces superior a los 14 TeV a los que puede llegar, como máximo, el LHC. Tras alcanzar el hito de detectar el bosón de Higgs, el LHC está apagado para llevar a cabo tareas de mantenimiento y no volverá a funcionar hasta 2015. El Modelo Estándar incluye a todos los componentes fundamentales de la materia ordinaria pero no dice nada de la materia oscura ni de la energía oscura. “Tenemos muchas esperanzas de que cuando el LHC funcione el año que viene a su máximo nivel de energía podamos tener un primer atisbo de lo que es la materia oscura. Y a partir de ahí determinar los objetivos del próximo gran colisionador”, dice Heuer, Director del CERN.”

Está bien que no dejemos de avanzar y sigamos buscando aquello que desconocemos. La Naturaleza esconde muchos secretos que tratamos de desvelar  y, la hipotética “materia oscura” es uno de ellos. Hablamos y hablamos sobre algo que no sabemos si será. Tampoco sabemos de que pueda estar conformada, de dónde surgió y por qué, si emite o genera fuerza gravitatoria no emite radiación. En fin, un misterio que sería bueno resolver.

¡100 TeV! ¡100 Km de diámetro!

Si cuando se acercaba la hora de puesta en marcha del LHC salieron múltiples organizaciones planteando protestas de todo tipo, incluso alguna se atrevió a decir que el Acelerador tenía tanta energía que crearía un agujero negro que se tragaría a la Tierra. ¿Qué dirán ahora del fueuto Acelerador? Seguramente, habrá mucha más algarabía, protestas y un sin fin de manifestaciones de todo tipo. Sin embargo, el futuro… ¡Es imparable!

Somos parte del Universo ¡La que piensa!

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo y la Vida    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

                         Una buena nutrición cerebral es esencial para su evolución

Los ladrillos del cerebro: Es evidente que el estímulo la expansión evolutiva del cerebro obedeció a diversas necesidades de adaptación como puede ser el incremento de la complejidad social de los grupos de homínidos y de sus relaciones interpersonales, así como la necesidad de pensar para buscar soluciones a problemas surgidos por la implantación de sociedades más modernas cada vez.  Estas y otras muchas razones fueron las claves para que la selección natural incrementara ese prodigioso universo que es el cerebro humano.

Claro que, levantar cualquier edificio, además de un estímulo para hacerlo se necesitan los ladrillos específicos con las que construirlo y la energía con la que mantenerlo funcionando. La evolución rápida del cerebro no solo requirió alimentos de una elevada densidad energética y abundantes proteínas, vitaminas y minerales; el crecimiento del cerebro necesitó de otro elemento fundamental:

Un aporte adecuado de ácidos grasos poliinsaturados de larga cadena, que son componentes fundamentales de las membranas de las neuronas, las células que hacen funcionar nuestro cerebro.

Hoy sabemos que incluir en los alimentos que tomamos productos con ácidos grasos poliinsaturados omega-3 pueden reducir la mortandad y los ingresos hospitalarios por enfermedades vasculares de pacientes con problemas cardíacos. En ciertos territorios de la Tierra, en los que dichos productos eran abundantes de manera natural, sus habitantes se vieron benficiados de ello.

Nuestro organismo, como ya he señalado, es incapaz de sintetizar en el hígado suficiente cantidad de estos ácidos grasos; tiene que conseguirlos mediante la alimentación.  Estos ácidos grasos son abundantes en los animales y en especial en los alimentos de origen acuático (peces, moluscos, crustáceos).   Por ello, algunos especialistas consideran que la evolución del cerebro no pudo ocurrir en cualquier del mundo y, por lo tanto, requirió un entorno donde existiera una abundancia de estos ácidos grasos en la dieta: un entorno acuático.

El cerebro humano contiene 600 gramos de estos lípidos tan especiales imprescindibles su función.  Entre estos lípidos destacan los ácidos grasos araquidónico (AA, 20:4 W-6) y docosahexaenoico (D H A, 22:6 W-3); entre los dos constituyen el noventa por 100 de todos los ácidos grasos poliinsaturados de larga cadena en el cerebro humano y en el resto de los mamíferos.

Beneficios de los ácidos grasos

Una buena provisión de estos ácidos grasos es tan importante que cualquier deficiencia dentro del útero o durante la infancia puede producir fallos en el desarrollo cerebral. El entorno geográfico del este de África donde evolucionaron nuestros ancestros proporcionó una fuente única nutricional, abundante de estos ácidos grasos esenciales para el desarrollo cerebral.  Esta es otra de las circunstancias extraordinarias que favoreció nuestra evolución.

Las evidencias fósiles indican que el género Homo surgió en un entorno ecológico único, como es el formado por los numerosos lagos que llenan las depresiones del valle del Rift, el cual, en conjunto y un punto de vista geológico, es considerado un “protoocéano”.  El área geográfica formada por el mar Rojo, el golfo de Adén y los grandes lagos del Rift forman lo que en geología se conoce como “océano fallido”.  Son grandes lagos algunos de una gran profundidad (el lago Malwi tiene 1.500 metros y el lago Tanganika 600 m.) y de una enorme extensión (el lago Victoria, de casi 70.000 km2, es el mayor lago tropical del mundo).  Se llenaban, como hacen hoy, del agua de los numerosos ríos que desembocan en ellos; por eso sus niveles varían según las climatológicas regionales y estaciónales.

                                                      Islote del Lago Victoria

Muchos de estos lagos son alcalinos debido al intenso volcanismo de la zona.  Son abundantes en peces, moluscos y crustáceos que tienen proporciones de lípidos poliinsaturados de larga cadena muy similares a los que componen el cerebro humano.  Este entorno, en el que la especie Homo evolucionó durante al menos dos millones de años, proporcionó a nuestros ancestros una excelente fuente de proteínas de elevada calidad biológica y de ácidos grasos poliinsaturados de larga cadena, una combinación ideal para crecer el cerebro.

Ésta es otra de las razones en las que se apoyan algunos para sugerir que nuestros antecesores se adaptaron durante algunos cientos de miles de años a un entorno litoral, posiblemente una vida lacustre, en el “océano fallido” de los grandes lagos africanos y que nuestra abundante capa de grasa subcutánea es la prueba de circunstancia de nuestra evolución.

La realidad es que este entorno lacustre proporcionó abundantes alimentos procedentes del agua, ricos en proteínas de buena calidad y en ácidos grasos poliinsaturados.  Estos alimentos completaban la carroña incierta o la caza casi imposible.  Durante cientos de miles de años evolucionaron los homínidos en este entorno entre la sabana ardiente y las extensiones interminables de aguas someras por las que vagaban los clanes de nuestros antepasados chapoteando a lo largo de kilómetros en busca de alimento.  Este entorno único no solo garantizó los nutrientes necesarios para desarrollar el cerebro, sino que aceleró numerosos cambios evolutivos que confluirían en el Homo sapiens.

Nuestra especie es muy homogénea en sus características: somos muy similares a pesar de lo que pudiera parecer a causa de las diferencias del color en la piel o en los rasgos faciales de las diferentes poblaciones.  Tanto los de la genética homo los de la paleantropología muestran que los seres humanos, como especie, procedemos de un grupo pequeño de antepasados que vivían en África hace unos cuatrocientos mil años.

Hemos logrado determinar con precisión nuestros orígenes como especie mediante precisos análisis genéticos; por ejemplo, los estudios llevados a cabo sobre los genes de las mitocondrias pertenecientes a individuos de todas las poblaciones del mundo y de todas las razas.

Estudiando el A D N mitocondrial de miles de personas se ha llegado a formular la llamada “Teoría de la Eva Negra”, según la cual todos nosotros, los Homo sapiens, procedemos de una hembra que vivió en algún lugar de África hace unos tres cientos mil años.  Otros estudios se han realizado mediante el análisis del polimorfismo del cromosoma Y.

Teoría de “La Eva Mitocondrial” o”Eva Negra”

 

 

 

Pero tanto unos estudios otros han dado el resultado similar.  Los estudios del material genético del cromosoma Y confirman que la Humanidad tuvo un antepasado varón que vivió en África hace unos doscientos mil años.  Seria la “Teoría del Adán Negro”.  Estudios del Gen de la hemoglobina ratifican que todas las poblaciones humanas modernas derivan de una población ancestral africana de hace unos doscientos mil años compuesta por unos seiscientos individuos.

Los hallazgos paleoantropológicos ratifican el origen único y africano de nuestra especie.  Se han encontrado en diversa regiones de África algunos fósiles, de características humanas modernas, con una antigüedad de tres cientos mil y cien mil años; estos incluyen: el cráneo de kabwe (en Zambia), de 1.285 c.c.; el fósil KNM-ER-3834 del lago Turkan, en Kenia, de casi litro y medio; los fósiles encontrados en los yacimientos de Border Cave y Klassies River Mouth, de África del sur; y los esqueletos y cráneos encontrados en los enterramientos de la Cueva de Qafzeh y del abrigo de Skhul, ambos en Israel y datados en unos cien mil años.

En 1.968 se descubrieron en Dordoña el cráneo y el esqueleto de uno de nuestros antepasados, al que se denominó Hombre de Cro-Magnon.  Hoy sabemos que hace cuarenta mil años aparecieron en Europa unos inmigrantes de origen africano, que eran los primeros representantes de la especie Homo sapiens sapiens que alcanzaban estos territorios.  Llegaron con unas armas terribles e innovadoras, conocían el modo de dominar el fuego y poseían una compleja organización social; y por lo que se refiere a las otras especies de homínidos que habitaban por aquel entonces Europa, concretamente los Homo neandertales, al parecer, los eliminaron por completo.

Los cromañones poseían las características de los pobladores de las regiones próximas al ecuador: poco macizos, muy altos y de brazos y piernas largas; sus huesos eran muy livianos por aumento del medular, dentro de la diáfisis.  Los huesos que formaban las paredes del cráneo eran más finos, que los de sus predecesores.  Habían sufrido una reducción de la masa muscular.  El desarrollo de armas que podían matar a distancia con eficacia y sin requerir gran esfuerzo, como los propulsores, las hondas y, más tarde, el arco y las flechas, hicieron innecesarias una excesiva robustez.  En general, eran muy parecidos a nosotros y, hasta tal punto es así que, si cogiéramos a uno de estos individuos, lo lleváramos a la peluquería, le pusiéramos un buen traje, y lo sacáramos de paseo, se confundiría con el resto de la gente sin llamar a atención.

Llegados a este punto, no merece la pena relatar aquí las costumbres y forma de vida de esas poblaciones que, en tantos y tantos escritos hemos podido leer y conocemos perfectamente.  El objeto de todo esto era esbozar un perfil de lo que fuimos, de manera que dejemos ante nosotros la evolución por la que hemos pasado  hasta llegar aquí, y, a partir de , pensar en la evolución que nos queda hasta convertirnos en los seres del futuro que, seguramente, regirán en el Universo.

http://apod.nasa.gov/apod/image/0912/orionproplyds_hst_big.jpg

Hemos sido capaces de detectar otros sistemas solares que están en formación en Nebulosas lejanas y sabemos de lo que existe en el universo profundo. Es curioso cómo el universo tiene la curiosa propiedad de que los seres vivos piensen que sus inusuales propiedades son poco propicias para la vida, para la existencia de vida, cuando de hecho, es todo lo contrario; las propiedades del universo son esenciales para la vida. Lo que ocurre es que en el fondo tenemos miedo; nos sentimos muy pequeños ante la enorme extensión y tamaño del universo que nos acoge. Sabemos aún muy poco sobre sus misterios, nuestras capacidades son limitadas y al nivel de nuestra tecnología actual estamos soportando el peso de una gran ignorancia sobre muchas cuestiones que necesitamos conocer. Y, aunque parezca que estamos muy lejos de esas imágenes de arriba de tiempos remotos, en realidad, no estamos tan lejos de aquello y, nuestras mentes tienen gravados aquellos momentos del pasado que siguen con nosotros. Y, aunque el tiempo del universo no es como nuestro tiempo (mucho más corto y efímero), algo sí hemos podido aprender.

Nuestros corazones están dentro de la materia y, en cuanto se les da una oportunidad surgen y sienten

tenemos otra manera de mirar el universo y, cuando contemplamos el cielo cuajado de estrellas, sí sabemos lo que estamos viendo y lo que, en cada una de esas estrellas está pasando. Esta nueva manera de mirar el universo nos da nuevas ideas, no todo el espacio son agujeros negros, estrellas de neutrones, galaxias y desconocidos planetas; la verdad es que casi todo el universo está vacío y sólo en algunas regiones tiene agrupaciones de materia en forma de estrellas y otros objetos estelares y cosmológicos; muchas de sus propiedades y características más sorprendentes (su inmenso tamaño y su enorme edad, la soledad y oscuridad del espacio) son necesarias para que existan observadores inteligentes como nosotros.

 http://www.otrasfronteras.com/imagenes-n/invasion_extraterrestre.jpg

   Y… otros seres conscientes

No debería sorprendernos la vida extraterrestre (si miramos nuestra propia historia, tendremos que coincidir en el hecho cierto de que, lo mismo que pasó aquí, en la Tierra, pudo haber pasado en otros planetas que como en el nuestro, tuvieron las para el surgir de la vida), si existe, pudiera ser tan rara y lejana para nosotros como en realidad nos ocurre aquí mismo en la Tierra, donde compartimos hábitat con otros seres vivos con los que hemos sido incapaces de comunicarnos, a pesar de que esas formas de vida, como la nuestra, están basadas también en el carbono. Algunos bioquímicos dicen que no se puede descartar formas de vida inteligente basadas en otros elementos, como por ejemplo, el silicio. Por mi parte, tengo la sensación, conociendo las propiedades del Carbono y las del Silicio que, será difícil encontrar esas clases de vida, aunque…no descarto nada.

emilio silvera

¿Asombrarnos? ¡Tenemos tantos motivos!

Autor por Emilio Silvera    ~    Archivo Clasificado en El Universo asombroso    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

  No es que el Universo sea más de lo que imaginas, es que siempre será, mucho más de lo que puedas imaginar

La ciencia que estudia las leyes que determinan las estructura del Universo con referencia a la materia y la energía de la que está constituído. Se ocupa no de los cambios químicos que ocurren, sino de las fuerzas que existen entre los objetos y las interrelaciones entre la materia y la energía. Tradicionalmente, el estudio se dividía en campos separados: calor, luz, sonido, electricidad y magnetismo y mecánica (Física clásica).

el siglo XX, sin embargo, la Mecánica cuántica y la Física relativista han sido cada vez más importantes; el desarrollo de la Física moderna ha estado acompañado del estudio de la Física atómica, Física nuclear y Física de partículas, molecular…

La Física de cuerpos astronómicos y sus interacciones recibe el de Astrofísica, la Física de la Tierra, recibe la denominación de Geofísica, y el estudio de los aspectos Físicos de la Biología se denomina Biofísica. Tenemos que concluir que sin la Física, no sabríamos cómo es el universo que nos acoge y el por qué del comportamiento de la materia-energía que en él está presente.

Gracias a los aceleradores de partículas hemos podido llegar muy lejos hacia atrás en el tiempo para poder saber sobre cómo se pudo formar y, “suponer” cómo pudo surgir. Cuando llegamos a los 10-35 de segundo desde el comienzo del tiempo, entramos en un ámbito en el que las cósmicas son poco conocidas.  Si las grandes teorías unificadas son correctas, se produjo una ruptura de la simetría por la que la fuerza electronuclear unificada se escindió en las fuerzas electrodébil y las fuertes.  Si es correcta la teoría de la supersimetría, la transición puede haberse producido antes, había involucrado a la gravitación.

Aún no había Carbono que se produciría mucho más tarde, en las estrellas, mediante el efecto triple alfa

En el universo tempranop la primera materia (hidrógeno y Helio) era llevada por la fuerza de gravedad a conformarse en grandes conglomerados de gas y polvo que interacioban, producían calor y formaron las primeras estrellas a los doscientos años del comienzo del tiempo y, sus cúmulos y aglomerados se convirtieron en las primeras galaxias que, tampoco sabemos a ciencia cierta, que mecanismos pudieron seguir formarse.

Elaborar una teoría totalmente unificada es tratar de comprender lo que ocurrió en ese tiempo remoto que, según los últimos estudios está situado entre 13.700 y 15.000 millones de años, cuando la perfecta simetría -que se pensaba, caracterizó el Universo-, se hizo añicos para dar lugar a las simetrías rotas que hallamos a nuestro alrededor y que nos trajo las fuerzas y constantes Universales que,  paradójicamente, hicieron posible nuestra aparición para que , sea posible que, alguien como yo esté contando lo que pasó.

Realmente, carecemos de una teoría que nos explique lo que pasó en aquellos primeros momenmtos y, que no tengamos tal teoría no podemos esperar comprender lo que realmente ocurrió en ese Universo temprano.  Los límites de nuestras conjeturas actuales cuando la edad del Universo sólo es de 10-43 de segundo, nos da la única respuesta de encontrarnos ante una puerta cerrada. Del otro lado de esa puerta está la época de Plank, un tiempo en que la atracción gravitatoria ejercida por partícula era comparable en intensidad a la fuerza nuclear fuerte.

Así que, llegados a punto podemos decir que la clave teórica que podría abrir esa puerta sería una teoría unificada que incluyese la gravitación, es decir, una teoría cuántica-gravitatoria que uniese, de una vez por todas, a Planck y Einsteins que, aunque eran muy amigos, no parecen que sus teorías (la Mecánica Cuántica) y (la Relatividad General) se lleven de maravilla.

http://lamemoriacelular.com/blog/wp-content/uploads/2010/04/celula.png

Y, a todo esto, tenemos que pensar en el hecho cierto de que átomos, moléculas  y conexiones se pudieran estructurar en un conjunto complejo poder formar pensamientos surgidos de algo nuevo que antes no estaba presente en el Universo: ¡La Vida! Que evolucionada pudo llegar, en algún caso, a generar no sólo pensamientos sino que también, llegaron los sentimientos y nos hizo adolescentes. , estamos a la espera de que llegue la mayoría de edad, ese tiempo en el que se deja de hacer chiquilladas y la seriedad predomina en los comportamientos que están aconsejados por la sabiduría de la experiencia. Pero para que eso le llegue a la Humanidad… ¡Falta mucho, mucho, muchísimo Tiempo!

Hemos llegado a poder discernir la relación directa que vincula el tamaño, la energía de unión y la edad de las estructuras fundamentales de la Naturaleza. Una molécula es mayor y más fácil de desmembrar que un átomo; lo mismo podemos decir de un átomo respecto al núcleo atómico, y de un núcleo con respecto a los quarks que contiene.

La cosmología  sugiere que relación resulta del curso de la historia cósmica, que los quarks se unieron primero, en la energía extrema del big bang original, y que a medida que el Universo se expandió, los protones y neutrones compuestos de quarks se unieron para formar núcleos de átomos, los cuales, cargados positivamente, atrajeron a los electrones cargados con electricidad negativa estableciéndose así como átomos completos, que al unirse formaron moléculas. Si es así, cuanto más íntimamente examinemos la Naturaleza, tanto más lejos hacia atrás vamos en el tiempo.

    Todo lo grande está hecho de cosas pequeñas conformadas en la debida proporción que existan mundos, estrellas, galaxias y seres vivos

Aquí, generalmente comentamos sobre la Física pura en sus dos versiones de la Relatividad y la Mecánica Cuántica que engloba ese universo particular de lo microscópico donde se mueven las partículas que conforma todo aquello que podemos observar en el Universo y que llamamos la Materia Bariónica, y, al mismo tiempo, nos ocupamos de la interrelación que los cuerpos físicos ocurren y las fuerzas que están presentes, así como, de las constantes universales que en nuestro universo, son las responsables de que todo funcione como lo hace.

Hablamos de física y no puedo dejar de pensar en cómo la mente humana, ha podido profundizar tanto en el conocimiento de la Naturaleza hasta llegar a números tan complejos el de las constantes de la Naturaleza: la constante de Planck en sus dos versiones, h y ħ; la igualdad masa-energía de Einstein, la constante gravitacional de Newton, la constante de estructura fina (137) y el radio del electrón.

quimica8.png

En ciencias se entiende por constante física el valor de una magnitud física cuyo valor, fijado un sistema de unidades, permanece invariable en los procesos físicos a lo largo del tiempo. En contraste, una constante matemática, las constante de la Naturaleza representan un valor invariable que no está implicado directamente en ningún proceso físico. Algunas de ellas son:

  • Constante de Planck: h = E/v
  • Constante de Planck racionalizada: ℎ = h/2π
  • Igualdad masa-energía: E = mc2
  • Constante gravitacional: F = m1m2G/d2
  • Constante de estructura fina: α = 2πe2/hc
  • Radio del electrón: r0 = e2/mc2

 

                      ¡Me encantan sus mensajes!

Es verdaderamente meritorio el enorme avance que en tan poco tiempo ha logrado la Humanidad en el campo de la física. En aproximadamente un siglo y medio, se ha pasado de la oscuridad a una claridad, no cegadora aún, pero sí aceptable. Son muchos los secretos de la naturaleza física que han sido desvelados, y el ritmo parece que se mantiene a un muy meritorio ritmo gracias a inmensas estructuras que, como el Acelerador de Hadrones (LHC), nos ha llevado hacia atrás en el Tiempo muy cerca del comienzo, después del Tiempo de Planck cuando la materia y la energía se distribuyeron conformar el Universo que conocemos hoy.

¡El tiempo!, ése precioso bien está a nuestro . Sólo tenemos que ir pasando el testigo para alcanzar las  metas propuestas. Pongamos nuestras esperanzas en que no seamos tan irresponsables como para estropearlo todo. ¿Nos haremos mayors alguna vez? Tenemos que pensar a lo grande, en el conjunto universal y dejarnos de parroquialismos locales, olvidarnos del Yo y pensar en el Nosotros.

Astronomía, gravedad o electromagnetismo; cuestiones sencillas de entender los iniciados y, a veces, muy complejas para la gente corriente. Por tal motivo, si escribo sobre estos interesantes temas, mi primera preocupación es la de buscar la sencillez en lo que explico. No siempre lo consigo. Por ejemplo, expliquemos el magnetismo.

                                                                                     Magnetismo

Grupo de fenómenos asociados a los campos magnéticos. Siempre que una corriente eléctrica fluye, se produce un campo magnético; el movimiento orbital de un electrón y el espín de los electrones atómicos son equivalentes a pequeños circuitos de corriente, los átomos individuales crean campos magnéticos a su alrededor los electrones orbitales tienen un magnético neto como resultado de su momento angular. El momento angular de un átomo es el vector suma de los momentos magnéticos de los movimientos orbitales y de los espines de todos los electrones en el átomo.

Las propiedades magnéticas macroscópicas de una sustancia tienen su origen en los momentos magnéticos de sus átomos o moléculas constituyentes. Diferentes materiales poseen distintas características en un campo magnético aplicado; hay cuatro tipos de comportamientos magnéticos.

a)          En diamagnetismo, la magnetización está en la dirección opuesta a la del campo aplicado, es decir, la susceptibilidad es negativa. Aunque todas las sustancias son diamagnéticas, es una forma débil de magnetismo que ser enmascarada por otras formas más fuertes. Tiene su origen en los cambios introducidos por los campos aplicados en las órbitas de los electrones de una sustancia, siendo la dirección del cambio opuesta a la del flujo aplicado (de acuerdo con ley de Lenz).

Existe, por tanto, una débil susceptibilidad negativa (del orden de -10-8 m3 mol-1) y una permeabilidad relativa ligeramente menor que 1.

b)           En paramagnetismo, los átomos o moléculas de la sustancia tienen momentos magnéticos orbitales o espín que son capaces de estar alineados en la dirección del campo aplicado. Éstos, por tanto, tienen una susceptibilidad positiva (aunque pequeña) y una permeabilidad relativa ligeramente mayor que 1.

El paramagnetismo aparece en todos los átomos y moléculas con electrones desapareados; es decir, átomos libres, radicales libres y compuestos de metales de transición que contienen iones con capas de electrones no llenas.

También ocurre en metales resultado de momentos magnéticos asociados a los espines de los electrones de conducción.

c)          En sustancias ferromagnéticas, dentro de un cierto rango de temperaturas, hay momentos magnéticos atómicos netos, que se alinean de que la magnetización persiste después de eliminar el campo aplicado.

Por debajo de una cierta temperatura llamada punto de Curie (o temperatura de Curie), un campo magnético en aumento aplicado a una sustancia ferromagnética causará una magnetización creciente hasta un valor máximo, llamado magnetización de saturación. Esto es debido a que una sustancia ferromagnética está constituida por pequeñas regiones magnetizadas (1 – 0’1 mm de ancho) llamadas dominios.

El momento magnético total de la muestra de sustancia es el vector suma de los momentos magnéticos de los dominios constituyentes. Dentro de dominio, los momentos magnéticos atómicos individuales se alinean espontáneamente por fuerzas de intercambio, que dependen de si los espines de los electrones atómicos son paralelos o antiparalelos.

Sin embargo, en un trozo no magnetizado de material ferromagnético, los momentos magnéticos de los dominios no están alineados; cuando un campo externo es aplicado, esos dominios que están alineados con el campo aumentan de tamaño a expensas de otros.

En un campo muy intenso, todos los dominios se alinean en la dirección del campo y producen la alta magnetización observada. El hierro, el níquel, el cobalto y sus aleaciones son ferromagnéticos. Por encima del punto de Curie, los materiales ferromagnéticos se vuelven paramagnéticos.

Este gráfico muestra la precisión atómica del antiferromagnético a escala atómica con la punta de un microscopio de efecto túnel. Los átomos de hierro se colocan sobre una superficie de nitruro de cobre y obligado por dos átomos de nitrógeno (barras azules) en un arreglo regular separados por un átomo de cobre (amarillo).

d)          Algunos metales, aleaciones y sales elementales de transición, muestran otro de magnetismo llamado antiferromagnetismo. Esto ocurre por debajo de cierta temperatura, llamada temperatura de Néel, a la cual se espontáneamente una red ordenada de momentos magnéticos atómicos en la que momentos alternos tienen direcciones opuestas. No hay, por tanto, momento magnético resultante en ausencia de un campo aplicado.

En el fluoruro de manganeso, por ejemplo, esta disposición antiparalela ocurre por debajo de una temperatura de Néel de 72 K. Por debajo de esta temperatura, el ordenamiento espontáneo se opone a la tendencia normal de los momentos magnéticos de alinearse con el campo aplicado. Por encima de la temperatura de Néel, la sustancia es paramagnética.

Una forma especial de antiferromagnetismo es el ferrimagnetismo, un tipo de magnetismo mostrado por las ferritas. En estos materiales, o bien los momentos magnéticos de los iones adyacentes son antiparalelos y de intensidad desigual, o bien el de momentos magnéticos en una dirección es mayor que el número de los que hay en la dirección opuesta.

Mediante una adecuada elección de los iones de tierras raras en las redes de ferrita es posible diseñar sustancias ferrimagnéticas con magnetizaciones específicas para su uso en componentes electrónicos.

Si nos queremos referir al geomagnetismo, estaremos hablando de la ciencia que estudia el campo magnético terrestre.

Si una barra de imán es suspendida en cualquier punto de la superficie terrestre, de que se pueda mover libremente en todos sus planos, el polo norte del imán apuntará en una dirección aproximadamente al norte. El ángulo (D) entre la dirección horizontal a la que apunta y el meridiano geográfico en ese punto se llama declinación magnética. Se toma positiva al del norte geográfico y negativa al oeste. La aguja no estará horizontal salvo en el ecuador magnético. En todos los demás lugares formará un ángulo (/) con la horizontal, llamado inclinación magnética.

En todos los polos magnéticos / = 90º (+90º en el polo norte y -90º en el polo sur), y la aguja será vertical.

Las posiciones de los polos, que varían con el tiempo, eran en los años setenta aproximadamente 76, 1º N, 100º W (N) y 65, 8º S, 139º E (S). El vector intensidad (F) del campo geomagnético se determina por I, D y F, donde F es la intensidad magnética local del campo medida en gauss o teslas (1 gauss = 10-4 teslas). F, I y D, junto con las componentes verticales y horizontales de F y sus componentes norte y este, son llamados los elementos magnéticos.

Esta explicación del geomagnetismo podría ser más larga y completa, con muchos más técnicos y matemáticos, sin embargo, ¿a quién le gustaría? A eso me refería antes cuando decía “…mi primera preocupación es la de buscar la sencillez en lo que explico. No siempre lo consigo.

                                    Si el tema no interesa… cual irá a lo suyo

Si a continuación pongo un ejemplo práctico y explico el magnetismo de manera muy técnica y completa, que seguramente no sea del interés del lector de ciencia no iniciado. Éste no quiere estas complejidades que, por muy perfectas que puedan resultar técnicamente hablando, siempre les resultarán aburridas, tediosas, y lo que es peor, incomprensibles.

Los buenos escritores-divulgadores de la ciencia deben contar los fenómenos naturales revistiéndolos de un atractivo y misterioso toque mágico que se se muestre ante los ojos de la mente del lector y,  produciéndoles asombro y sorpresa por tales maravillas queden embebidos en el relato y en las cosas maravillosas que allí se están tratándo. Y, en Física, amigos míos, casi todo lo que te enciuentras son maravillas de la Naturaleza que, comienzas a comprender… ¡Es imposible dejar de mirar!

Si contamos la historia de una estrella, que nace a partir del gas y del polvo cósmico hasta que muere en una explosión de supernova para convertirse en otro objeto estelar diferente, al oyente le resultará atractivo o pesado, interesante o incomprensible, según quién y cómo lo cuente.

Me preocupa cuando escribo que lo que estoy contando pueda aburrir al posible lector.Siempre procuro ceñirme a la verdad científica y exponer los hechos con la veracidad requerida y, sin embargo, eso es totalmente posible aunque le podamos dar un pequeño toque de fantasía que lo hará más atractivo. Claro que, por mucho que querámos fantasear sabemos que en el mundo y en todo el Universo, las leyes que rigen son iguales todo y para todos y lo que pasa aquí también pasará allí, aunque ese allí esté a miles de millones de años-luz de nosotros.

         Aquí tenemos un ejemplo de lo que digo, la Naturaleza se repite

En los extraños mares de otros planetas, sin tener en la composición química, es difícil imaginar que la evolución de lugar a una forma más sencilla de locomoción que la que se produce ondulando colas y aletas. Que la propia evolución encontraría este tipo de propulsión viene avalado por el hecho de que, incluso en la Tierra, esta evolución se ha produción de manera totalmente espontánea e independiente. Los peces desarrollaron la propulsión cola-aleta; después, ellos mismos evolucionaron hasta convertirse en tipos anfibios que se arrastraban por tierra firme hasta llegar a ser reptiles. Lo cierto es que hemos llegado a saber que, de una u otra manera, ¡la vida se abre camino!

Por ejemplo, en nuestro planeta el ornitorrinco representa la primera rama de mamíferos a partir de un ancestro con características de ambos mamíferos y reptiles de hace 166 millones años. De alguna manera se mantiene una superposición de funciones, mientras que los mamíferos posteriores perdieron sus rasgos de reptil. Comparando el genoma del ornitorrinco con el ADN de otros mamíferos, incluidos los seres humanos que llegaron a lo largo del transcurso del tiempo, y los genomas de los pájaros, que bifurcan hace 315 millones años, ayuda a definir la evolución.

Algunos  reptiles fueron evolucionando y dieron lugar a a los mamíferos. Pero cuando algunos de estos últimos regresaron al mar (los que luego han sido ballenas y focas, por ejemplo), sus piernas volvieron a evolucionar las formas de las aletadestinadas a la propulsión por el medio acuatico y a la navegación.

Aunque la vida tardó más de diez mil millones de años en acto de presencia -al menos en la Tierra y, seguramente en otros planetas también- en sus formas más primitivas, supo adaptarse y evolucionar hasta llegar al momento presente en el que, sólo el uno por ciento de las especies que han existido en el planeta están vivas, el resto no pudo soportar los cambios y al no adaptarse, se extinguieron. Así seguirá siendo siempre: Adaptarse o morir.

Sí, es posible que hoy seámos nosotros la especie predominante en el planeta Tierra , no debemos olvidar que no siempre ha sido así. Antes ni estábamos aquí y, durante ciento ciencuenta millones de años reinaron en nuestro mundo aquellos terribles lagartos, los Dinosaurios que desaparecieron hace sesenta y cinco millones de años para que nosotros, pudiéramos aparecer y evolucionar hasta conseguir hablar de mecánmica cuántica y relatividad general pero… ¿Y mañana? ¿Seguiremos siendo la especie dominante?

Yo no estaría tan seguro de eso. El mañana es incierto

La Tierra con sus especies de vida seguirá su camino adelante, siempre hacia el futuro incierto y desconocido que dependerá de ¡tántas cosas! Y, mientras tanto, como hemos mantenido siempre, en otros mundos distintos al nuestro y repartidos por los confines de nuestra propia Galaxia y de muchas otras que albergan mundos ignotos, otras criaturas estarán elucubrando sobre las mismas cuestiones que nosotros lo hacemos poder discernir sobre el saber del mundo, de la Naturaleza, del Universo.

¿Qué puede haber en Gliese 581 g? Hemos llegado a más de mil mundos extraterrestres que es como un grano de arena en la inmensa playa del Universo, y, cientos de miles de millones de mundos estan exparcidos por las galaxias que pueblan el Cosmos y, en muchos de ellos, extrañas y enigmáticas criaturas habrán podido desvelar secretos de la materia y de la luz, del átomo y de las estrellas y, también como nosotros estarán pensando en cómo poder llegar hacia esos otros mundos que albergan vida e inteligencia.

Nosotros seguiremos avanzando aquí y “ellos” también lo harán “allí” donde quiera que ese “allí” pueda encontrarse que, será lejos, muy lejos. Tan lejos estamos de esos otros seres inteligentes que el hecho cierto de que no lo hayamos podido ver aún, nos habla de que, como nosotros, necesitan evolucionar mucho más que, ese se pueda producir.

Tampoco sería descabellado pensar que, la Naturaleza, tan sabia ella, tenga dispuesto que las especies estén cada una en su lugar, sin molestarse ni interferirse entre sí, que evolucionen en su propio entorno sin ingerencias que siempre vendrán a distorsionar lo que ya existe para cambiarlo en el mejor de los casos, o, aniquilarlo en el peor.

¿Quién sabe?

emilio silvera

Nanofotónica: luz + nanopartículas = Futuro tecnológico

Autor por Emilio Silvera    ~    Archivo Clasificado en Hacia el futuro    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

  «

Han pasado ya cincuenta años desde que Richard Feynman dictara su famosa charla:  There is plenty of room at the bottom: An invitation to enter a new field of physics (Hay suficiente espacio en el fondo: Una invitación a entrar en un campo en la Física). En ella estableció que las leyes de la Física no impiden manipular las cosas átomo a átomo; -es algo que se pero no se ha hecho debido a que somos demasiado grandes hacerlo-.

Desde entonces se ha estado buscando la manera de poder diseñar los materiales átomo a átomo. De hecho, los materiales nanoestructurados ya han sido utilizados en aplicaciones prácticas, siendo importantes en nuestra vida diaria. El color rojo de los vitrales en las catedrales góticas de Europa se obtenía utilizando nanopartículas de oro; la película fotográfica utiliza nanopartículas de plata; los bloqueadores solares utilizan nanopartículas de dióxido de titanio y de zinc como parte activa. El primer caso es una aplicación del efecto nano del oro y es quizás la primera aplicación de la nanotecnología. Quizás el mayor desarrollo de las nanoestructuras se dio con el descubrimiento de la microscopia de fuerza atómica ya que con esta se podía manipular a los átomos o partículas muy pequeñas. Hoy día, la investigación en el campo de los materiales nanoestructurados se ha multiplicado y sus aplicaciones abarcan todas las disciplinas convirtiendo a la nanotecnología en un campo interdisciplinario. Muchos países han implementado programas especiales para la investigación en este campo invirtiendo grandes cantidades de dinero. La apuesta puede ser de alto riesgo, pero el premio promete ser enorme.

200

                 Richard Feynman

Hoy día se estima el mercado de la nanotecnología en cientos de miles de millones de dólares. Nuestro país también ha apoyado la iniciativa aunque en menor proporción. De hecho la nanotecnología no es una prioridad dentro de nuestro sistema de investigación, no hay programas especiales de apoyo económico en este tópico y se compite por igual con todas las áreas. Con pocos recursos económicos se tiene poca infraestructura y en general grupos pequeños lo que dificulta la capacidad para competir. Aún con estas limitaciones, se han obtenido excelentes resultados y hay grupos en nuestro país que cuentan con reconocimiento internacional.

      Materiales nanoestructurados y nanotecnología

Los materiales nanoestructurados (NEMs, por siglas en inglés) han despertado rápidamente un gran interés debido a la diversidad de sus aplicaciones. De acuerdo a la definición más aceptada, los materiales nanoestructurados son aquellos en los que por lo una de sus dimensiones se encuentra en el rango de 1-100 nm. Es decir, los NEMs son tres órdenes de magnitud más pequeños que los MEMS (sistemas microelectromecánicos, por sus siglas en inglés), e incluyen nanopartículas, nanocristales, nanoalambres, nanobarras, nanotubos, nanofibras, nanoespumas, etc. Los NEMs pueden ser semiconductores, dieléctricos, metales, orgánicos, inorgánicos, aleaciones, biomateriales, biomoléculas, oligómeros, polímeros, etc.

Nos sorprendería saber en qué lugares están presentes los cristales fotónicos con las nuevas técnicas alcanzadas en la nanotecnología

Aunque existen sistemas nanoestructurados de dimensiones mayores son los cristales fotónicos. En el rango de nanómetros, los materiales presentan propiedades ópticas, eléctricas, magnéticas y mecánicas únicas y totalmente diferentes de los materiales en el rango de los micrómetros o milímetros llamados también materiales en bulto.

tener una idea de que tan pequeño es un nanómetro podemos mencionar que un milímetro tiene un millón de nanómetros; el diámetro del cabello humano mide 10,000 y 50,000 nanómetros; los glóbulos rojos y blancos miden entre 2 y 5 nanómetros mientras que el ADN mide 2.5 nanómetros.

Los superátomos de silicio pueden formar, por ejemplo, nanotubos. Además, se les agregar un metal de transición con el objetivo de cambiar sus propiedades eléctricas, lo que se denomina dopaje. Cuando el superátomo es de anión (tiene carga eléctrica negativa, le sobran electrones), “se le dopa con un metal alcalino, como el potasio”, que tiene un electrón en su nivel energético más externo. Del mismo modo, cuando son cationes (con carga negativa, al perder electrones) se les dopa con un metal halógeno, que necesita un electrón más completar su último nivel energético.

Las propiedades de los NEMs son dominadas por los efectos de superficie mientras que las de los materiales en bulto son debidas a un efecto de volumen. La tecnología su producción y uso se ha convirtiendo en una industria muy poderosa: la nanotecnología. La nanotecnología es la ciencia e ingeniería de producir materiales o estructuras funcionales de unos cuantos nanómetros. Es la tecnología del futuro con la cual se desarrollarán los nuevos materiales y dispositivos. Las aplicaciones son sorprendentes así como variadas, por ejemplo, la industria optoelectrónica y fotónica, biomedicina, sensores, celdas solares y de combustible, catálisis, memorias ópticas, procesadores de computadoras, fotodetectores, herramientas de corte, industria aeronáutica, moduladores e interruptores, cosméticos, etc. Aunque todas las aplicaciones son de gran interés, sin duda alguna las aplicaciones en sistemas biológicos son las más sobresalientes. Especialmente las aplicaciones de las propiedades ópticas de los sistemas nanoestructurados.

La Tecnología fundamental del siglo XXI: Nano Tecnología

Uno de sus apartados es la Nanofotónica

Esas nuevas formas, la nanotecnología, entrará en el “universo” de la mecánica cuántica, en el mundo infinitesimal, y, se lograrán cosas que , serían impensables. Posiblemente, la primera visita que hagamos a un mundo habitado por otros seres, estará tripulada por seres nanotecnológicos que, al igual que la misma nave, tengan medidas tan pequeñas que serán imposibles de observar y, sin embargo, estarán dotadas de adelantos tales que, podrán medir, evaluar, estudiar, captar imágenes, enviar por medios desconocidos, y, en fin, serán las avanzadillas de lo que irá después, la visita de humanos a otros mundos.

La nanofotónica es la fusión de la nanotecnología y la fotónica. Es un campo multidisciplinario que estudia las propiedades ópticas de los sistemas nanoestructurados y la interacción luzmateria a nivel nanoscópico. Ya mencionamos que las propiedades ópticas de las nanopartículas son dominadas por los efectos de superficie. Así, controlando el tamaño de las nanopartículas o nanoestructuras podemos controlar o amplificar ciertas propiedades de los sistemas bajo estudio. En general, las nanoestructuras pueden ser de tres tipos, semiconductoras, dieléctricas y metálicas.

La Nanotecnología marcará nuestro futuro. De ella partirán las nuevas ideas e instrumentos, los nuevos modos de construir lo que queda por venir, nuevas maneras de sondear el espacio “infinito”, de curar enfermedades, de sustituir órganos vitales, de construir robots.

Curiosamente, existe una creencia bastante arraigada en amplios sectores de la comunidad científica de que la fotónica (conjunto de tecnologías relacionadas con la luz) es un campo que cae fuera del universo de la nanotecnología. La creencia se apoya en el clásico criterio de Rayleigh de que la resolución espacial de un sistema óptico está limitada por la longitud de onda de la luz (≈ 500 nm), y por ello es próxima al micrómetro, muy lejos de los requisitos de la nanotecnología.

Yo, por mi , estimo que división es sin duda errónea, y hoy en día la fotónica está íntimamente implicada con la nanotecnología, e incluso se hablar propiamente de nanofotónica, de igual manera que se hablar de nanoelectrónica o de nanomagnetismo.

                                               sepamos conectar de manera conveniente todas las disciplinas del sabe Humano… ¡Las cosas cambiaran!

Decía que:  “En general, las nanoestructuras pueden ser de tres tipos, semiconductoras, dieléctricas y metálicas”.  una de ellas produce fenómenos de especial interés interactúan con una señal óptica, pudiendo así ser aplicadas en diferentes campos. Un campo de especial interés es la biología.

El estudio de las propiedades luminiscentes de sistemas nanoestructurados en sistemas biológicos es el campo de estudio de la bionanofotónica. Especialmente trata sobre el estudio de sistemas nanoestructurados en aplicaciones biomédicas. Diferentes nanopartículas han sido propuestas para ser utilizadas en la detección de bajas concentraciones de diferentes elementos como células cancerigenas, virus, ADN, ARN, proteínas, etc. También han sido utilizadas para la entrega de medicamentos en dirigida y controlada así como para la destrucción de tumores cancerigenos. En la última década, los avances han sido sorprendentes pero aún hay mucho por hacer. En el CIO, durante los últimos 6 años hemos trabajando en la síntesis de nanopartículas y estudiado sus propiedades ópticas a fin de poder ser utilizadas en distintas aplicaciones.

Las propiedades luminescentes de nuestras nanopartículas son muy interesantes y prometen grandes oportunidades de aplicación en diferentes áreas.

puntos.png

Nanopartículas semiconductoras o puntos cuánticos

Los nanocristales semiconductores también llamados puntos cuánticos son nanoestructuras a base de materiales semiconductores inorgánicos y representan el grupo donde el efecto del tamaño es más evidente. El tamaño nano da lugar a lo que se conoce confinamiento cuántico, que no es más que la localización de los electrones en un espacio bien definido, es poner un electrón en una caja. Mientras que tamaños mayores los electrones están no localizados. El confinamiento produce un ensanchamiento de la banda de energía prohibida del semiconductor así la aparición de sub-bandas discretas en la banda de valencia y de conducción. Las dimensiones típicas oscilan uno y diez nanómetros.

Con frecuencia se les describe como átomos artificiales debido a que los electrones están dimensionalmente confinados como en un átomo y sólo se tiene niveles de energía discretos. las nanoestructuras más estudiadas se encuentran las de CdSe/ZnS, CdSe/CdS, InP/ZnSe, CdTe/CdSe, entre otras. El resultado más vistoso de estas nanoestructuras es la capacidad poder sintonizar la longitud de onda o color de la emisión.

Así, con un solo material y variando el tamaño de la nanopartícula es posible obtener múltiples colores o longitudes de onda de la señal emitida. Las aplicaciones son impresionantes y apuntan en todas las direcciones. Por ejemplo, podrían ser utilizados como colorantes inorgánicos sin problemas de degradación a diferencia de los colorantes orgánicos. También podrían ser utilizados en el diseño de los nuevos amplificadores ópticos de amplio ancho de banda tan importantes en los sistemas de comunicación óptica; en este caso nanopartícula con un diámetro determinado funcionaría como un amplificador, así el ancho de banda se determina con la selección adecuada de los diámetros de las partículas. O bien la producción de fuentes de luz blanca mediante excitación con un LED u OLED o por electroluminiscencia.

Quizás una de las aplicaciones que mayor atención ha recibido es en su uso como etiquetas fluorescentes con emisión en la región visible del espectro, para la detección de una gran variedad de compuestos entre ellas células cancerigenas. Las técnicas actuales no detectan bajas concentraciones de células cancerigenas o compuestos de interés, por lo que la técnica de detección de fluorescencia de nanopartículas es una gran promesa para la detección temprana de este mal, para así incrementar el éxito en el tratamiento. Dado el tamaño tan pequeño de los puntos cuánticos actualmente se intenta desarrollar nanoestructuras más complejas formadas por puntos cuánticos o nanocristales acomplejados con diferentes componentes que desempeñan distintas funciones, detección, entrega de medicamento dirigido, efecto de la terapia, etc. Es decir, se busca una nanoestructura inteligente con múltiples funciones. El problema que presentan los puntos cuánticos es que son poco estables ya que tienden a aglomerarse, además de que se excitan con una fuente de luz UV donde la mayoría de los compuestos que se pueden encontrar en interior del cuerpo humano emiten luz lo que significa pérdida de contraste en la imagen de la célula deseada.

Nanopartículas dieléctricas o nanocristales

Los nanocristales dieléctricos son óxidos que presentan una banda de energía prohibida muy ancha y como consecuencia requieren altas energías de bombeo o luz en el UV obtener emisión que en general es débil, aunque cuando se combina en adecuadacon diversos componentes son excelentes emisores de luz debido a su eficiencia y alta estabilidad. Son excelentes matrices soportar iones de tierras raras que son muy buenos emisores de luz. En este caso no se observan efectos de confinamiento debido a que los electrones se encuentran localizados en orbitales atómicos del ion activo. Sin embargo, la dinámica de los iones emisores de luz se ve afectada por la interacción a nivel nanoscópico lo que producir una mejora en la eficiencia de emisión.

los nanocristales mas estudiados se encuentran algunos silicatos como Y2SiO5, la combinación nY2O3 + mAl2O3 que comprende puramente el óxido de itria, puramente el óxido de aluminio, cuando se combinan con n=3 y m=5 da lugar a la estructura cristalina mas utilizada en óptica producir láseres conocida como YAG, o YAP la combinación n=m=1 que corresponde a uno de los cristales mas sensibles a laradiación ionizante y que es utilizado para la detección de rayos X o rayos gama. El óxido de titanio (TiO2) y el óxido de zinc (ZnO) que se utilizan en los bloqueadores solares además de ser excelentes para los procesos de fotocatálisis, útiles en la reducción de contaminantes, para celdas solares y como bactericida.

Recientemente, hemos demostrado que el óxido de zirconio (ZrO2) combinado con otros elementos bloquea el rango completo de la luz ultravioleta, especialmente aquella región que produce el . Este mismo nanocristal presenta excelente respuesta en la detección de radiación ionizante, UV, rayos X, gama, beta y alfa, tanto en tiempo real como en acumulada lo que sugiere buenas oportunidades para su uso en el diseño de dosímetros para la cuantificación de dosis recibidas.

Además, es excelente soporte para iones de tierras raras, con las cuales hemos obtenido luz visible (azul, verde y rojo) excitando con una fuente en el cercano infrarrojo. Ya que con fuente solo se excitan los nanocristales no hay emisión de fondo lo que mejora el contraste de las imágenes obtenidas. Estas características convierten a estos nanocristales en excelentes candidatos en aplicaciones biomédicas para la detección de diversos elementos a concentraciones bajas. La fabricación de estos nanocristales implica un tratamiento térmico para el proceso de oxidación lo que induce un tamaño de partícula grande. Se han reportado tamaños de partícula 10 a 90 nm.

                          Lo curioso es que en todo, siempre está la Luz presente

Muchas veces se obtienen cristales muy pequeños pero con poca eficiencia de emisión, el reto es obtener mayor eficiencia de emisión sin incrementar demasiado el diámetro de las nanopartículas. Tamaños promedios con los que se han obtenido excelente eficiencia de emisión son 40 y 60 nm.

Nano partículas metálicas, plasmones.

Las nanopartículas metálicas tienen la habilidad de esparcir y absorber la luz incidente. En caso, los efectos en las propiedades ópticas respecto a su contraparte en bulto se derivan de los efectos electrodinámicos y de la modificación del ambiente dieléctrico. A escala nanométrica la frontera metaldieléctrico produce cambios considerables en las propiedades ópticas.

resultado de la interacción la nanopartícula metálica y la señal óptica se obtiene la oscilación colectiva de electrones de superficie lo que genera bandas de resonancia conocidas como plasmones localizados o plasmones de superficie localizados. La longitud de onda o color a la que se obtiene dicha resonancia se le conoce como banda de absorción del plasmón que depende tanto del tamaño como de la de la nanopartícula y es lo que da lugar a la diferente coloración observada. Las nanoestructuras metálicas más conocidas son partículas esféricas, barras y películas con núcleo dieléctrico. Aunque más recientemente se han reportado otras estructuras como cubos, triángulos, estrellas y ovoides. En todos los casos, la banda de resonancia se recorre hacia el cercano infrarrojo en comparación con las nanopartículas esféricas cuya banda centrada en la región verde del espectro.

Los plasmones producen en la interfase un campo eléctrico intensificado que a su vez intensifica varios procesos ópticos lineales y no lineales. El campo eléctrico producido es utilizado como una interfase sensible a las interacciones ópticas y se convierte en una poderosa herramienta el monitoreo óptico y para la formación de imágenes ópticas

localizadas. Una de las aplicaciones establecidas es de superficie mejorada (SERS por sus siglas en inglés). En este caso el espectro Raman de un componente cercano a la superficie metálica se ve fuertemente amplificado. Se ha demostrado que es posible amplificar el campo 11 000 veces más cuando las partículas presentan cierta aglomeración. Otros fenómenos que presentan amplificación son la espectroscopia infrarroja de superficie mejorada, espectroscopia de fluorescencia

y la espectroscopia de resonancia de plasmones de superficie. Todas estas técnicas son complementarias y son utilizadas en la detección de componentes químicos y bioquímicos a nivel de trazas.


Células modificadas y célula cancerigena que la nanofotónica podrá modificar e incluso regenerar en el fiuturo.

Quizás un proyecto más ambicioso es el de poder detectar células cancerigenas a temprana edad de lo cual ya se han reportado importantes avances. En el CIO trabajamos con nanopartículas de oro y plata a fin de desarrollar sensores ópticos la detección de diferentes compuestos a nivel de trazas y estamos aplicado exitosamente nanopartículas deoro en la detección de células cancerigenas.

En resumen, las nanoestructuras presentan propiedades ópticas únicas que no presentan su contraparte en bulto o de escala mayor. Éstas están siendo utilizadas para el desarrollo de la nueva generación de dispositivos optoelectrónicos y/o fotónicos. Las aplicaciones son muy variadas y abarcan muchos campos haciendo de la nanociencia y nanotecnología una área

multidisciplinaria. Especial atención recibe el uso de dichas propiedades en aplicaciones biomédicas para la detección a nivel de trazas de diversos agentes patógenos. El estudio de las propiedades ópticas de las nanoestructuras ha definido una nueva área conocida como nanofotónica.

¡El futuro está aquí!

emilio silvera

La Física de Partículas al Servicio de la Salud

Autor por Emilio Silvera    ~    Archivo Clasificado en El CERN    ~    Comentarios Comments (4)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Transferencias tecnológicas del CERN a la Biomedicina. Hay una parte de las actividades en el CERN en la que también interviene el LHC que, es poco conocida por el pueblo llano. Allí, no solo se trata de hacer colisionar haces de partículas para llegar a lo más profundo de los componentes de la materia, sino que, además, se realizan múltiples actividades tecnológicas encaminadas a mejorar la vida de las personas.

 

En realidad, en el CERN, se trabaja en algo más que en las partículas subatómicas y se buscan nuevas respuestas y remedios para paliar el dolor en el mundo. También, se ha contribuido de manera notable a las comunicaciones y, el mundo es tal como lo conocemos hoy gracias a Ingenios como el LHC que, por desconocimiento de muchos, en su mpomento, fue tan denostado.

                                                                                                           

                                                                                                                                         Partículas y más

Seguramente la mayoría de los lectores de la Revista Española de Física han oído más de una vez hablar del CERN. Fundado en 1954, constituye el mayor laboratorio de física de partículas del mundo, con veinte países miembros y un de unas 3.000 personas entre físicos, ingenieros y personal técnico y administrativo de todo tipo. Seguramente están también al tanto de los grandes experimentos que se están preparando en este centro como el Large Hadron Collider (LHC), situado en un túnel circular de 27 km de longitud, destinado a elucidar el origen de la llamada ruptura de la simetría electrodébil y en última instancia el origen de las masas de las partículas elementales (no de la masa del protón o del neutrón como erróneamente se dice a veces en los medios de comunicación), o del proyecto CERN Neutrino Gran Sasso (CNGS), que consiste en enviar un haz de neutrinos de alta energía desde el CERN al laboratorio subterráneo italiano del Gran Sasso que se encuentra a 730 km, para estudiar las oscilaciones de estas huidizas partículas.

También es muy probable que muchos lectores asocien de manera natural la palabra acelerador de partículas  a los instrumentos que utilizan los físicos modernos para estudiar y comprender mejor la estructura y el comportamiento de la materia a pequeñas escalas. Sin embargo, de los 17.000 aceleradores de partículas que se estima existen en la actualidad en todo el mundo, aproximadamente la mitad de ellos se usan en y sólo una parte muy pequeña se usan para investigación fundamental. Por este y otros motivos que se discutirán más adelante, en este número especial de la Revista Española de Física dedicado a la física y las ciencias de la vida, ha parecido conveniente incluir un artículo en el que, al menos brevemente, se describieran algunas de las transferencias tecnológicas (spinoffs) importantes que la actividad del CERN aporta a dichas ciencias.

         de lo que aquí se descubre, se aplica a nuestra Salud

Es bastante razonable que, como ocurre con las ciencias del espacio, mucha gente se pregunte cuál es la utilidad social de la física de partículas más allá  de la adquisición de conocimientos fundamentales de la naturaleza. Sin embargo, es preciso señalar que los aceleradores y detectores de partículas del CERN y otros laboratorios similares requieren el uso, y muchas veces el desarrollo, de tecnologías de punta que obligan a una estrecha colaboración con la industria  que redunda en beneficio de ambas partes. Las transferencias tecnológicas que se producen en este proceso se incorporan inmediatamente a nuestra vida diaria en áreas tales como la electrónica, procesamiento industrial y médico de , manejo y usos de la radiación , metrología, nuevos materiales, tecnologías de la computación y la información, tratamiento del cáncer, etc. En este artículo se pondrá el énfasis en aquellas actividades del CERN que han redundado de una forma más clara en beneficio de las ciencias biomédicas.

                                                                  PET/TC o allá de los rayos X

En el ámbito de la medicina los aceleradores de partículas se utilizan con dos finalidades; una para la formación de con propósitos diagnósticos y otra, para terapia, principalmente oncológica. Desde el descubrimiento de los rayos X por Röntgen en 1895, este tipo de radiación electromagnética ha proporcionado una información de valor incalculable y aún sigue proporcionándola. Sin embargo, mucho más recientemente, se han desarrollado otras técnicas complementarias de diagnóstico basadas en los llamados radiofármacos. Estas sustancias radiactivas presentan idealmente la propiedad de poder ser inyectadas en el organismo humano de forma segura y de fijarse a determinados tejidos. Posteriormente, a medida que van desintegrándose, emiten ciertas partículas que pueden ser detectadas y analizadas produciendo de esta forma imágenes estáticas o incluso dinámicas de los órganos en los que se depositaron los radiofármacos y, en definitiva, proporcionando información no solamente sobre la morfología de aquellos, sino también, en muchos casos, sobre su función y metabolismo.Los radiofármacos se producen utilizando haces de protones de alta intensidad y, como tienen una vida media muy baja, deben utilizarse cerca de donde se han creado. Se calcula que unos 20 millones de personas son diagnosticadas cada año mediante el uso de este tipo de sustancias.

Son técnicas no invasivas que dejan al descubierto lo que interesa ver y eliminar.

Una de las técnicas de este tipo más utilizada en la actualidad es la Positron Emission Tomography (PET). En su se utiliza normalmente un ciclotrón para irradiar alguna sustancia que se convierte en radiactiva por desintegración beta positiva (emisora de positrones). Esta sustancia se une por ejemplo a la glucosa y se inyecta al paciente. Los positrones producidos se aniquilan con los electrones circundantes dando lugar a dos fotones de energía muy bien definida, emitidos en direcciones opuestas. Estos fotones interaccionan con un material escintilador dando lugar a la emisión de otros fotones que pueden ser detectados por fotomultiplicadores o fotodiodos para formar la de los tejidos que se pretenden estudiar en función de la distribución de la glucosa radiactiva. Por ejemplo, en el caso del diagnóstico del cáncer las células cancerosas suelen consumir más glucosa que las células sanas debido a su mayor vascularización y a su mayor actividad metabólica y reproductiva, produciendo por tanto una mayor emisión de fotones. Por el contrario, las zonas donde el tejido presente mayor número de células muertas brillarán menos debido a la menor concentración de glucosa radioactiva, lo cual puede ser muy útil para el diagnóstico de infartos y otras lesiones.

         Tecnológias que llegan más allá

De con David Townsend, uno de los pioneros en el desarrollo de la tecnología PET, aunque ésta no fue inventada en el CERN, una cantidad esencial e inicial de trabajo desarrollado en el CERN  a partir de 1977 contribuyó de forma significativa al desarrollo del PET 3D. La tecnología PET alcanza su grado más alto de utilidad diagnóstica cuando se combina con la Computed Tomography (CT). La CT es un método de formación de imágenes tridimensionales a partir del procesamiento digital de un gran número de imágenes bidimensionales de rayos X. Inicialmente, las diferentes se obtenían alrededor de un solo eje de rotación y de ahí su nombre original de Computed Axial Tomography (CAT).

La técnica combinada PET/CT es uno de los desarrollos más excitantes de la medicina nuclear y la radiología modernas. Las reconstrucciones de CT permiten el diagnóstico precoz de tumores basándose en sus características morfológicas, mientras que la tecnología PET es capaz de diferenciar con grane eficiencia los tejidos malignos de los benignos. La fusión PET/CT permite ahora integrar las imágenes morfológica y fisiológica en una única imagen. El prototipo del scanner ART, el Partial Ring Tomograph (PRT), fue desarrollado en el CERN en 1980 y 1990 por David Townsend, Martín Wensveen y Henri Tochon-Danguy, y evaluado clínicamente en el departamento de medicina nuclear del Hospital Cantonal de Ginebra. ART puede considerarse como el precursor de la parte PET del moderno scanner PET/CT, que ha producido un impacto extraordinario en la tecnología de imágenes con fines médicos. Además, el CERN continua hoy en día contribuyendo a este campo fundamental de la medicina moderna mediante proyectos como Clear PET, Clear PEM, HPD PET etc.

Sin embargo, la importancia del CERN en el desarrollo de las tecnologías PET o CT, y en general de todo tipo de scanner, va más allá. En efecto, todo este tipo de dispositivos se basa, de una forma u otra, en los detectores desarrollados a finales de los  sesenta en el CERN por George Charpak. Su trabajo fue reconocido en 1992 con la concesión del Premio Nobel de Física por su invención y desarrollo de detectores de partículas, en particular de la cámara proporcional multihilos, que produjo una revolución en la técnica de exploración de las partes más íntimas de la materia. Los detectores desarrollados por Charpak se usan aún para todo tipo de investigaciones médicas y biológicas y podrían eventualmente sustituir completamente a las placas fotográficas en la radio-biología aplicada. La velocidad creciente con la que permiten las imágenes en radio medicina conducen a una menor tiempo de exposición y a menores dosis de radiación indeseada recibida por los pacientes.

Hadronterapia, o las partículas contra el cáncer

Como es bien sabido, una de las herramientas terapéuticas esenciales en el de la oncología es la radioterapia. Dicho tratamiento se aplica hoy en día aproximadamente a la mitad de los pacientes de cáncer. En cierto modo se puede considerar como una forma sutil de cirugía donde el bisturí es reemplazado por un haz colimado de partículas capaz de esterilizar las células malignas mediante la inactivación de su ADN, impidiendo así su reproducción. Tradicionalmente, la radioterapia se ha basado en el uso de rayos X (fotones), electrones y, más recientemente, hadrones, es decir, partículas capaces de interaccionar fuerte o nuclearmente, si bien no es ésta la propiedad más interesante de estas partículas para las radioterapeúticas. Los haces de rayos X y los electrones se obtienen normalmente a partir de aceleradores lineales como los del CERN, aunque mucho más pequeños, y se apuntan hacia los tumores con la energía, dirección y colimación apropiadas para optimizar su efecto destructivo sobre los mismos. Por su parte, los neutrones pierden energía en el interior del organismo de una forma diferente, lo cual les hace más indicados para el tratamiento de ciertos tipos especiales de tumores. Se obtienen a partir de las colisiones de protones, previamente acelerados en un ciclotrón, con núcleos de berilio. Este hecho hace que esta terapia sea bastante más cara que las anteriores, pero a cambio el ciclotrón puede ser usado también para la producción de radiofármacos.

                                      Cintíficos del CERN aplivcan antimateria contra el Cáncer

El estudio de las posibilidades de utilización de haces de hadrones en la terapia del cáncer tuvo su origen en el trabajo seminal de R.R Wilson titulado Radiological Use of Fast Protons (Radiology 47, 1946). En dicho artículo se ponía de manifiesto que los protones, así como partículas cargadas pesadas, presentan la propiedad única de que al penetrar en el cuerpo humano depositan la mayor parte de su energía a una preofundidad que depende de su energía inicial. Este hecho permite seleccionar cuidadosamente el área que se quiere irradiar, preservando de dicha radiación al tejido sano que pudiera encontrarse a menor profundidad. Además, como las partículas se detienen a una distancia de la superficie bien definida por la energía del haz, tampoco resultarían dañadas las células situadas detrás del blanco seleccionado.

En contraste, la energía depositada por los rayos X alcanza su máximo cerca de la superficie de entrada y decae exponencialmente hasta que abandona el cuerpo humano en el lado opuesto, haciendo por tanto muy difícil seleccionar la zona que quiere irradiarse sin dañar otras áreas de células sanas. El trabajo de Wilson de 1946 condujo a toda una nueva línea de investigación experimental, principalmente en el Lawrence Berkeley Laboratory, que ha dado lugar al desarrollo de una nueva de terapias antitumorales basadas en la irradiación con protones y más recientemente con iones de carbono. Estas técnicas han sido aplicadas en más de 40 centros de todo el mundo, y de ellas se han beneficiado hasta la más de 50.000 pacientes. No obstante, continúan investigándose nuevas formas de intentar mejorar el ratio entre la energía depositada en las células tumorales y en el tejido sano.

En la , el CERN se encuentra involucrado en diversos proyectos relacionados con la hadronterapia. Por ejemplo, en el diseño de un acelerador de protones e iones de carbono dedicado a usos médicos conocido como Proton Ion Medical Machine Study (PIMMS). Otro proyecto interesante es la realización de las pruebas del Linear Booster ( LIBO), capaz de acelerar una haz de protones hasta 200 Mev (los hospitales habiualmente utilizan energías en torno a los 65 MeV) y que estaría especializado en el tartamiento de tumores profundos.

Finalmente, y situándonos en un plano de investigación a un nivel más básico, es interesante señalar que en octubre de 2006 se presentaron los primeros resultados de un experimento llevado a cabo en el CERN con potencial para futuras en la terapia del cáncer. Se trataba del Antiproton Cell Experiment (ACE), que constituye la primera investigación realizada hasta la fecha sobre efectos biológicos de los antiprotones. Los antiprotones se comportan como los protones cuando entran en el organismo, pero generan mucha más energía en el blanco seleccionado debido a du aniquilación con los protones existentes en los núcleos de los átomos de las células, y además depositan esta energía de una forma biológicamente más efectiva.

                                                                                                      Se busca antimateria contra el Cáncer

Evaluando la fracción de células supervivientes después de la irradiación con el haz de antiprotones, el experimento ACE ha encontrado que a eficiencia de éstos es unas cuatro veces mayor que la de los protones, mientras que el daño producido a las células situadas antes del blanco era básicamente el mismo. De con Michael Holzscheiter, portavoz del experimento ACE, este hecho podría ser extremadamente importante para el tratamiento de casos de cáncer recurrente, donde este tipo de propiedad es vital. La tecnología desarrollada previamente en el CERN para la obtención de haces de antiprotones de buena calidad a la energía apropiada es esencial para este prometedor experimento, que difícilmente podría haberse realizado en ningún otro laboratorio. Éste es por tanto un magnífico ejemplo de cómo la investigación en física de partículas desarrollada en el CERN puede generar soluciones innovadores con excelentes beneficios médicos potenciales.

Los investigadores de ACE, en colaboración con otras instituciones de todo el mundo, están realizando en la actualidad nuevos tests para comprobar la eficacia de este método en el caso de tumores situados a mayor profundidad, y comparando sus resultados con los de otros métodos más convencionales como la irradiación mediante iones de carbono. Si todo sale como se espera, los beneficios clínicos de esta nueva técnica podrían a producirse dentro de la próxima década.

Otro ejemplo importante de tecnología creada en el CERN con a la terapia del cáncer es el Neutron Driven Element Trasmuter. Se trata de un sistema de producción de radioisótopos específicos específicos a partir de un acelerador de protones cuyo desarrollo fue liderado por Carlo Rubbia, Premio Nobel de Física en 1984 por el descubrimiento de los bosones W y Z y ex director general del CERN. La idea es utilizar el haz de protones para producir neutrones los cuales provocan reacciones en un ambiente apropiado donde ciertos elementos son convertidos en los isótopos deseados.

La diferencia entre este método, seguro y barato, y el método más tradicional de utilizar los neutrones provenientes de un reactor nuclear, es que no requiere el uso de material fisionable ni funciona críticamente, es decir las reacciones se detienen en el momento en el que el acelerador es apagado. Más aún, el método tiene la ventaja de que sólo se producen los isótopos requeridos, lo que redunda en una reducción de impacto ambiental. Normalmente, el blanco utilizado es plomo, elemento idóneo por presentar el menor ritmo de captura de neutrones. Los neutrones se producen por espalación a partir del haz de protones y permanecen en el interior del blanco de plomo, que está rodeado  de un deflector de grafito, hasta que su espectro se suaviza suficientemente para cubrir un gran rango de energías que permiten su utilización para la transmutación de los elementos necesarios para la obtención de los isótopos deseados.

El Neutron Driven Element Trasmuter ha permitido, entre otras cosas, la producción de radioisótopos beta emisores como el 166Ho, 186 Re o el 188Re que son de gran importancia en braquiterapia. Dicha técnica, muy utilizada en el tratamiento de cánceres ginecológicos y en el de cáncer de próstata, es un tipo de radioterapia de proximidad donde la fuente radiactiva se sitúa dentro o muy de los tejidos que requieren irradiación. Típicamente, la fuente radiactiva, de alta actividad y corta vida media, se encapsula en una semilla, filamento o tubo y se implanta en quirófano en la zona deseada. Las diferentes dosis requeridas en cada caso hacen que sea fundamental disponer del mayor muestrario posible de radioisótopos con la actividad y vida media apropiadas, lo cual convierte al Neutron Driven Element Trasmuter en una herramienta valiosísima para el futuro de este tipo de técnica terapéutica.

                                                                                                  y computación sin fronteras

CERN, … where the web was born; éste es uno de los reclamos publicitarios que suelen utilizarse  para hacer ver al público la importancia de los retornos tecnológicos que en este laboratorio tienen lugar. Y en efecto, fue a finales de los ochenta cuando Tim Berners-Lee desarrolló estándar de Hyper Text Transfer Protocol ()  e implementó los primeros servidores web en el CERN. Su esfuerzo permitió la comunicación fácil y segura y el intercambio de todo tipo de información entre todos los ordenadores del mundo conectados a internet, dando lugar de esta forma a una de las revoluciones tecnológicas más importantes de las últimas décadas. Las repercusiones científicas, tecnológicas, culturales, comerciales y de ocio de la web son ya tan conocidas que apenas merecen comentario alguno.

El término Grid fue acuñado por Ian Foster and Carl Kesselman en su libro The Grid, Blueprint for new Computing Infraestructure (Morgan Kaufman, 1998), aunque las ideas básicas habían sido consideradas con anterioridad. No existe un acuerdo general sobre cual debería ser la definición precisa de las tecnologías Grid, pero hay un amplio concenso en que esta debería contener elementos tales como recursos compartidos, virtualización, abstracción del acceso a los recursos y estandarización. La filosofía Grid consistería, no sólo en compartir información entre diferentes usuarios, sino también recursos, como por ejemplo, procesadores, tiempo de CPU, unidades de almacenamiento, así como otros aparatos e instrumentos, de tal forma que eventualmente cada usuario tendría acceso , por ejemplo, a la capacidad de cálculo de todos los demás usuarios de esa Grid. En los primeros tiempos de esta tecnología de la información se llegó a hablar de la Grid, refiriéndose a la posibilidad  de existencia de una única World  Wide Grid.

                                                                                                      Todo surgió del CERN

Hasta el momento,, sin embargo, este concepto no es una realidad y más bien lo que se encuentra es que diferentes grupos de proyectos crean su propia Grid usando sus propias implementaciones, estándares y protocolos y dando restringido solamente a una cierta comunidad de usuarios autorizados. Así, aunque se siguen realizando importantes esfuerzos en cuanto a la estandarización de los protocolos, no está claro cual será el camino que este tipo de tecnología seguirá en el futuro en lo que se refiere a la futura existencia de un única Grid.

En cualquier caso es importante resaltar que una vez más el CERN ha sido pionero en este tipo de tecnología. Los detectores que se están instalando (a estas alturas, todos instalados y en marcha) en el LHC (ATLAS, CMS, ALICE, LHCb, SUSY, etc.), son tan complejos, que han requerido cada uno de ellos el concurso de muchas instituciones de todo el mundo para su construcción, y lo seguirán requiriendo para su mantenimiento cuando el acelerador empiece a funcionar (ya está en marcha), y, como no, para el análisis de los que se obtengan. Para hacerse una idea de la dimensión y complejidad de estos análisis baste mencionar que el compact Muon Selenoid (CMS), una vez pasado su primer filtro, deberá almacenar información sobre el resultado de las colisiones producidas en su interior a un ritmo del orden de 100 a 200 MB por segundo durante un tiempo esperado de unos cien días por año. Resulta obvio que sólo una tecnología tipo Grid puede afrontar con posibilidades de éxito un reto semejante y de hecho el CERN ha inspirado varios proyectos Grid multinacionales por este motivo. Posiblemente, el más grande de ellos hasta la fecha sea el EGEE (Enablinbg Grids for E-Science), que conecta más de 150 paises y ofrece 20 000 CPUs y más de 10 Petabytes de memoria.

De manera análoga a como ocurrió con las tecnologías de la detección y aceleración, las tecnologías Grid tendrán, y de hecho ya empiezan a tener, un fuerte impacto en las ciencias de la vida y de la salud. En este sentido, uno de los obvios de aplicación es la bioinformática. Gracias a los espectaculares avances llevados a cabo en los últimos años en el campo de la biología molecular, se dispone hoy en día de cantidades crecientes de información genética de diferentes especies e individuos. Dicha información codificada en el ADN en forma de secuencia de tripletes o codones de ácidos nucleicos, que constituyen los genes que contienen la estructura primaria de las diferentes proteínas, ha sido y está siendo obtenida por centenares de grupos diferentes distribuidos por todo el mundo y debe almacenarse en gigantescas bases de datos de forma eficiente para su compartición, contrastación y análisis.

Ejemplos típicos serían la búsqueda de determinadas secuencias, comparaciones, búsqueda de determinadas mutaciones o alelos, etc. Resulta evidente que esta ingente labor puede verse enormemente beneficiada por el uso de tecnologías Grid. De hecho, la Bioinformática, y en particular sus biomédicas, han sido una parte importante del proyecto EGEE desde el comienzo del mismo.

Finalmente, y como última muestra de cómo puede revertir en la sociedad las tecnologías de la información y la computación provenientes de la física de partículas, es interesante mencionar el Proyecto Mammogrid y su continuación Mammogrid Plus. Liderado por el CERN, dicho proyecto de la UE utiliza la tecnología Grid para crear una base de de mamografías que pueda ser usada para investigar un gran conjunto de datos e imágenes que, aparte de otras aplicaciones sanitarias, sea útil para estudiar el potencial de esta tecnología para servir de soporte a la colaboración entre los profesionales de la salud de la  UE.

      Ciencia, Tecnología y

A estas alturas debería haber quedado claro que los centros científicos de élite internacionales como el CERN, no sólo nos proporcionan un conocimiento más profundo de la naturaleza, sino que las tecnologías de punta que en ellos se desarrollan acaban permeando a la Sociedad y se incorporan a nuestras vidas cotidianas. El autor del artículo, Dobado, del Departamento de Física Teórica I de la Universidad Complutense de Madrid, ha pretendido ilustrar el hecho innegable de la conexión existente entre temas tan aparentemente dispares como el de la Física de Partículas y la Biomedicina, pero ejemplos semejantes podrían haberse encontrado en prácticamente cualquier área de la actividad humana.

La Sociedad no puede permanecer por más tiempo ajena a la Ciencia y a todo lo que trae consigo. Precisamente por eso la RSEF dedica un gran esfuerzo a la difícil tarea de convencer al público de la importancia de la Física como valor científico, cultural y social, como una forma rigurosa y profunda del acercamiento al conocimiento de la naturaleza, y a la vez como generadora de nuevas tecnologías. En este sentido, es una espléndida noticia la inminente creación de un nuevo Grupo especializado en el seno de la RSEF denominado Física Médica. Y, desde aquí, aprovechamos la oportunidad para darles la bienvenida y desearles el mayor éxito en sus futuras andaduras en la de la verdad científica.

Fuente: Revista Española de FÍSICA.

Publicada por la RSEF con el Nº 3 Volumen 21 de 2007

La presente transcripción es de:  Emilio Silvera

Miembro numerario de la RSEF y adscrito a los Grupos Especializados de Física Teórica y Astrofísica.