miércoles, 30 de septiembre del 2020 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




De la Nanociencia a la Nanotecnología. 1ª parte

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

What is it - nanometer? comparison with the meter, the concept of  nanotechnology, interesting facts - The science - 2020Nano World by Maria Semelevich : ImaginaryScienceNano World | National Geographic SocietyHarnessing the possibilities of the nanoworld

Es mucho lo que se habla de Nanotecnología y Nanociencia y, la mayoría de las veces, los actores de dichas conversaciones no tienen ni la menor idea de que va todo esto. Así que, para aclarar un poco el panorama y dejar una idea básica de esta moderna disciplina, aquí he transcrito un artículo de los Físicos D. José Ángel Martín Gago y Pedro A. Serena Domingo que, fue publicado en la Revista Española de Física, Volumen 23, Número 4 de 2009 y que, para no hacerlo pesado, os pondré en varias partes.

Los estados de la Materia [Ni tres, ni cuatro, trece] - Política, historia  y cienciaFísica del estado sólido | Libros | Tienda | Investigación y CienciaZaragoza acogerá un congreso de física de estado sólidoEjercicio nº 2: TIPOS DE CRISTALES

                                                                En las fronteras de la Física del estado sólido

La Nanociencia y la Nanotecnología es un conjunto de conocimientos teóricos y prácticos que nos permiten determinar como se comporta el denominado nanomundo (el ámbito en el que el tamaño de los objetos tienen entre 1 y 100 nm). A partir de estos conocimientos se están haciendo continuamente interesantes y arriesgadas propuestas sobre nuevos procedimientos, materiales y dispositivos que muy probablemente se convertirán en los bienes de consumo que inundaran nuestras casas, oficinas, hospitales y vehículos, etc. en las próximas décadas. Demos un repaso a este interesante tema.

Richard P. Feynman (Nobel de física 1965)FISICA MODERNA 2012-2 LIC. PERCY CAÑOTE FAJARDO: DISCURSO DE RICHARD FEYNMAN  SOBRE LA NANOTECNOLOGÍA

Puede decirse que el comienzo de la Nanotecnología se remonta a 1959 cuando el físico y premio Nobel Richard Feynman pronunció en el Instituto de Tecnología de California su ahora famoso discurso. Feynman trató en su conferencia del problema de la manipulación individual de objetos tan pequeños como átomos y moléculas y de las múltiples oportunidades tecnológicas que ofrecería dicha manipulación. En aquel momento su discurso no tuvo una gran repercusión, pero hoy día muchas de sus predicciones se han cumplido con bastante exactitud.

LA NANOTECNOLOGÍA LLEGA A NUESTRAS VIDAS: CÓMO RESPONDER DESDE LAS AULAS  (Parte 1: Una introducción) - PDF Free Download

           Norio Taniguchi

Sin embargo, la palabra “Nanotecnología” fue acuñada en 1974 por el profesor N. Taniguchi de la Universidad de Ciencias de Tokio en un artículo titulado “On the Basic Concept of  Nanotechnology”, que se presentó en una conferencia de la Sociedad japonesa de Ingeniería de Precisión. En este contexto la Nanotecnología se presenta como la tecnología que nos permitirá separar, consolidar y deformar materiales átomo a átomo o molécula a molécula.

Bibliografia: Publicacions seleccionades | Centre de Recursos per a  l'Aprenentatge i la Investigació - CRAI UB

Harold W. Kroto |  Richard E. Smalley  |  Robert F. Curl
Harold W. Kroto (1939)

 Le fueron concedido el Premio Nobel de Química por el descubrimiento, en 1985, de una nueva forma de carbono puro, diferente del grafito y del diamante, denominada genéricamente Fullerenos.

LA NANOTECNOLOGÍA LLEGA A NUESTRAS VIDAS: CÓMO RESPONDER DESDE LAS AULAS  (Parte 1: Una introducción) - PDF Free DownloadNanotubo - Wikipedia, la enciclopedia libre

                            Sumio Lijima descubre los Nanotubos

Reportaje desde 2056: Nanotecnología (Para empezar)Drexler 3

El Dr. K. Erick Drexler nació en Oakland California el 25 de abril de 1955, el obtuvo en 1991 el primer doctorado en Nanotecnología por el Instituto de Tecnología de Massachusetts (MIT).

En el año 1986 las ideas de Feynman y Taniguchi se concretaron algo más, cuando E. Drexler publicó el libro titulado “Engines of Creation” en el que describe como sería viable construir desde ordenadores hasta maquinaria pesada, ensamblando molécula a molécula, ladrillo a ladrillo, mediante nanorobots ensambladores, que funcionarán de un modo parecido a como lo hacen los ribosomas y otros agregados moleculares en las células de nuestro cuerpo. Este conjunto de ideas, elaboradas y desarrolladas en el período de 1960-1990, han sido el punto de arranque de lo que hoy día conocemos por Nanotecnología, el bagaje creciente de conocimientos teórico-prácticos que nos permitirán dominar la materia en la región de dimensiones comprendidas entre 1 y 100 nm, y que denominamos nanoescala.

Nivel nanoscópico - Wikipedia, la enciclopedia libre

                                                                                    Nivel nanoscópico

El Significado de la Nanoescala | Nanova

El trabajo con objetos tan pequeños entraña una gran dificultad, y de hecho fue algo totalmente imposible hasta que se desarrollaron los microscopios de campo cercano (SPMs) a partir del microscopio de efecto túnel (STM) que fue inventado por H. Rohrer y G. Binnig a principios de la década de 1980, contribución por la que recibieron el premio Nobel en 1986. Las herramientas SPM permiten no sólo la visualización, sino también la manipulación de objetos de dimensiones nanométricas y de muy distinta naturaleza. En la actualidad, estas técnicas son de utilización rutinaria en los laboratorios de Nanociencia y Nanotecnología de todo el mundo, donde se diseñan, no tanto dispositivos concretos, sino experimentos que demuestren las posibilidades de estas “nuevas” tecnologías.

nanobiotecnología Instagram posts (photos and videos) - Picuki.comBELAGE - Nano-Biotecnología aplicada a la Salud - Cirugía plástica  Medellín, Cirugía estética, Mamoplastia, Toxina botulínicananobiotecnología | Boletín Informativo regional de la Enterprise Europe  NetworkΟ χρήστης Sanki Latinoamérica στο Twitter: "#SabiasQue la Nanobiotecnología  nos permite acceder al interior de las #células vivas, lo cual ofrece la  oportunidad mejorar el funcionamiento celular del cuerpo. #SankiInforma  #TecnologíaSanki… https://t.co ...

                                                                    Ahí reside parte del mundo futuro

Todos los conocimientos generados han desembocado en la puesta a punto de diferentes iniciativas (programas de investigación, nuevos centros y equipamientos, etc.) para lograr que dichos conocimientos tuviesen una traducción en la tecnología, generando aplicaciones reales, tangibles. La gran belleza de estos experimentos, junto con las enormes expectativas para aplicaciones que de ellos se derivan, ha conducido a la gran proliferación del prefijo “nano” (muchas veces un tanto abusiva con el simple objetivo de intentar revalorizar una línea de investigación). Así, oímos hablar de disciplinas como nanoquímica, nanoelectrónica, nanofotónica, nanomedicina o nanobiotecnología; o de objetos tales como nanopartículas, nanotubos, nanoimánes o nanomotores. En definitiva, el colocar el prefijo “nano” delante de una palabra determinada nos indica que ese campo se va a estudiar enfatizando aquellos aspectos del mismo relacionados con la nanoescala.

2.2.1 Talla en piedra

Buscando un símil sencillo, el fundamento en el que se basa gran parte de la tecnología actual se asemeja al trabajo realizado por un escultor, que cincela, pule y modela un bloque de material para obtener un objeto más pequeño con la forma deseada. Puesto que cada vez son necesarias tecnologías de fabricación más precisas, es importante disponer de tamaños de cincel progresivamente más pequeños. Este planteamiento es conocido como tecnología de fabricación descendente o “top-down” (de arriba hacia abajo). Un ejemplo del éxito de esta aproximación lo encontramos en la industria de la electrónica que desde hace más de 40 años ha mantenido un incremento continuado de la densidad de transistores que se pueden integrar sobre una oblea de silicio, de forma que el número de elementos dentro de un dispositivo de estado sólido se dobla cada 18 meses. Esta tendencia, propuesta en los años 60 por G. Moore, co-fundador de Intel. Es lo que hoy se denomina “ley de Moore”.

File:Escala Nanometrica.jpg - Wikimedia Commons

                                                                   Escalas nanométricas

Sin embargo sabemos que los métodos de fabricación “top-down” poseen una serie de limitaciones intrínsecas. El primero de estos problemas tiene que ver con el hecho de que a medida que se reduce el tamaño de un objeto, la relación superficie/volumen crece y, puesto que las propiedades físicas de una superficie son generalmente muy distintas a las del volumen, las propiedades funcionales del material cambiaran al reducir su tamaño a la escala nanométrica.

Estructura cristalina - Wikipedia, la enciclopedia libreEstructura cristalina de los metales - EcuRedDocumento sin títuloCelda unitaria de α−PbO sistema tetragonal obtenido por la base de... |  Download Scientific Diagram

Estas modificaciones en las propiedades se conocen como efecto del tamaño finito. El segundo problema con que nos encontramos en esta carrera hacia la miniaturización reside en que en la nanoescala se hacen más palpables los llamados efectos cuánticos. Por último, otro problema fundamental que aparece al intentar seguir disminuyendo el tamaño de un objeto es que cada vez resulta más difícil mejorar las herramientas que permiten su manipulación.

SEMICONDUCTORES Y CIRCUITOS INTEGRADOS - ppt video online descargarmicroprocesadorInsectos cada vez más pequeños: el fenómeno de la miniaturización | All you  need is BiologyTendencias modernas de diseño electrónico para audio. - ppt descargar

Enfrentarse a los desafíos planteados por la miniaturización extrema, que permita explorar las propiedades emergentes en la nanoescala, impone la necesidad de desarrollar una “nueva tecnología”: ese es el papel de la Nanotecnología. La aproximación “nano” es, por tanto, muy diferente de la “top-down”, pues el planteamiento está basado exactamente en lo contrario: ir de lo pequeño a lo grande, construyendo dispositivos a partir de sus componentes últimos. En este caso, se trata de trabajar no como un escultor,  sino como un albañil, que construye una pared partiendo de una serie de elementos básicos, los ladrillos. Esta aproximación, de tipo ascendente, que también se conoce como “bottom-up” (de abajo hacia arriba), utiliza para dar forma a diferentes materiales o dispositivos, componentes básicos muy variados tales como átomos, ácidos nucleicos, proteínas, nanopartículas o nanotubos.

"</p

La Física al servicio de la Salud

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Transferencias tecnológicas del CERN a la Biomedicina

                                                                                                           

                                                                            Partículas y mucho más

Seguramente la mayoría de los lectores de la Revista Española de Física han oído más de una vez hablar del CERN. Fundado en 1954, constituye el mayor laboratorio de física de partículas del mundo, con veinte países miembros y un personal de unas 3.000 personas entre físicos, ingenieros y personal técnico y administrativo de todo tipo. Seguramente están también al tanto de los grandes experimentos que se están preparando en este centro como el Large Hadron Collider (LHC), situado en un túnel circular de 27 km de longitud, destinado a elucidar el origen de la llamada ruptura de la simetría electrodébil y en última instancia el origen de las masas de las partículas elementales (no de la masa del protón o del neutrón como erróneamente se dice a veces en los medios de comunicación), o del proyecto CERN Neutrino Gran Sasso (CNGS), que consiste en enviar un haz de neutrinos de alta energía desde el CERN al laboratorio subterráneo italiano del Gran Sasso que se encuentra a 730 km, para estudiar las oscilaciones de estas huidizas partículas.

También es muy probable que muchos lectores asocien de manera natural la palabra acelerador de partículas  a los instrumentos que utilizan los físicos modernos para estudiar y comprender mejor la estructura y el comportamiento de la materia a pequeñas escalas. Sin embargo, de los 17.000 aceleradores de partículas que se estima existen en la actualidad en todo el mundo, aproximadamente la mitad de ellos se usan en medicina y sólo una parte muy pequeña se usan para investigación fundamental. Por este y otros motivos que se discutirán más adelante, en este número especial de la Revista Española de Física dedicado a la física y las ciencias de la vida, ha parecido conveniente incluir un artículo en el que, al menos brevemente, se describieran algunas de las transferencias tecnológicas (spinoffs) importantes que la actividad del CERN aporta a dichas ciencias.

                 Mucho de lo que aquí se descubre, se aplica a nuestra Salud

Es bastante razonable que, como ocurre con las ciencias del espacio, mucha gente se pregunte cuál es la utilidad social de la física de partículas más allá  de la adquisición de conocimientos fundamentales de la naturaleza. Sin embargo, es preciso señalar que los aceleradores y detectores de partículas del CERN y otros laboratorios similares requieren el uso, y muchas veces el desarrollo, de tecnologías de punta que obligan a una estrecha colaboración con la industria  que redunda en beneficio de ambas partes. Las transferencias tecnológicas que se producen en este proceso se incorporan inmediatamente a nuestra vida diaria en áreas tales como la electrónica, procesamiento industrial y médico de imágenes, manejo y usos de la radiación , metrología, nuevos materiales, tecnologías de la computación y la información, tratamiento del cáncer, etc. En este artículo se pondrá el énfasis en aquellas actividades del CERN que han redundado de una forma más clara en beneficio de las ciencias biomédicas.

                  PET/TC o más allá de los rayos X

En el ámbito de la medicina los aceleradores de partículas se utilizan con dos finalidades; una para la formación de imágenes con propósitos diagnósticos y otra, para terapia, principalmente oncológica. Desde el descubrimiento de los rayos X por Röntgen en 1895, este tipo de radiación electromagnética ha proporcionado una información de valor incalculable y aún sigue proporcionándola. Sin embargo, mucho más recientemente, se han desarrollado otras técnicas complementarias de diagnóstico basadas en los llamados radiofármacos. Estas sustancias radiactivas presentan idealmente la propiedad de poder ser inyectadas en el organismo humano de forma segura y de fijarse exclusivamente a determinados tejidos. Posteriormente, a medida que van desintegrándose, emiten ciertas partículas que pueden ser detectadas y analizadas produciendo de esta forma imágenes estáticas o incluso dinámicas de los órganos en los que se depositaron los radiofármacos y, en definitiva, proporcionando información no solamente sobre la morfología de aquellos, sino también, en muchos casos, sobre su función y metabolismo.Los radiofármacos se producen utilizando haces de protones de alta intensidad y, como tienen una vida media muy baja, deben utilizarse cerca de donde se han creado. Se calcula que unos 20 millones de personas son diagnosticadas cada año mediante el uso de este tipo de sustancias.

Son técnicas no invasivas que dejan al descubierto lo que interesa ver y eliminar.

Una de las técnicas de este tipo más utilizada en la actualidad es la Positron Emission Tomography (PET). En su aplicación se utiliza normalmente un ciclotrón para irradiar alguna sustancia que se convierte en radiactiva por desintegración beta positiva (emisora de positrones). Esta sustancia se une por ejemplo a la glucosa y se inyecta al paciente. Los positrones producidos se aniquilan con los electrones circundantes dando lugar a dos fotones de energía muy bien definida, emitidos en direcciones opuestas. Estos fotonesinteraccionan con un material escintilador dando lugar a la emisión de otros fotones que pueden ser detectados por fotomultiplicadores o fotodiodos para formar la imagen de los tejidos que se pretenden estudiar en función de la distribución de la glucosa radiactiva. Por ejemplo, en el caso del diagnóstico del cáncer las células cancerosas suelen consumir más glucosa que las células sanas debido a su mayor vascularización y a su mayor actividad metabólica y reproductiva, produciendo por tanto una mayor emisión de fotones. Por el contrario, las zonas donde el tejido presente mayor número de células muertas brillarán menos debido a la menor concentración de glucosa radioactiva, lo cual puede ser muy útil para el diagnóstico de infartos y otras lesiones.

                                                              Tecnologías que llegan más allá

De acuerdo con David Townsend, uno de los pioneros en el desarrollo de la tecnología PET, aunque ésta no fue inventada en el CERN, una cantidad esencial e inicial de trabajo desarrollado en el CERN  a partir de 1977 contribuyó de forma significativa al desarrollo del PET 3D. La tecnología PET alcanza su grado más alto de utilidad diagnóstica cuando se combina con la Computed Tomography (CT). La CT es un método de formación de imágenes tridimensionales a partir del procesamiento digital de un gran número de imágenes bidimensionales de rayos X. Inicialmente, las diferentes imágenes se obtenían alrededor de un solo eje de rotación y de ahí su nombre original de Computed Axial Tomography (CAT).

La técnica combinada PET/CT es uno de los desarrollos más excitantes de la medicina nuclear y la radiología modernas. Las reconstrucciones de imágenes CT permiten el diagnóstico precoz de tumores basándose en sus características morfológicas, mientras que la tecnología PET es capaz de diferenciar con grane eficiencia los tejidos malignos de los benignos. La fusión PET/CT permite ahora integrar las imágenes morfológica y fisiológica en una única imagen. El prototipo del scanner ART, el Partial Ring Tomograph (PRT), fue desarrollado en el CERN en 1980 y 1990 por David Townsend, Martín Wensveen y Henri Tochon-Danguy, y evaluado clínicamente en el departamento de medicina nuclear del Hospital Cantonal de Ginebra. ART puede considerarse como el precursor de la parte PET del moderno scanner PET/CT, que ha producido un impacto extraordinario en la tecnología de imágenes con fines médicos. Además, el CERN continua hoy en día contribuyendo a este campo fundamental de la medicina moderna mediante proyectos como Clear PET, Clear PEM, HPD PET etc.

Sin embargo, la importancia del CERN en el desarrollo de las tecnologías PET o CT, y en general de todo tipo de scanner, va mucho más allá. En efecto, todo este tipo de dispositivos se basa, de una forma u otra, en los detectores desarrollados a finales de los  sesenta en el CERN por George Charpak. Su trabajo fue reconocido en 1992 con la concesión del Premio Nobel de Física por su invención y desarrollo de detectores de partículas, en particular de la cámara proporcional multihilos, que produjo una revolución en la técnica de exploración de las partes más íntimas de la materia. Los detectores desarrollados por Charpak se usan aún para todo tipo de investigaciones médicas y biológicas y podrían eventualmente sustituir completamente a las placas fotográficas en la radio-biología aplicada. La velocidad creciente con la que permiten registrar las imágenes en radio medicina conducen a una menor tiempo de exposición y a menores dosis de radiación indeseada recibida por los pacientes.

 

                          Hadronterapia, o las partículas contra el cáncer

Como es bien sabido, una de las herramientas terapéuticas esenciales en el campo de la oncología es la radioterapia. Dicho tratamiento se aplica hoy en día aproximadamente a la mitad de los pacientes de cáncer. En cierto modo se puede considerar como una forma sutil de cirugía donde el bisturí es reemplazado por un haz colimado de partículas capaz de esterilizar las células malignas mediante la inactivación de su ADN, impidiendo así su reproducción. Tradicionalmente, la radioterapia se ha basado en el uso de rayos X (fotones), electrones y, más recientemente, hadrones, es decir, partículas capaces de interaccionar fuerte o nuclearmente, si bien no es ésta la propiedad más interesante de estas partículas para las aplicaciones radioterapeúticas. Los haces de rayos X y los electrones se obtienen normalmente a partir de aceleradores lineales como los del CERN, aunque mucho más pequeños, y se apuntan hacia los tumores con la energía, dirección y colimación apropiadas para optimizar su efecto destructivo sobre los mismos. Por su parte, los neutrones pierden energía en el interior del organismo de una forma diferente, lo cual les hace más indicados para el tratamiento de ciertos tipos especiales de tumores. Se obtienen a partir de las colisiones de protones, previamente acelerados en un ciclotrón, con núcleos de berilio. Este hecho hace que esta terapia sea bastante más cara que las anteriores, pero a cambio el ciclotrón puede ser usado también para la producción de radiofármacos.

                                    Cintíficos del CERN aplican antimateria contra el Cáncer

El estudio de las posibilidades de utilización de haces de hadrones en la terapia del cáncer tuvo su origen en el trabajo seminal de R.R Wilson titulado Radiological Use of Fast Protons (Radiology 47, 1946). En dicho artículo se ponía de manifiesto que los protones, así como otras partículas cargadas pesadas, presentan la propiedad única de que al penetrar en el cuerpo humano depositan la mayor parte de su energía a una preofundidad que depende de su energía inicial. Este hecho permite seleccionar cuidadosamente el área que se quiere irradiar, preservando de dicha radiación al tejido sano que pudiera encontrarse a menor profundidad. Además, como las partículas se detienen a una distancia de la superficie bien definida por la energía del haz, tampoco resultarían dañadas las células situadas detrás del blanco seleccionado.

Resultado de imagen de las tecnologías PET o CT, y en general de todo tipo de scanner, va mucho más allá.Resultado de imagen de las tecnologías PET o CT, y en general de todo tipo de scanner, va mucho más allá.

Sin embargo, la importancia del CERN en el desarrollo de las tecnologías PET o CT, y en general de todo tipo de scanner, va mucho más allá.

En contraste, la energía depositada por los rayos X alcanza su máximo cerca de la superficie de entrada y decae exponencialmente hasta que abandona el cuerpo humano en el lado opuesto, haciendo por tanto muy difícil seleccionar la zona que quiere irradiarse sin dañar otras áreas de células sanas. El trabajo de Wilson de 1946 condujo a toda una nueva línea de investigación experimental, principalmente en el Lawrence Berkeley Laboratory, que ha dado lugar al desarrollo de una nueva clase de terapias antitumorales basadas en la irradiación con protones y más recientemente con iones de carbono. Estas técnicas han sido aplicadas en más de 40 centros de todo el mundo, y de ellas se han beneficiado hasta la fecha más de 50.000 pacientes. No obstante, continúan investigándose nuevas formas de intentar mejorar el ratio entre la energía depositada en las células tumorales y en el tejido sano.

Resultado de imagen de Medical Machine Study (PIMMS).

En la actualidad, el CERN se encuentra involucrado en diversos proyectos relacionados con la hadronterapia. Por ejemplo, en el diseño de un acelerador de protones e iones de carbono dedicado exclusivamente a usos médicos conocido como Proton Ion Medical Machine Study (PIMMS). Otro proyecto interesante es la realización de las pruebas del Linear Booster ( LIBO), capaz de acelerar una haz de protones hasta 200 Mev (los hospitales habiualmente utilizan energías en torno a los 65 MeV) y que estaría especializado en el tartamiento de tumores profundos.

Finalmente, y situándonos en un plano de investigación a un nivel más básico, es interesante señalar que en octubre de 2006 se presentaron los primeros resultados de un experimento llevado a cabo en el CERN con potencial para futuras aplicaciones en la terapia del cáncer. Se trataba del Antiproton Cell Experiment (ACE), que constituye la primera investigación realizada hasta la fecha sobre efectos biológicos de los antiprotones. Los antiprotones se comportan como los protones cuando entran en el organismo, pero generan mucha más energía en el blanco seleccionado debido a du aniquilación con los protones existentes en los núcleos de los átomos de las células, y además depositan esta energía de una forma biológicamente más efectiva.

 Se busca antimateria contra el Cáncer. Los resultados muestran que los antiprotones son cuatro veces más efectivos que los protones para destruir células vivas. (Foto: Especial CERN )

Evaluando la fracción de células supervivientes después de la irradiación con el haz de antiprotones, el experimento ACE ha encontrado que a eficiencia de éstos es unas cuatro veces mayor que la de los protones, mientras que el daño producido a las células situadas antes del blanco era básicamente el mismo. De acuerdo con Michael Holzscheiter, portavoz del experimento ACE, este hecho podría ser extremadamente importante para el tratamiento de casos de cáncer recurrente, donde este tipo de propiedad es vital. La tecnología desarrollada previamente en el CERN para la obtención de haces de antiprotones de buena calidad a la energía apropiada es esencial para este prometedor experimento, que difícilmente podría haberse realizado en ningún otro laboratorio. Éste es por tanto un magnífico ejemplo de cómo la investigación en física de partículas desarrollada en el CERN puede generar soluciones innovadores con excelentes beneficios médicos potenciales.

Resultado de imagen de Los investigadores de ACE,

Los investigadores de ACE, en colaboración con otras instituciones de todo el mundo, están realizando en la actualidad nuevos tests para comprobar la eficacia de este método en el caso de tumores situados a mayor profundidad, y comparando sus resultados con los de otros métodos más convencionales como la irradiación mediante iones de carbono. Si todo sale como se espera, los beneficios clínicos de esta nueva técnica podrían empezar a producirse dentro de la próxima década.

Otro ejemplo importante de tecnología creada en el CERN con aplicaciones a la terapia del cáncer es el Neutron Driven Element Trasmuter. Se trata de un sistema de producción de radioisótopos específicos específicos a partir de un acelerador de protones cuyo desarrollo fue liderado por Carlo Rubbia, Premio Nobel de Física en 1984 por el descubrimiento de los bosones W y Z y ex director general del CERN. La idea es utilizar el haz de protones para producir neutrones los cuales provocan reacciones en un ambiente apropiado donde ciertos elementos son convertidos en los isótopos deseados.

La diferencia principal entre este método, seguro y barato, y el método más tradicional de utilizar los neutrones provenientes de un reactor nuclear, es que no requiere el uso de material fisionable ni funciona críticamente, es decir las reacciones se detienen en el momento en el que el acelerador es apagado. Más aún, el método tiene la ventaja de que sólo se producen los isótopos requeridos, lo que redunda en una importante reducción de impacto ambiental. Normalmente, el blanco utilizado es plomo, elemento idóneo por presentar el menor ritmo de captura de neutrones. Los neutrones se producen por espalación a partir del haz de protones y permanecen en el interior del blanco de plomo, que está rodeado  de un deflector de grafito, hasta que su espectro se suaviza suficientemente para cubrir un gran rango de energías que permiten su utilización para la transmutación de los elementos necesarios para la obtención de los isótopos deseados.

Resultado de imagen de El Neutron Driven Element TransmuterResultado de imagen de El Neutron Driven Element Transmuter

El Neutron Driven Element Trasmuter ha permitido, entre otras cosas, la producción de radioisótopos beta emisores como el 166Ho, 186 Re o el 188Re que son de gran importancia en braquiterapia. Dicha técnica, muy utilizada en el tratamiento de cánceres ginecológicos y en el de cáncer de próstata, es un tipo de radioterapia de proximidad donde la fuente radiactiva se sitúa dentro o muy cerca de los tejidos que requieren irradiación. Típicamente, la fuente radiactiva, de alta actividad y corta vida media, se encapsula en una semilla, filamento o tubo y se implanta en quirófano en la zona deseada. Las diferentes dosis requeridas en cada caso hacen que sea fundamental disponer del mayor muestrario posible de radioisótopos con la actividad y vida media apropiadas, lo cual convierte al Neutron Driven Element Trasmuter en una herramienta valiosísima para el futuro de este tipo de técnica terapéutica.

                              Información y computación sin fronteras

CERN, … where the web was born; éste es uno de los reclamos publicitarios que suelen utilizarse  para hacer ver al público la importancia de los retornos tecnológicos que en este laboratorio tienen lugar. Y en efecto, fue a finales de los ochenta cuando Tim Berners-Lee desarrolló estándar de Hyper Text Transfer Protocol (HTTP)  e implementó los primeros servidores web en el CERN. Su esfuerzo permitió la comunicación fácil y segura y el intercambio de todo tipo de información entre todos los ordenadores del mundo conectados a internet, dando lugar de esta forma a una de las revoluciones tecnológicas más importantes de las últimas décadas. Las repercusiones científicas, tecnológicas, culturales, comerciales y de ocio de la web son ya tan conocidas que apenas merecen comentario alguno.

El término Grid fue acuñado por Ian Foster and Carl Kesselman en su libro The Grid, Blueprint for new Computing Infraestructure (Morgan Kaufman, 1998), aunque las ideas básicas habían sido consideradas con anterioridad. No existe un acuerdo general sobre cual debería ser la definición precisa de las tecnologías Grid, pero hay un amplio concenso en que esta debería contener elementos tales como recursos compartidos, virtualización, abstracción del acceso a los recursos y estandarización. La filosofía Grid consistiría, no sólo en compartir información entre diferentes usuarios, sino también recursos, como por ejemplo, procesadores, tiempo de CPU, unidades de almacenamiento, así como otros aparatos e instrumentos, de tal forma que eventualmente cada usuario tendría acceso virtual, por ejemplo, a la capacidad de cálculo de todos los demás usuarios de esa Grid. En los primeros tiempos de esta tecnología de la información se llegó a hablar de la Grid, refiriéndose a la posibilidad  de existencia de una única World  Wide Grid.

Resultado de imagen de World  Wide Grid.

                                                                                                      Todo surgió del CERN

Hasta el momento,, sin embargo, este concepto no es una realidad y más bien lo que se encuentra es que diferentes grupos de proyectos crean su propia Grid usando sus propias implementaciones, estándares y protocolos y dando acceso restringido solamente a una cierta comunidad de usuarios autorizados. Así, aunque se siguen realizando importantes esfuerzos en cuanto a la estandarización de los protocolos, no está claro cual será el camino que este tipo de tecnología seguirá en el futuro en lo que se refiere a la futura existencia de un única Grid.

En cualquier caso es importante resaltar que una vez más el CERN ha sido pionero en este tipo de tecnología. Los detectores que se están instalando (a estas alturas, todos instalados y en marcha) en el LHC (ATLAS, CMS, ALICE, LHCb, SUSY, etc.), son tan complejos, que han requerido cada uno de ellos el concurso de muchas instituciones de todo el mundo para su construcción, y lo seguirán requiriendo para su mantenimiento cuando el acelerador empiece a funcionar (ya está en marcha), y, como no, para el análisis de los datos que se obtengan. Para hacerse una idea de la dimensión y complejidad de estos análisis baste mencionar que el compact Muon Selenoid (CMS), una vez pasado su primer filtro, deberá almacenar información sobre el resultado de las colisiones producidas en su interior a un ritmo del orden de 100 a 200 MB por segundo durante un tiempo esperado de unos cien días por año. Resulta obvio que sólo una tecnología tipo Grid puede afrontar con posibilidades de éxito un reto semejante y de hecho el CERN ha inspirado varios proyectos Grid multinacionales por este motivo. Posiblemente, el más grande de ellos hasta la fecha sea el EGEE (Enablinbg Grids for E-Science), que conecta más de 150 paises y ofrece 20 000 CPUs y más de 10 Petabytes de memoria.

De manera análoga a como ocurrió con las tecnologías de la detección y aceleración, las tecnologías Grid tendrán, y de hecho ya empiezan a tener, un fuerte impacto en las ciencias de la vida y de la salud. En este sentido, uno de los campos obvios de aplicación es la bioinformática. Gracias a los espectaculares avances llevados a cabo en los últimos años en el campo de la biología molecular, se dispone hoy en día de cantidades crecientes de información genética de diferentes especies e individuos. Dicha información codificada en el ADN en forma de secuencia de tripletes o codones de ácidos nucleicos, que constituyen los genes que contienen la estructura primaria de las diferentes proteínas, ha sido y está siendo obtenida por centenares de grupos diferentes distribuidos por todo el mundo y debe almacenarse en gigantescas bases de datos de forma eficiente para su compartición, contrastación y análisis.

Ejemplos típicos serían la búsqueda de determinadas secuencias, comparaciones, búsqueda de determinadas mutaciones o alelos, etc. Resulta evidente que esta ingente labor puede verse enormemente beneficiada por el uso de tecnologías Grid. De hecho, la Bioinformática, y en particular sus aplicaciones biomédicas, han sido una parte importante del proyecto EGEE desde el comienzo del mismo.

Finalmente, y como última muestra de cómo puede revertir en la sociedad las tecnologías de la información y la computación provenientes de la física de partículas, es interesante mencionar el Proyecto Mammogrid y su continuación Mammogrid Plus. Liderado por el CERN, dicho proyecto de la UE utiliza la tecnología Grid para crear una base de datos de mamografías que pueda ser usada para investigar un gran conjunto de datos e imágenes que, aparte de otras aplicaciones sanitarias, sea útil para estudiar el potencial de esta tecnología para servir de soporte a la colaboración entre los profesionales de la salud de la  UE.

      Ciencia, Tecnología y Sociedad

A estas alturas debería haber quedado claro que los centros científicos de élite internacionales como el CERN, no sólo nos proporcionan un conocimiento más profundo de la naturaleza, sino que las tecnologías de punta que en ellos se desarrollan acaban permeando a la Sociedad y se incorporan a nuestras vidas cotidianas. El autor del artículo, Antonio Dobado, del Departamento de Física Teórica I de la Universidad Complutense de Madrid, ha pretendido ilustrar el hecho innegable de la conexión existente entre temas tan aparentemente dispares como el de la Física de Partículas y la Biomedicina, pero ejemplos semejantes podrían haberse encontrado en prácticamente cualquier área de la actividad humana.

La Sociedad no puede permanecer por más tiempo ajena a la Ciencia y a todo lo que trae consigo. Precisamente por eso la RSEF dedica un gran esfuerzo a la difícil tarea de convencer al público de la importancia de la Física como valor científico, cultural y social, como una forma rigurosa y profunda del acercamiento al conocimiento de la naturaleza, y a la vez como generadora de nuevas tecnologías. En este sentido, es una espléndida noticia la inminente creación de un nuevo Grupo especializado en el seno de la RSEF denominado Física Médica. Y, desde aquí, aprovechamos la oportunidad para darles la bienvenida y desearles el mayor éxito en sus futuras andaduras en la búsqueda de la verdad científica.

Fuente: Revista Española de FÍSICA.

Publicada por la RSEF con el Nº 3 Volumen 21 de 2007

La presente transcripción es de:  Emilio Silvera

Miembro numerario de la RSEF y adscrito a los Grupos Especializados de Física Teórica y Astrofísica.

¡Estamos tratando de recrear la creación!

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

  

Resultado de imagen de La mejor imagen del nacimiento del Universo

Me ha venido a la memoria una noticia que leí, no hace tanto tiempo, en un Boletin de la RSEF, se refería a nuevas y ambiciosas iniciativas en el campo de la Física para tratar de recrear los primeros instantes del Universo, y, sobre todo, de desvelar los secretos que esconde la materia que según parece y a pesar de los muchos avances conseguidos… ¡Aún no conocemos!

La Noticia, del año pasado,  decía:

“Europa construirá un acelerador tres veces mayor que el LHC.  Aunque el LHC seguirá funcionando por lo menos durante dos décadas más, Europa ya empieza a pensar en su sucesor: un enorme colisionador con una circunferencia de 100 km (frente a los 27 del LHC) y capaz de alcanzar una energía de 100 TeV, siete veces superior a los 14 TeV a los que puede llegar, como máximo, el LHC. Tras alcanzar el hito de detectar el bosón de Higgs,

 

 

Standard Model Particles and their interactions

 

El Modelo Estándar incluye a todos los componentes fundamentales de la materia ordinaria pero no dice nada de la materia oscura ni de la energía oscura. “Tenemos muchas esperanzas de que el LHC en esta nueva etapa a su máximo nivel de energía pueda tener un primer atisbo de lo que es la materia oscura. Y a partir de ahí determinar los objetivos del próximo gran colisionador”, dijo Heuer, Director del CERN.”

 

Resultado de imagen de Dibujo 20150417 dark matter - gas temperature - illustris project - dark matter particle mass - marco cirelli - neutel 2015

Dibujo20150417 dark matter – gas temperature – illustris project – dark matter particle mass – marco cirelli – neutel 2015 (Mula Francis)

 

 

“En física, el consenso científico es que la materia oscura existe con una certeza del 100%. Sabemos que interacciona muy poco con la materia ordinaria, por ello detectarla es extremadamente difícil, pero la estamos buscando con ahínco y tesón en un rango de 90 órdenes de magnitud. Has leído bien, buscamos una partícula con una masa entre los yoctogramos y los yottagramos. La hemos descartado en muchos lugares, pero hay muchos otros en los que aún podría esconderse.”

“Uno de los grandes objetivos del LHC Run 2 es buscar una partícula candidata a la materia oscura si es que hay alguna que esté a su alcance. No sabemos si está a su alcance. Pero no perdemos la esperanza de que la encuentre. Te recomiendo leer al físico y optimista Matt Strassler, “Dark Matter: How Could the Large Hadron Collider Discover It?,” Of Particular Significance, 13 April 2015; “More on Dark Matter and the Large Hadron Collider,” OPS, 15 April 2015.”

 

Resultado de imagen de Dibujo 20150417 spin-independent - wimp-nucleon scattering - evolution in time - Snowmass CF1 Summary WIMP

 

Dibujo20150417 spin-independent – wimp-nucleon scattering – evolution in time – Snowmass CF1 Summary WIMP (Mula Francis)

 

“La materia oscura es un corpúsculo (si es macroscópico) o una partícula (si es microscópica) neutro (para la carga eléctrica y para la carga de color), que tiene una vida media muy larga y que interacciona débilmente con la materia ordinaria, quizás sólo gracias al bosón de Higgs. Uno de los objetivos del LHC Run 2 es explorar la búsqueda de una partícula de materia oscura en un pequeño rango de energías (la escala débil entre cientos y miles de GeV). Nos gusta creer que hay muchas razones físicas por las cuales debería esconderse en dicha escala. Pero la Naturaleza es sutil, aunque no perversa. Igual que el borracho que ha perdido sus llaves al entrar en casa de noche las busca debajo de la farola, donde hay luz, aunque esté a unos metros de distancia, buscamos la partícula donde podemos hacerlo. Y nuestra esperanza es encontrarla, pero si no la encontramos allí, como somos tercos, seguiremos buscándola.”

 

Resultado de imagen de Dibujo20150417 wimp direct searches - current and future limits - Snowmass CF1 Summary WIMP

 

Dibujo20150417 wimp direct searches – current and future limits – Snowmass CF1 Summary WIMP (Mula Francis)

 

“La ciencia no es una labor fácil. Si lo fuera no sería una labor apasionante. Llevamos buscando la partícula de materia oscura muy poco tiempo (desde 1985 más o menos). Treinta años parece mucho tiempo, pero es muy poco en ciencia. Todavía nos quedan unos diez años de trabajo como mínimo para explorar el hueco que nos queda hasta que tengamos que preocuparnos por los neutrinos en las búsquedas directas de la materia oscura. Si no encontramos la partícula responsable de la materia oscura en 2030 habrá que superar dicho límite y buscar más allá. Una búsqueda muchísimo más difícil. Pero el tesón de los físicos, el trabajo de miles de personas en pro del conocimiento, acabará dando caza a la partícula. Se esconda donde se esconda acabaremos dando con ella. Quizás sea necesario un siglo.”

“El descubrimiento de la partícula responsable de la materia oscura será uno de los grandes descubrimientos del siglo XXI. Deseo que se logre durante mi vida… pero ya se sabe que a la Naturaleza le importa un comino mi existencia. Queda mucho por explorar y queda mucho esfuerzo por realizar. ¡La ciencia es pura pasión! ¡Disfrutemos de la ciencia!”

 

 

Ya avanzado el año 2.015, y el LHC ha comenzado sus actividades  a mayor energía para tratar de buscar esa dichosa “materia oscura” de la que todo el mundo habla y de la que nadie sabe decir, a ciencia cierta, de qué está hecha, cómo surgío, por qué no emite radiación y sí gravedad…

Está bien que no dejemos de avanzar y sigamos buscando aquello que desconocemos. La Naturaleza esconde muchos secretos que tratamos de desvelar  y, la hipotética “materia oscura” es uno de ellos. Hablamos y hablamos sobre algo que no sabemos si en realidad será. Tampoco sabemos de que pueda estar conformada, de dónde surgió y por qué, y,  si emite o genera fuerza gravitatoria por qué no emite radiación. En fin, un misterio que sería bueno resolver. Está claro que algo debe haber, una especie de “sustancia cósmica” que impregna todo el Espacio, es la única manera de explicarse como pudieron formarse las galaxias.

¡100 TeV! ¡100 Km de diámetro!

Si cuando se acercaba la hora de puesta en marcha del LHC salieron múltiples organizaciones planteando protestas de todo tipo, incluso alguna se atrevió a decir que el Acelerador tenía tanta energía que crearía un agujero negro que se tragaría a la Tierra. ¿Qué dirán ahora del fututo Acelerador? Seguramente, habrá mucha más algarabía, protestas y un sin fin de manifestaciones de todo tipo. Sin embargo, el futuro… ¡Es imparable!

En cuanto a la “materia oscura”, no puedo negar que algo parecido debe existir, de otra manera no llego a comprender como podrían haberse podido llegar a formarse las galaxias a pesar de la expansión de Hubble. ¡Algo tuvo que retener la materia que las conforma! Una fuerza de Gravedad que, si no era de esa dichosa “materia” entonces ¿de qué podría ser?

Mi abuelo tiene un cordero

Dice que lo va a matar

Del pellejo hará un pandero

Lo que sea sonará

emilio silvera

¡Estamos tratando de recrear la creación!

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (2)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 

Teoría de la Eva mitocondrial o “Eva Negra”

 

Resultado de imagen de La Humanidad y las CivilizacionesResultado de imagen de La Humanidad y las Civilizaciones

 

Si pensamos en el Tiempo cósmico, sólo hace “tres días” que estamos aquí

 

Resultado de imagen de Tratar de crear los primeros instantes del Universo

 

Es la Teoría aceptada, la que más se adapta a la observación, esa que llamamos Big Bang. No poodemos estar seguros al cien por ciento de que así sucedieran las cosas, no había allí ningún cronista que lo contra, sin embargo, nosotros los humanos, hemos construído un escenario que más o menos acertado, se podría acercar a lo que fue.

Me ha venido a la memoria una noticia que leí, no hace tanto tiempo, en un Boletin de la RSEF, se refería a nuevas y ambiciosas iniciativas en el campo de la Física para tratar de recrear los primeros instantes del Universo, y, sobre todo, de desvelar los secretos que esconde la materia que según parece y a pesar de los muchos avances conseguidos… ¡Aún no conocemos!

La Noticia, que retumbó en todos los medios,  decía:

“Europa construirá un acelerador tres veces mayor que el LHC.  Aunque el LHC seguirá funcionando por lo menos durante dos décadas más, Europa ya empieza a pensar en su sucesor: un enorme colisionador con una circunferencia de 100 km (frente a los 27 del LHC) y capaz de alcanzar una energía de 100 TeV, siete veces superior a los 14 TeV a los que puede llegar, como máximo, el LHC. Tras alcanzar el hito de detectar el bosón de Higgs.

 

 

Standard Model Particles and their interactions

El Modelo Estándar incluye a todos los componentes fundamentales de la materia ordinaria pero no dice nada de la materia oscura ni de la energía oscura. “Tenemos muchas esperanzas de que el LHC en esta nueva etapa a su máximo nivel de energía pueda tener un primer atisbo de lo que es la materia oscura. Y a partir de ahí determinar los objetivos del próximo gran colisionador”, dijo Heuer, Director del CERN.”

 

 

Dibujo20150417 dark matter - gas temperature - illustris project - dark matter particle mass - marco cirelli - neutel 2015

 

“En física, el consenso científico es que la materia oscura existe con una certeza del 100%. Sabemos que interacciona muy poco con la materia ordinaria, por ello detectarla es extremadamente difícil, pero la estamos buscando con ahínco y tesón en un rango de 90 órdenes de magnitud. Has leído bien, buscamos una partícula con una masa entre los yoctogramos y los yottagramos. La hemos descartado en muchos lugares, pero hay muchos otros en los que aún podría esconderse.”

Resultado de imagen de Uno de los grandes objetivos del LHC Run 2

“Uno de los grandes objetivos del LHC Run 2 es buscar una partícula candidata a la materia oscura si es que hay alguna que esté a su alcance. No sabemos si está a su alcance. Pero no perdemos la esperanza de que la encuentre. Te recomiendo leer al físico y optimista Matt Strassler, “Dark Matter: How Could the Large Hadron Collider Discover It?,” Of Particular Significance, 13 April 2015; “More on Dark Matter and the Large Hadron Collider,” OPS, 15 April 2015.”

Dibujo20150417 spin-independent - wimp-nucleon scattering - evolution in time - Snowmass CF1 Summary WIMP

“La materia oscura es un corpúsculo (si es macroscópico) o una partícula (si es microscópica) neutro (para la carga eléctrica y para la carga de color), que tiene una vida media muy larga y que interacciona débilmente con la materia ordinaria, quizás sólo gracias al bosón de Higgs. Uno de los objetivos del LHC Run 2 es explorar la búsqueda de una partícula de materia oscura en un pequeño rango de energías (la escala débil entre cientos y miles de GeV). Nos gusta creer que hay muchas razones físicas por las cuales debería esconderse en dicha escala. Pero la Naturaleza es sutil, aunque no perversa. Igual que el borracho que ha perdido sus llaves al entrar en casa de noche las busca debajo de la farola, donde hay luz, aunque esté a unos metros de distancia, buscamos la partícula donde podemos hacerlo. Y nuestra esperanza es encontrarla, pero si no la encontramos allí, como somos tercos, seguiremos buscándola.”

 

 

Dibujo20150417 wimp direct searches - current and future limits - Snowmass CF1 Summary WIMP

 

 

“La ciencia no es una labor fácil. Si lo fuera no sería una labor apasionante. Llevamos buscando la partícula de materia oscura muy poco tiempo (desde 1985 más o menos). Treinta años parece mucho tiempo, pero es muy poco en ciencia. Todavía nos quedan unos diez años de trabajo como mínimo para explorar el hueco que nos queda hasta que tengamos que preocuparnos por los neutrinos en las búsquedas directas de la materia oscura. Si no encontramos la partícula responsable de la materia oscura en 2030 habrá que superar dicho límite y buscar más allá. Una búsqueda muchísimo más difícil. Pero el tesón de los físicos, el trabajo de miles de personas en pro del conocimiento, acabará dando caza a la partícula. Se esconda donde se esconda acabaremos dando con ella. Quizás sea necesario un siglo.”

“El descubrimiento de la partícula responsable de la materia oscura será uno de los grandes descubrimientos del siglo XXI. Deseo que se logre durante mi vida… pero ya se sabe que a la Naturaleza le importa un comino mi existencia. Queda mucho por explorar y queda mucho esfuerzo por realizar. ¡La ciencia es pura pasión! ¡Disfrutemos de la ciencia!”

 

 

Ya avanzado el año 2.015, y el LHC ha comenzado sus actividades  a mayor energía para tratar de buscar esa dichosa “materia oscura” de la que todo el mundo habla y de la que nadie sabe decir, a ciencia cierta, de qué está hecha, cómo surgío, por qué no emite radiación y sí gravedad…

Está bien que no dejemos de avanzar y sigamos buscando aquello que desconocemos. La Naturaleza esconde muchos secretos que tratamos de desvelar  y, la hipotética “materia oscura” es uno de ellos. Hablamos y hablamos sobre algo que no sabemos si en realidad será. Tampoco sabemos de que pueda estar conformada, de dónde surgió y por qué, y,  si emite o genera fuerza gravitatoria por qué no emite radiación. En fin, un misterio que sería bueno resolver. Está claro que algo debe haber, una especie de “sustancia cósmica” que impregna todo el Espacio, es la única manera de explicarse como pudieron formarse las galaxias.

¡100 TeV! ¡100 Km de diámetro!

Si cuando se acercaba la hora de puesta en marcha del LHC salieron múltiples organizaciones planteando protestas de todo tipo, incluso alguna se atrevió a decir que el Acelerador tenía tanta energía que crearía un agujero negro que se tragaría a la Tierra. ¿Qué dirán ahora del fututo Acelerador? Seguramente, habrá mucha más algarabía, protestas y un sin fin de manifestaciones de todo tipo. Sin embargo, el futuro… ¡Es imparable!

En cuanto a la “materia oscura”, no puedo negar que algo parecido debe existir, de otra manera no llego a comprender como podrían haberse podido llegar a formarse las galaxias a pesar de la expansión de Hubble. ¡Algo tuvo que retener la materia que las conforma! Una fuerza de Gravedad que, si no era de esa dichosa “materia” entonces ¿de qué podría ser?

Mi abuelo tiene un cordero

Dice que lo va a matar

Del pellejo hará un pandero

Lo que sea sonará

emilio silvera

Nuevos Materiales, nuevos procesos, nuevos dispositivos. II

Autor por Emilio Silvera    ~    Archivo Clasificado en Física... ¡Y mucho más!    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Una investigación ha desarrollado una nueva estructura cuántica capaz de emitir fotones individuales de color rojo. El avance, que se publica en la revista Nature Materials, se basa en el confinamiento cuántico que se genera en cada uno de los puntos y que les permite modular la energía de la luz que emiten.

En este trabajo han participado investigadores de la Universidad de Zaragoza, el Institut de Recerca en Energia de Catalunya (IREC), la Universidad de Barcelona y del Instituto de Ciencia de Materiales de Barcelona del CSIC. El investigador Jordi Arbiol de este último explica:

“El resultado final son hilos unidimensionales, de tamaño nanométrico, compatibles con la tecnología electrónica actual, que permitirían crear dispositivos a mayor escala con un control total de la emisión de luz, fotón a fotón”.

Pero centrémonos en el trabajo que aquí se prenta hoy y que comienza hablando de los…

Resultado de imagen de nanohilos cuánticos

Nanohilos

No sólo las moléculas, los Nanotubos o el grafeno son las apuestas para sustituir al silicio. Otros elementos como los Nanohilos fabricados a partir de materiales semiconductores o los Nanohilos metálicos tendrán también cierto protagonismo. En concreto, los Nanohilos semiconductores presentan un gran potencial como transistores pero también presentan aplicaciones en campos como octoelectrónica o en la fabricación de censores biológicos. Por otro lado los Nanohilos metálicos, cuya síntesis controlada es más difícil, poseen gran interés como interconectores. En el caso de los Nanohilos formados de materiales Ni, Co o Fe se puede aprovechar también su potencial comportamiento magnetorresisitivo para ser usados en dispositivos de almacenamiento magnético. Los Nanohilos metálicos son interesantes a su vez porque los efectos de tamaño inducen en ellos la aparición de transiciones de fase martensíticas y la aparición de configuraciones no cristalinas.” Veamos que pasa con las Nanopartículas.

                                   Nanopartículas

Quizás, junto a los nanotubos de carbono, las nanopartículas representan los materiales que tienen una repercución tecnológica más inmediata. Además de sus propiedades intrínsecas, las nanopartículas representan los materiales que tienen una repercusión tecnológica más inmediata. Además de sus propiedades intrínsecas, las nanopartículas, debido a su pequeño tamaño, pueden convertirse en diminutos dispositivos capaces de  realizar otras funciones, como transportar un medicamento específico por el torrente sanguíneo sin obstruirlo. Para lograr esto, las nanopartículas deben ser el soporte de capas de moléculas autoensambladas que confieren una funcionalidad adicional a las mismas.

Como su propio nombre indica, el término “nanopartícula” designa una agrupación de átomos o moléculas que dan lugar a una partícula con dimensiones nanométricas. Es decir, que su tamaño está comprendido entre 1 y 100 nm. Dependiendo de cuáles sean los átomos o moléculas que se agrupan se originarán diferentes tipos de nanopartículas. Así, por ejemplo, tendremos nanopartículas de oro, de plata o nanopartículas magnéticas si están formadas por átomos de Fe o Co. Su pequeño tamaño hace que la relación superficie/volumen crezca y por tanto que estas estructuras tengan unas propiedades características y esencialmente distintas a las que presenta el material en volumen.

Una estrategia para la formación de nanopartículas es recubrirlas con distintas capas de manera tal que cada una aporte funcionalidades diferentes al sistema. Así, por ejemplo, recientemente se han descrito nanopartículas cuyo interior está formado por un material magnético, como el Co, seguido de una capa intermedia de SiO2 que aporta estabilidad al sistema y finalmente una superficie de oro.

El tamaño final de la nanopartícula es de 3 nm, y esta estructura laminar hace que tengan un núcleo magnético que posibilite su guiado, y una superficie de oro que facilite  el autoensamblado de moléculas orgánicas o biológicas para diferentes  aplicaciones. Entre éstas destaca su uso como biosensores. Para ello se inmoviliza material biológico, como ácido desoxirribonucleico (ADN) o el llamado ácido nucléico péptidico (PNA, del inglés peptide nucleic acid), que siendo un ácido nucléico artificial, presenta un “esqueleto” molecular formado por enlaces peptidicos y una estructura de bases nucleicas exactamente igual a la del ADN. El PNA puede reconocer cadenas complementarias de ADN, incluso con mayor eficiencia para la hibridación que la que representa el ADN para reconocer su hebra complementaria. Por este motivo, el PNA se ha propuesto como sonda para la fabricación de biosensores altamente eficientes. Estas macromoléculas unidas a superficies o nanopartículas son capaces de detectar diferentes analítos de interés, particularmente otars moléculas biológicas.

Sin embargo, el concepto de nanopartícula debe concebirse en un sentido más amplio ya que no sólo puede estar basada en un núcleo inorgánico, pudiéndose sintetizar nanopartículas poliméricas. Yendo un poco más allá una cápsida vírica puede entenderse como una nanopartícula formada por una carcasa proteica. Esta cápsida vírica tiene dimensiones  nanométricas y, en muchos casos, burla con facilidad las membranas celulares. Por esta razón este tipo de “nanopartículas” se proponen para su uso en nanomedicina, y son el objeto de estudios básicos  en los que las herramientas como los microscopios de fuerzas atómicas juegan un papel esencial. En particular, estas herramientas nos permiten caracterizar las propiedades mecánicas y las condiciones de ruptura de cápsidas víricas así como la forma en la que dichas cápsidas se comportan ante, por ejemplo, cambios controlados de humedad.

En un discurso recientemente impartido en la Universidad Europea de Madrid, William F. Clinton, ex-Presidente de los EE.UU, afirmó que ” el cometido del siglo XXI será salvar al mundo del cambio climático, regenerar la economía y crear empleo. El futuro más allá será la Nanotecnología y la biotecnología”. El propio W.F. Clinton fue el impulsor de la Iniciativa Nacional de Nanotecnología durante su mandato, convirtiendo durante los últimos 10 años a EE.UU en el líder mundial en la generación de conocimientos básicos y aplicados en el ámbito de la Nanotecnología.

Nadie pone en duda las afirmaciones de W.F. Clinton sobre el papel de la Nanotecnología en nuestro futuro a medio y largo plazo, por lo que es imperativo estar suficientemente preparados para construir este nuevo paradigma científico. En el caso concreto de España, las dos últimas ediciones del Plan Nacional de I+D+I han encumbrado las investigaciones en Nanociencia y Nanotecnología a la categoría de Acción Estratégica. En la actualidad se están poniendo en marcha varios centros dedicados a Nanotecnología. Dichas iniciativas son producto, por lo general, de costosos impulsos puntuales, locales, dirigidos por científicos con iniciativa, pero no son fruto de una actuación de conjunto, planificada siguiendo una estrategia  quiada por unos objetivos ambiciosos, en los que impere la coordinación y el uso eficiente de los recursos. La actual coyuntura económica no invita al optimismo a este respecto, por lo que sería necesario poner en marcha iniciativas que promuevan la adquisición de infraestructuras, la formación de técnicos, la coordinación entre centros emergentes, etc.

Otro punto sobre el que no hay que descuidarse tiene que ver con la formación, en todos los niveles educativos, en Nanotecnología. En este sentido son numerosas las universidades españolas que ofrecen cursos de master y/o doctorado con contenidos relacionados con la Nanotecnología. Sin embargo, muchos de estos cursos tienen pocos estudiantes inscritos, al igual que ocurre con muchos estudios de grado relacionados con las ciencias básicas. La tarea de fascinar y atraer a nuestros jóvenes hacia la ciencia debe comenzar mucho antes. En este sentido, los conceptos inherentes a la Nanotecnología deben formar parte del conocimiento que debe llegar a los estudiantes de educación secundaria, como ocurre en países como Alemania, Finlandia, Taiwán, Japón, EE.UU., etc. Además, la Nanotecnología es una materia que causa cierta fascinación a los adolescentes por lo que puede ser un buen punto de partida para incentivar las vocaciones científicas. Esta ha sido una de las principales razones por las que los autores de este artículo junto con otros investigadores (Carlos Briones del Centro de Astrobiología y Elena Casero de la Universidad Autónoma de Madrid) accedieron a la petición de la Fundación Española de Ciencia y Tecnología (FECyT) para escribir una Unidad Didáctica de Ciencia y Tecnología. Dicho libro ya se encuentra en todos los institutos españoles de educación secundaria y bachillerato, y se puede descargar desde la web de la FECyT. Esperemos que esta pequeña contribución, junto con otras de mayor calado que deben promoverse desde las diversas administraciones públicas, permita tomar la senda que nos lleve a medio plazo hacia la tan ansiada sociedad basada en el conocimiento.

Imagen de la Página Inicial de la Revista

Fuente: Revista Española de Física. Volumen 23 Nº 4 de 2009

Los Autores:

D. José Ángel Martín Gago, del Instituto de Ciencia de Materiales de Madrid, Concejo Superior de Investigaciones científicas, Centro de Astrobiología /CSIC/INTA), Instituto Nacional de Técnica Aerpespacial, y, D. Pedro A. Serena Domingo, del Instituo de Ciencia y Materiales de Madrid y del Consejo Superior de Investigaciones Científicas.