viernes, 03 de diciembre del 2021 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




La Inteligencia Artificial… ¡No será nuestro final!

Autor por Emilio Silvera    ~    Archivo Clasificado en El Futuro incierto    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 

La tecnología que enseña a los robots a ‘pensar’ como humanos

 

El aprendizaje automático abre las puertas a un mundo en el que humanos y máquinas coexistirán en equipo

 

 

 

Una persona le hace una foto a Sophia, un robot de Hanson Robotics, presentado esta semana en Ginebra como el último modelo de inteligencia artificial y 'machine learning'.

Una persona le hace una foto a Sophia, un robot de Hanson Robotics, presentado esta semana en Ginebra como el último modelo de inteligencia artificial y ‘machine learning’. DENIS BALIBOUSEREUTERS
Resultado de imagen de el informático Arthur Samuel

A finales de los años 1950, el informático Arthur Samuel creó un programa para jugar a las damas, utilizando un algoritmo sencillo para descubrir los mejores movimientos para ganar. Samuel entrenó el ordenador con una copia de sí mismo (el self play) y con una base de datos en la que estaban registrados centenas de partidos. Era el inicio del machine learning (aprendizaje automático), una rama de la inteligencia artificial (IA) que permite que las máquinas aprendan sin ser explícitamente programadas. Casi siete décadas después de ese juego, esa tecnología tiene aplicaciones tan diversas como el diagnóstico de un cáncer o la construcción de coches autónomos. Hace unos días se dio a conocer su último invento: Sophia, un androide desarrollado por la compañía Hanson Robotics, que acaparó todas las atenciones en la feria tecnológica de Ginebra.

Resultado de imagen de machine learning

“Es una tecnología aplicable a prácticamente todos los campos en los que haya datos disponibles”, explica a EL PAÍS Thomas Dietterich, uno de los padres del machine learning como campo de investigación. El experto menciona ejemplos que van desde los algoritmos usados en el mundo de los negocios para identificar posibles compradores de un producto hasta los sistemas utilizados por los gobiernos para solucionar problemas en infraestructuras como autopistas e hidroeléctricas. Otros ejemplos más cercanos son los sistemas de traducción automática en Skype, el reconocimiento facial de las cámaras de los móviles y los asistentes virtuales, apuestas de empresas como Google y Microsoft para aproximar la tecnología al usuario final.

 

 

MÁS INFORMACIÓN

 

Cortana, el asistente virtual de Microsoft, cuenta con 145 millones de usuarios y la compañía pretende “desarrollarlo hasta el punto en que se comunique directamente con otras IAs para ofrecer al usuario cualquier tipo de información o servicio, desde la compra de un zapato hasta la entrega de una pizza en casa”, según cuenta Ester de Nicolás, líder del equipo de Evangelismo Técnico de la empresa. “Nuestro objetivo es democratizar el acceso al machine learning”, afirma. La principal apuesta en ese sentido es la plataforma de aprendizaje automático en Azure, un servicio de análisis en la nube que permite crear e implementar modelos de máquinas según las necesidades de cada usuario.

Resultado de imagen de Google centra su estrategia en TensorFlow

Durante el keynote, se puso a la inteligencia artificial en el centro de la estrategia para cada uno de los productos, y Google -como hizo con mobile …

Google centra su estrategia en TensorFlow, un almacén de experiencias y resultados de experimentos que usa para que sus aplicaciones tomen mejores decisiones, y que tiene datos abiertos desde 2015. La plataforma ha sido utilizada por diferentes desarrolladores y empresas en todo el mundo para cosas tan dispares como aumentar la producción de leche en vacas o crear un modelo para predecir la compatibilidad entre donante y receptor en los trasplantes de órganos. Pero Google quiere más: “Estamos trabajando en robots que puedan hacerse cargo de situaciones peligrosas y llegar a sitios a los que los seres humanos no podemos llegar, como en la central nuclear de Fukushima”, cuenta Andrés Leonardo Martínez, ingeniero informático de la compañía.

Riesgos y errores

 

 

Resultado de imagen de Dentro del 300 años el mundo será de los Robots

 

 

Además de hacer proyecciones para el futuro, los expertos también se preguntan cuáles son los riesgos de un mundo en el que robots se adaptan y aprenden a partir de la experiencia (como los seres humanos). Descartan, eso sí, un escenario de ciencia ficción donde las máquinas aniquilan la humanidad. “Creamos y programamos computadoras porque nos permiten hacer las cosas mejor. Imagino un futuro en el que una persona y un sistema de IA trabajan juntos como un equipo. En prácticamente todos los campos, la combinación de robots y personas es más poderosa. Un ejemplo famoso es conocido como ajedrez centauro, en el que compiten equipos mixtos de personas y ordenadores. Los mejores equipos centauro pueden derrotar a cualquier humano y cualquier computadora que juegue solo”, comenta Dietterich.

Resultado de imagen de Dentro del 300 años el mundo será de los Robots

El investigador ve por lo menos dos papeles importantes para los humanos en el futuro: realizar tareas que exigen empatía y “comprensión profunda de otro ser humano” y asegurar que los robots no cometan errores. “Los problemas de toma de decisiones de alto riesgo a menudo involucran factores únicos. El aprendizaje automático solo funciona bien en problemas estables, cuando el mundo es altamente predecible y es fácil recolectar gran cantidad de datos de entrenamiento. En los problemas donde cada situación es única, es improbable que esa tecnología tenga éxito”, explica.

Resultado de imagen de Dentro del 300 años el mundo será de los Robots

                  Falta mucho, mucho, muchísimo tiempo para que “ellos” nos tengan que preocupar

Ester de Nicolás sostiene que “preocuparse ahora mismo por la revolución de los robots es como preocuparse por la superpoblación en Marte”, pero señala que hay problemas que son menos visibles y de los que poco se habla, como el hecho de que los sistemas dependan de bases de datos, muchas veces privados y sesgados. “No siempre hay datos correctos. Estamos depositando muchísima confianza en AI, pero hay que tener más cuidado con esas cosas”.

Resultado de imagen de Dentro del 300 años el mundo será de los Robots

Dietterich da un ejemplo de esa pega: algunas empresas utilizan el aprendizaje automático para decidir qué salario ofrecer a un empleado. Si los datos históricos demuestran que las mujeres han cobrado menos que los hombres, entonces el algoritmo recomendará ofrecer a ellas un sueldo más bajo. El experto defiende la creación de una regulación que determine pruebas de seguridad y una certificación específica para mitigar esos riesgos. Sebastian Farquhar, investigador del Instituto para el Futuro de la Humanidad opina, sin embargo, que es pronto para eso. “La legislación está subdesarrollada, y eso es algo bueno, porque la tecnología está cambiando constantemente. Creo, eso sí, que debemos ser más conscientes de los riesgos, porque hay mucho en juego”, dice. Mientras tanto, trabajan para que los robots aporten súper poderes físicos e intelectuales. “Espero el día en que me pondré un exoesqueleto para levantar 300 kg o correr largas distancias cuando tengo 80 años”, cuenta Dietterich.

¿Qué nos trajo la Arqueología?

Autor por Emilio Silvera    ~    Archivo Clasificado en Rumores del saber del mundo    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen de La prehistoria de la raza Humana

La arqueología (un término que se uso por primera vez en la década de 1860)  amplió y profundizó el trabajo de la filología, al ir más allá de los textos y confirmar que, en efecto, los hombres tenían un pasado distante anterior a la escritura, una prehistoria.

En 1802, el maestro de escuela Georg Friedrich Grotefend (1775 – 1853) envió tres artículos a la Academia de Ciencias de Gotinga en los que revelaba que había descifrado la escritura cuneiforme de Persépolis, algo que había conseguido principalmente reorganizando los grupos de cuñas (similares a las huellas de los pájaros sobre la arena) y añadiendo espacios entre grupos de letras, y relacionando luego su forma con el sánscrito, una lengua (geográficamente) cercana.

Imagen relacionada

Grotefend consideraba que algunas de las inscripciones eran listas de reyes y que el nombre de algunos de estos era conocido.  Las demás formas de cuneiforme, incluida la babilónica, se descifraron algunos años más tarde.  En la década de 1820, Champollion descifró los jeroglíficos egipcios, en 1847 sir Austen Layrd excavó Nínive y Ninrud, en lo que hoy es Irak, y descubrió las maravillosos palacios de Assurnasirpal II, rey de Asira (885 – 859 a.c.), y Sennacherib (704 – 681 a.c.). Los enormes guardianes de las puertas encontrados allí, semitoros y leones de dimensiones mucho más grandes que las reales, causaron sensación en Europa, todo aquello popularizó la Arqueología.

Resultado de imagen de tablilla en cuneiforme en la que estaba escrita la epopeya de Gilgamesh

Estas excavaciones condujeron finalmente al descubrimiento de una tablilla en cuneiforme en la que estaba escrita la epopeya de Gilgamesh, notable por dos razones: en primer lugar, era mucho más antigua que los poemas homéricos y la Biblia; en segundo lugar, diversos episodios del relato, como el de la gran inundación, eran similares a los que recogía el Antiguo Testamento.

Cada uno de aquellos descubrimientos aumentaba la edad de la Humanidad y arrojaba nueva luz obre las Sagradas Escrituras.  Sin embargo, con excepción de la epopeya de Gilgamesh, ninguno de ellos aportaba nada realmente nuevo en términos de datación, en el sentido de que no contradecían de forma significativa la cronología bíblica.

Imagen relacionada

Todo aquello empezó a cambiar hacia 1856 cuando se empezó a limpiar a fondo una pequeña cueva en un costado del valle Neander (Neander Thal en alemán), a través del cual el río Düssel desemboca en el Rin.  En ella se encontró un cráneo, enterrado bajo más de un metro de barro, así como algunos otros huesos.

Aquellos huesos fueron a parar a manos del profesor de anatomía de la Universidad de Bonn, Schaaffhausen que, identificó la parte superior de un cráneo, dos fémures, parte de un brazo izquierdo, parte de una pelvis, y algunos otros vestigios de menor tamaño.

En el artículo que escribió sobre aquello, Schaaffausen llamaba la atención sobre el grosor de los huesos, el gran tamaño de las marcas dejadas por los músculos que estuvieron unidos a ellos, el pronunciamiento de los arcos supraorbitales, y la frente pequeña y estrecha.

Concluyo el profesor diciendo que:

Resultado de imagen de Los cráneos más antiguos hallados

“Hay indicios racionales suficientes para sostener, que el hombre coexistió con los animales descubiertos en el diluvio; y muchas razas bárbaras quizá hayan desaparecido antes de todo el tiempo histórico, junto a los animales del mundo antiguo, mientras que las razas cuya organización mejoró continuaron el género.”

 

El profesor concluyó proponiendo que el espécimen “probablemente perteneciera al pueblo bárbaro original que habitaba el norte de Europa antes de los Germanos.”

Esto no es exactamente lo mismo que hoy entendemos por hombre Neandertal, pero en cualquier caso el hallazgo supuso un gran avance para el conocimiento de nosotros mismos.

Escribiendo sobre estos temas de la antigüedad y de los hechos pasados en los distintos lugares y épocas a distintas culturas, he caído en la cuenta de que el futuro estuvo antes del pasado, me explico:

Resultado de imagen de Real conservatorio superior de Música de Madrid

             Real Conservatorio de Música de Madrid

Lo que pretendo decir es que cada uno tenemos nuestro propio pasado, presente y futuro.  Si retrocedo unos años en el tiempo, imaginarme a mi hija Maria estudiando en el Conservatorio Superior de Música en Madrid, era el futuro.  Sin embargo ahora es presente y, dentro de poco será el pasado.  Todo esto nos lleva de nuevo a lo que escribí en otro trabajo: Pasado, presente y futuro.  Una ilusión llamada tiempo.

El tiempo es una abstracción de nuestra mente.  Algún científico ha dicho (quiero recordar que el Nobel de Física de 2.004 Frank Wilczek) que el tiempo no pasa, es algo que está ahí.  Sin embargo, como me ocurre con la luz y con otras cosas, a mí el tiempo me llama la atención y despierta mi curiosidad.

Imagen relacionada

Sigamos con el tema que estaba comentando.  Por aquella época, la palabra “ciencia” había empezado a adquirir su significado moderno.  (El término “científico” fue acuñado por William Whewell en 1833.)  Hasta finales del siglo XVIII, se había preferido el uso de las expresiones “filosofía natural” e “historia natural”.  De manera natural y gradual, a medida que diversas disciplinas especializadas fueron surgiendo, primero en Alemania y después en otros lugares, la palabra “ciencia” empezó a ser el término preferido para designar a estas nuevas actividades.

Es curioso ver como, por aquella época también (finales de S.XVIII), algunos empezaron a cuestionar los fundamentos básicos del cristianismo, aunque la mayoría de los hombres de ciencia no se apresuraron a apoyar la idea.  Por lo general, los biólogos, químicos y fisiólogos de la época eran todavía hombres religiosos y devotos.

Resultado de imagen de Linneo y la biología

El caso de Linneo es en este sentido ejemplar.  Pese a ser una de las figuras de la ilustración (figuras principales) y uno de los padres de la biología moderna, cuyos aportes forman parte de los antecedentes de la teoría de la evolución, Linneo era muy diferente de, por ejemplo, Voltaire. El naturalista John Ray (1627 – 1705) ya había advertido que no todas las especies (miles de las cuales se había encontrado en el Nuevo Mundo y África) podían ordenarse en una jerarquía significativa, y que las formas de la vida variaban de muchas maneras diferentes, una concepción que suponía la ruptura temprana con la idea de una gran cadena del ser.

Me he salido del tema, de Linneo os hablaré otro día.

emilio silvera

¿La Física? ¡Una maravilla! Nos dice cómo funciona la Naturaleza

Autor por Emilio Silvera    ~    Archivo Clasificado en Física    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Ylia Prigogine haciendo lo que sólo unos privilegiados pueden hacer: desvelando los principios del mundo. Enn la pizarra, la entropía. La irreversibilidad del tiempo trae el orden al caos, decía.  De alguna manera pretendía explicar que nada permanece y todo cambia bajo los efectos del inexorable paso del Tiempo.

Pero centremos nuestra atención en los próximos minutos en estos temas de la Física que nos dicen y descubren fenómenos asombrosos que, de otra manera, nunca podríamos conocer.

En su Libro Partículas, Gerard ´t Hofft, Premio Nobel de Física, nos cuenta:
“En el mundo de los seres vivos, la escala o tamaño crea importantes diferencias. En muchos aspectos, la anatomía de un ratón es una copia de la de un elefante, pero mientras que un ratón trepar por una pared prácticamente vertical sin mucha dificultad (y se puede caer desde una altura varias veces mayor que su propio tamaño sin hacerse daño), un elefante no sería capaz de realizar tal hazaña. Con bastante generalidad se puede afirmar que los efectos de la gravedad son menos importantes cuanto menores sean los objetos que consideremos (sean vivos o inanimados).

Cuando llegamos a los seres unicelulares, se ve que ellos no hay distinción entre arriba y abajo. Para ellos, la tensión superficial del agua es mucho más importante que la fuerza de la gravedad a esa escala. Tranquilamente se pueden mover y desplazar por encima de una superficie acuática. Los pluricelulares no pueden hacer tal cosa.

La tensión superficial es una consecuencia de que todas las moléculas y los átomos se atraen unos a otros con una fuerza que nosotros llamamos de Van der Waals. fuerza tiene un alcance muy corto; para ser precisos, diremos que la intensidad de esta fuerza a una distancia r es aproximadamente 1/r7. Esto significa que si se reduce la distancia dos átomos a la mitad de la fuerza de Van der Waals con la que se atraen uno a otro se hace 2 × 2 × 2 × 2 × 2 × 2 × 2 = 128 veces más intensa. Cuando los átomos y las moléculas se acercan mucho unos a otros quedan unidos muy fuertemente a través de esta fuerza. El conocimiento de esta fuerza se debe a Johannes Diderik Van der Waals (1837 – 1923) con su tesis sobre la continuidad del líquido y gaseoso que le haría famoso, ya que en esa época (1873), la existencia de las moléculas y los átomos no estaba completamente aceptado.

La tensión superficial del agua, es el efecto físico (energía de atracción entre las moléculas) que “endurece” la capa superficial del agua en reposo y permite a algunos insectos, como el mosquito y otros desplazarse por la superficie del agua sin hundirse.

El famoso físico inglés James Clerk Maxwell, que formuló la teoría del electromagnetismo de Faraday, quedó muy impresionado por este de Van der Waals.

Los tamaños de los seres uniceculares, animales y vegetales, se miden en micrómetros o “micras”, donde 1 micra es 1/1.000 de milímetro, aproximadamente el tamaño de los detalles más pequeños que se pueden observar con un microscopio ordinario. El mundo de los microbios es fascinante, pero no es el objeto de este trabajo, y continuaremos el viaje emprendido las partículas elementales que forman núcleos, átomos, células y materia, así como las fuerzas que intervienen en las interacciones fundamentales del universo y que afecta a todo lo que existe.

 

Hemos hablado del electrón que rodea el núcleo, de su carga eléctrica negativa que complementa la positiva de los protones y hace estable al átomo; una masa de solamente 1/1.836 de la del núcleo más ligero (el del hidrógeno). La importancia del electrón es vital en el universo.

Pero busquemos los “cuantos”. La física del siglo XX empezó exactamente en el año 1900, cuando el físico alemán Max Planck propuso una posible solución a un problema que había intrigando a los físicos durante años. Es el problema de la luz que emiten los cuerpos calentados a una cierta temperatura, y también la radiación infrarroja emitida, con menor intensidad, por los objetos más fríos (radiación de cuerpo negro).

Estaba bien aceptado entonces que esta radiación tenía un origen electromagnético y que se conocían las leyes de la naturaleza que regían estas ondas electromagnéticas. También se conocían las leyes para el frío y el calor, la así llamada “termodinámica”, o al menos eso parecía. Pero si utilizamos las leyes de la termodinámica para calcular la intensidad de una radiación, el resultado no tiene ningún sentido. Los cálculos nos dicen que se emitiría una cantidad infinita de radiación en el ultravioleta más lejano y, luego, esto no es lo que sucede. Lo que se observa es que la intensidad de la radiación muestra un pico a una cierta longitud de onda característica, y que la intensidad disminuye tanto para longitudes mayores como para menores. Esta longitud de onda característica es inversamente proporcional a la temperatura absoluta de objeto radiante (la temperatura absoluta se define por una escala de temperatura que empieza a 273º bajo cero). Cuando a 1.000º C un objeto se pone al “rojo vivo”, el objeto está radiando en la zona de luz visible.

Radiación de Cuerpo Negro

Un cuerpo negro es un objeto teórico o ideal que absorbe toda la luz y toda la energía radiante que incide sobre él. Nada de la radiación incidente se refleja o pasa a través del cuerpo negro. A pesar de su , el cuerpo negro emite luz y constituye un modelo ideal físico para el estudio de la emisión de radiación electromagnética. El nombre Cuerpo negro fue introducido por Gustav Kirchhoff en 1862.

La luz emitida por un cuerpo negro se denomina radiación de cuerpo negro. Todo cuerpo emite energía en de ondas electromagnéticas, siendo esta radiación, que se emite incluso en el vacío, tanto más intensa cuando más elevada es la temperatura del emisor. La energía radiante emitida por un cuerpo a temperatura ambiente es escasa y corresponde a longitudes de onda superiores a las de la luz visible (es decir, de menor frecuencia). Al elevar la temperatura no sólo aumenta la energía emitida sino que lo hace a longitudes de onda más cortas; a esto se debe el cambio de color de un cuerpo cuando se calienta. Los cuerpos no emiten con igual intensidad a todas las frecuencias o longitudes de onda, sino que siguen la ley de Planck.

Lo que Planck propuso fue simplemente que la radiación sólo podía ser emitida en paquetes de un tamaño dado. La cantidad de energía de uno de esos paquetes, o cuantos, es inversamente proporcional a la longitud de onda, y por tanto, proporcional a la frecuencia de radiación emitida. La fórmula es E = hν, donde E es la energía del paquete, ν es la frecuencia y h es una nueva constante fundamental de la naturaleza, la constante de Planck. Cuando Planck calculó la intensidad de la radiación térmica imponiendo nueva condición, el resultado coincidió perfectamente con las observaciones.

Poco tiempo después, en 1905, Einstein formuló esta teoría de una manera mucho más tajante: él sugirió que los objetos calientes no son los únicos que emiten radiación en paquetes de energía, sino que toda la radiación consiste en múltiplos del paquete de energía de Planck. El príncipe francés Louis-Victor de Broglie, dándole otra vuelta a la teoría, propuso que no sólo cualquier cosa que oscila tiene energía, sino que cualquier cosa con energía se debe comportar una “onda” que se extiende en una cierta región del espacio, y que la frecuencia ν de la oscilación verifica la ecuación de Planck. Por lo tanto, los cuantos asociados con los rayos de luz deberían verse una clase de partículas elementales: el fotón. Todas las demás clases de partículas llevan asociadas diferentes ondas oscilantes de campos de fuerza, esto lo veremos más adelante.

El curioso comportamiento de los electrones en el interior del átomo, descubierto y explicado por el famoso físico danés Niels Bohr, se pudo atribuir a las ondas de de Broglie. Poco después, en 1926, Edwin Schrödinger descubrió cómo escribir la teoría ondulatoria de de Broglie con ecuaciones matemáticas exactas. La precisión con la cual se podían realizar cálculos era asombrosa, y pronto quedó claro que el comportamiento de todos los objetos pequeños quedaba exactamente determinado por las recién descubiertas “ecuaciones de ondas cuánticas”.

Está bien comprobado que la mecánica cuántica funciona de maravilla…, pero, sin embargo, surge una pregunta muy formal: ¿qué significan realmente estas ecuaciones?, ¿qué es lo que están describiendo? Isaac Newton, allá en 1867 formuló cómo debían moverse los planetas alrededor del Sol, estaba claro todo el mundo qué significaban sus ecuaciones: que los planetas estaban siempre en una posición bien definida des espacio y que sus posiciones y sus velocidades en un momento concreto determinan inequívocamente cómo evolucionarán las posiciones y las velocidades en el tiempo.

Pero los electrones todo es diferente. Su comportamiento parece estar envuelto en misterio. Es como si pudieran “existir” en diferentes lugares simultáneamente, como si fueran una nube o una onda, y esto no es un efecto pequeño. Si se realizan experimentos con suficiente precisión, se puede determinar que el electrón parece capaz de moverse simultáneamente a lo largo de trayectorias muy separadas unas de otras. ¿Qué puede significar todo esto?

Niels Bohr consiguió responder a esta pregunta de tal que con su explicación se pudo seguir trabajando, y muchos físicos siguen considerando su respuesta satisfactoria. Se conoce como la interpretación de Copenhague de la mecánica cuántica.

Si la mecánica cuántica tiene cosas extrañas y el espín es una de ellas. Y si uno piensa que la intuición le ayudará a comprender todo esto, pues no lo hará, o es poco probable que lo haga. Las partículas tienen un espín fundamental. Al igual que la carga eléctrica o la masa, el espín ayuda a definir que de partícula es cada una.

Las leyes de la mecánica cuántica han sido establecidas con mucha precisión; permite cómo calcular cualquier cosa que queramos saber. Pero si queremos “interpretar” el resultado, nos encontramos con una curiosa incertidumbre fundamental: que varias propiedades de las partículas pequeñas no pueden estar bien definidas de manera simultánea. Por ejemplo, podemos determinar la velocidad de una partícula con mucha precisión, pero entonces no sabremos exactamente dónde se encuentra; o a la inversa, podemos determinar la posición con precisión, pero entonces su velocidad queda mal definida. Si una partícula tiene espín (rotación alrededor de su eje), la dirección alrededor de la cual está rotando (la orientación del eje) no puede ser definida con gran precisión.

La posición y el momento de una partícula nunca lo podremos saber con precisión ilimitada.

No es fácil explicar de forma sencilla de dónde viene esta incertidumbre, pero existen ejemplos en la vida cotidiana que tienen algo parecido. La altura de un tono y la duración en el tiempo durante el cual oímos el tono tienen una incertidumbre mutua similar. Para afinar un instrumento se debe escuchar una nota durante un cierto intervalo de tiempo y compararla, por ejemplo, con un diapasón que debe vibrar también durante un tiempo. Notas muy breves no tienen bien definido el tono.

Para que las reglas de la mecánica cuántica funcionen, es necesario que todos los fenómenos naturales en el mundo de las cosas pequeñas estén regidos por las mismas reglas. Esto incluye a los virus, bacterias e incluso a las personas. Sin embargo, cuando más grande y más pesado es un objeto, más difícil es observar las desviaciones de las leyes del movimiento “clásicas” debidas a la mecánica cuántica. Me gustaría referirme a exigencia tan importante y tan peculiar de la teoría con la palabra “holismo”. Esto no es exactamente lo mismo que entienden algunos filósofos por holismo, y que podría definir como “el todo es más que la suma de sus partes”. Si la física nos ha enseñado algo es justo lo contrario. Un objeto compuesto de un gran de partículas puede ser entendido exactamente si se conocen las propiedades de sus partes (partículas); basta que sepamos sumar correctamente (¡y esto no es nada fácil en mecánica cuántica!). Lo que entiendo por holismo es que, efectivamente, el todo es la suma de las partes, pero sólo se puede hacer la suma si todas las partes obedecen a las mismas leyes. Por ejemplo, la constante de Planckh, que es igual a 6’626075… × 10-34 Julios segundo, debe ser exactamente la misma para cualquier objeto en cualquier sitio, es decir, debe ser una constante universal.

La mecánica cuántica es muy extraña a nuestro “sentido común”, sabemos que se desenvuelve en ese “universo” de lo muy pequeño, alejado de nuestra vida cotidiana en el macrocosmos tetradimensional que, no siempre coincide con lo que, en aquel otro ininitesimal acontece.

Las reglas de la mecánica cuántica funcionan tan bien que refutarlas resulta realmente difícil. Los trucos ingeniosos descubiertos por Werner Heisemberg, Paul Dirac y muchos otros mejoraron y completaron las reglas generales. Pero Einstein y otros pioneros como Erwin Schrödinger siempre presentaron serias objeciones a interpretación. Quizá funcione bien, pero ¿dónde está exactamente el electrón?, ¿en el punto x o en el punto y? En pocas palabras, ¿dónde está en realidad?, y ¿cuál es la realidad que hay detrás de nuestras fórmulas? Si tenemos que creer a Bohr, no tiene sentido buscar tal realidad. Las reglas de la mecánica cuántica, por sí mismas, y las observaciones realizadas con detectores son las únicas realidades de las que podemos hablar.

Es cierto que, existe otro universo dentro de nuestro del que, aún, nos queda mucho por aprender.

La mecánica cuántica puede ser definida o resumida así: en principio, con las leyes de la naturaleza que conocemos se puede predecir el resultado de cualquier experimento, en el sentido que la predicción consiste en dos factores: el primer factor es un cálculo definido con exactitud del efecto de las fuerzas y estructuras, tan riguroso como las leyes de Isaac Newton para el movimiento de los planetas en el Sistema Solar; el segundo factor es una arbitrariedad estadística e incontrolable definida matemáticamente de estricta. Las partículas seguirán una distribución de probabilidades dadas, primero de una forma y luego de otra. Las probabilidades se pueden calcular utilizando la ecuación de Schrödinger de función de onda (Ψ) que, con muchas probabilidades nos indicará el lugar probable donde se encuentra una partícula en un dado.

Muchos estiman que esta teoría de las probabilidades desaparecerá cuando se consiga la teoría que explique, de forma completa, todas las fuerzas; la buscada teoría del todo, lo que implica que nuestra descripción actual incluye variables y fuerzas que (aún) no conocemos o no entendemos. Esta interpretación se conoce como hipótesis de las variables ocultas.”

Resultado de imagen de Principio holográfico

También Gerard ‘t Hooft es el autor de lo que han dado en llamar principio holográfico es una conjetura especulativa acerca de las teorías de la Gravedad Cuántica propuesta en 1993 por este autor,  y mejorada y promovida por Leonard Susskin en 1995. Postula que toda la información contenida en cierto volumen de un espacio  concreto se puede conocer a partir de la información codificable sobre la frontera de dicha región. Una importante consecuencia es que la cantidad máxima de información que puede contener una determinada región de espacio rodeada por una superficie diferenciable está limitada por el área total de dicha superficie.

Por ejemplo, se pueden modelar todos los eventos que ocurran en un cuarto o una habitación creando una teoría en la que sólo tome en cuenta lo que suceda en sus paredes. En el principio holográfico también se afirma que por cada cuatro Unidades de Planck  existe al menos un grado de libertad  (o una unidad constante de Bolttzmann k de máxima entropía). Esto se conoce como frontera de Bekenstein:

S\le\frac{A}{4}

 

donde S es la entropía y A es la unidad de mensura considerada. En unidades convencionales la fórmula anterior se escribe:

S\le \left( \frac{kc^3}{G\hbar} \right) \frac{A}{4} = k \frac{A}{4\ell_P^2}

donde:

Claro que esta… ¡Es otra Historia!

emilio silvera

¿Hasta dónde llegaremos?

Autor por Emilio Silvera    ~    Archivo Clasificado en El cerebro    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Manejar aparatos con la mente ya es posible: así podrás usar tus dispositivos preferidos sólo con el pensamiento

servimedia.jpg
Eco Diario. Es – Ciencia
cerebro-ondas.jpg

El Centro de Referencia Estatal para la Atención a Personas con Grave Discapacidad y para la Promoción de la Autonomía Personal y Atención a la Dependencia de León ha patentado la tecnología Brain Computer Interface (BCI), que registra y predice las intenciones cerebrales para el entrenamiento cognitivo y la asistencia domótica.

Así, “la tecnología ya permite manejar aparatos electrónicos a través del pensamiento gracias a la encefalografía”, explicó María Teresa Gutiérrez, directora gerente del CRE Discapacidad y Dependencia de León, que ha creado recientemente el sistema ‘Brain Computer Interface’ (BCI), en las XXIII Jornadas Científicas de Aspaym Madrid .

Resultado de imagen de electroencefalografía que registra y predice las intenciones cerebrales

Se trata de un sistema pionero de electroencefalografía que registra y predice las intenciones cerebrales para el entrenamiento cognitivo y la asistencia a personas con discapacidad o en situación de dependencia a través de la domótica.

“A través de este sistema una persona puede encender y apagar un ordenador sólo con pensarlo, a través de ondas cerebrales”, indicó.

“El ordenador identifica qué respuestas cerebrales van unidas a un pensamiento y ejecuta la orden”, añadió.

Asimismo, Gutiérrez hizo hincapié en que “toda esta tecnología se puede lograr gracias a la investigación, que es importante porque beneficia a toda la sociedad, una población cada vez más envejecida, porque España es el segundo país con mayor esperanza de vida sólo por detrás de Japón”, aseguró.

Imagen relacionada

José Antonio Hernández, responsable de la Escuela TIC de la Fundación del Lesionado Medular (FLM), explicó la labor que realiza la entidad a través de impresión 3D en materia de productos de apoyo para personas con lesión medular. La FLM, que cuenta con dos impresoras, imprime productos en tres dimensiones que suponen una mejora para el usuario o abarate el coste del producto. Además, en la FLM trabajan para detectar necesidades no resueltas y tratar de darles una solución. “Son los propios usuarios los que detectan sus necesidades, diseñan la solución y la crean”.

Resultado de imagen de Electroencefalografía

Para Hernández, “el mundo de la impresión y el escáner 3D abre un gran horizonte porque con una maquinaria relativamente económica se puede imprimir gran cantidad de material”. Además, “todavía no hemos visto todo el potencial de estas tecnologías y queda mucho por mejorar. En un futuro podremos comprar un objeto e imprimirlo en casa”.

Por otro lado, Gustavo Adolfo Díaz, socio de Aspaym Madrid y técnico de la Federación Nacional Aspaym, explicó cómo los smartphones le ayudan en su día a día: “Me dan mayor autonomía con un sinfín de posibilidades y aplicaciones; por ejemplo, a la hora de desplazarme o conocer la accesibilidad de un lugar”.

Díaz presentó algunas de aplicaciones como Tur4all, Wheelmap o Accessibility Plus que le aportan información fiable y le permiten actuar de forma independiente reduciendo su necesidad de asistencia.

El fuego de Moguer… ¿Intencionado?

Autor por Emilio Silvera    ~    Archivo Clasificado en Catástrofes Naturales    ~    Comentarios Comments (11)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Vecinos de Mazagón apagan el fuego del incendio de Moguer que ya ha llegado a sus parcelas

 

 

 

Este que veís ahí con la manguera es mi hijo emilio que vive en una casa al lado de la playa

 

Vecinos de la urbanización Casas de Bonares de la playa de Mazagón (Huelva), apagan el fuego que ha llegado a sus viviendas por el incendio de Moguer que ya ha alcanzado al Parque Natural de Doñana.

En la foto de Carlos Martin Vaz subida a twitter se aprecia la proximidad de las llamas a las urbanizaciones de Mazagón

El fuego, como se puede apreciar en estos vídeos, ha llegado a las parcelas de las casas de esta urbanización, y aunque los bomberos ya han estado en el lugar, son los propios vecinos los que intentan aliviar con mangueras la zona. “Mi amiga con el pelo prendido en llamas y el novio quitándola de ahí”, se escucha relatar a una vecina.

El incendio se ha originado en el paraje La Peñuela en el termino municipal de Moguer.

 

 

El incendio se ha originado en el paraje La Peñuela en el termino municipal de Moguer.

 

 

La Delegación del Gobierno de Huelva de la Junta, desde Emergencias 112, ha activado a las 22.15 horas el nivel 1 de Pan Infoca por riesgo en las personas y bienes. El fuego sigue al lado de la carretera H-3111 que une Moguer con Mazagón. También se han incorporado efectivos de la Guardia Civil y ambulancias. Desde Emergencias 112 se ha comunicado desde su cuenta en twitter que las personas que están en la zona sigan las indicaciones de los servicios de evacuación y se actúe con calma.

 

Foto: Las llamas del incendio de Moguer (huelva) entran en el Espacio Natural de Doñana. (EFE)

 

 

 

Preocupa que las llamas lleguen hasta las conocidas ‘casas de Bonares’ en Mazagón

 

En esas casas precisamente, vive mi hijo Emilio que, ha estado toda la noche ayudando en el desalojo de personas mayores y echando agua con una manguera sobre los rescoldos del fuego y el techo de las casas conocidas con el soibrenombre de “Las casas de Bonares”. Por suerte, no se produjeron bajas.

Provincia, Sucesos

Efectivos trabajan contra el incendio

La cifra de personas que se han tenido que desalojar por el incendio en Mazagón se ha elevado a casi 2.000, según los últimos datos aportados por el delegado del Gobierno en Andalucía, Antonio Sanz. El desalojo se ha producido entre los clientes de un camping, personal del Instituto Nacional de Técnica Aeroespacial del Ministerio del Interior (INTA) en la base de La Arenosilla, clientes y servicio del Parador Nacional de Mazagón, de otros hoteles y de casas particulares.

Resultado de imagen de La Playa de Mazagón

Según me ha contado mi hijo Emilio, hace una escasa media hora, su compañera, Maribel, corrió hacia la Playa alejandose del fuego, y, las folliscas que le caían encima traídas por el fuerte viento, le prendieron el pelo que tuvo que apagar a manotazos.

La Experiencia no ha sido nada gratificante, pasaron mucho miedo y vieron como, cuando se juntan el fuego y el viento… ¡Son imparables!

emilio silvera