domingo, 28 de mayo del 2017 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




el futuro Incierto

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

TECNOLOGÍA

Nick Bostrom, el filósofo que advierte de los riesgos de la superinteligencia artificial

Por Maruxa Ruiz del Árbol | 20-04-2017

 

Nick Bostrom

Nick Bostrom

Filósofo

Bautizado como “el filósofo del fin del mundo” por el New Yorker, Nick Bostrom no tiene aspecto de loco apocalíptico. Es más bien la imagen de la mesura y la reflexión, aunque sus ideas desaten polémicas cada vez que las expone y gane acérrimos enemigos con la misma facilidad con que consigue fervorosos defensores. Entre estos últimos se encuentran mentes tan brillantes como las de Stephen Hawking o visionarios de las nuevas tecnologías como Bill Gates o Elon Musk. Lo que ha llamado la atención de este filósofo sueco, director y fundador del Future of Humanity Institute en la universidad de Oxford, son sus desarrollos acerca de los peligros que acechan a nuestra especie detrás de la inteligencia artificial. Frente al optimismo ingenuo de quienes ven en las máquinas pensantes la solución a todos nuestros problemas, Bostrom advierte que debemos tener cautela. O, dicho en sus propias palabras, dejar de comportarnos como “niños pequeños jugando con una bomba”.

Resultado de imagen de inteligencia artificial

La posibilidad de que los ordenadores o los robots que estamos construyendo nos superen en inteligencia algún día no es descabellada. Lo que hasta hace muy poco era terreno de la ciencia ficción debe observarse ahora como un horizonte muy probable: “creo que si hay algo que puede cambiar fundamentalmente la naturaleza de la vida en la Tierra, eso es la transición hacia la era de la inteligencia de las máquinas. No tenemos otra opción que enfrentar este desafío. La superinteligencia de las máquinas es como un portal que la humanidad debe atravesar obligatoriamente, pero debemos asegurarnos de no chocar contra el muro cuando lo hagamos”. Aunque pudiera parecer lo contrario, el de Bostrom no es un mensaje desesperanzador ni predica -como si fuera una versión digital de los luditas que destrozaron las máquinas durante la primera revolución industrial- una guerra contra las nuevas tecnologías. De hecho su confianza en las posibilidades de la ciencia le llevó a fundar en 1998 la Asociación Mundial Transhumanista, que defiende potenciar las capacidades humanas a través de una hibridación con la tecnología.

Resultado de imagen de inteligencia artificial

En una entrevista con El País, Bostrom incidía en que su función es llamar a una reflexión profunda, no demonizar las máquinas: “hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar rápidamente nuestra capacidades tecnológicas, y nuestra sabiduría, que va mucho más despacio. Necesitamos un cierto nivel de sabiduría y de colaboración para el momento en que alcancemos determinados hitos tecnológicos, para sobrevivir a esas transiciones”.

Resultado de imagen de inteligencia artificial

Como defiende en su libro Superinteligencia: Caminos, Peligros, Estrategias, publicado en 2014 (y que entró rápidamente en la lista de los más vendidos del New York Times Book Review) el verdadero reto no está tanto en la inteligencia que sean capaces de alcanzar las máquinas, sino en el desarrollo moral de nuestra especie. Al final, como ya postuló Jean-Paul Sartre, estamos condenados a ser libres. Y eso puede ser peligroso, pero también una excelente oportunidad para dar otro salto evolutivo. (http://www.nickbostrom.com)

Los pros y los contras de las máquinas más listas

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Inteligencia artificial

 

El aprendizaje automático es uno de los campos con más proyección  en inteligencia artificial.

 

 

 

Tenemos la clave para fabricar máquinas listas. Intel

 

Reportaje de Pablo G. Bejerano
 

Los miles de millones de dispositivos que se conectan a internet cada día generan una cantidad abrumadora de información. Son montones de terabytes de datos que aparecen de la nada diariamente.

Esto abre el apetito por obtener valor de la información. Y la inteligencia artificial es clave aquí. El término se suele asociar con la robótica, una herencia cultural de la ciencia ficción, pero lo cierto es que la inteligencia artificial es algo mucho más abstracto que robots humanoides caminando o que los dilemas del superordenador Hal en 2001: una odisea del espacio.

Ojo cámara (con lente fish eye es decir con una visual muy panóptica) de color rojo (para detectar por filtro cromático incluso la “luz” IR no perceptible por el ser humano), usado para representar a HAL 9000 en uno de sus aspectos de control prácticamente orweliano.

Podría decirse que la inteligencia artificial asoma la cabeza por primera vez en los años 60 con sistemas predictivos y a partir de ahí evoluciona a velocidad de crucero. Hoy se usa para evitar fraudes bancarios, en el reconocimiento de voz, en el filtro anti spam del correo electrónico, incluso en el etiquetado de fotos automático de Facebook o en los videojuegos.

Lo que está por venir en inteligencia artificial –ya se ha investigado mucho sobre ello– son los coches autónomos, la medicina de alta precisión o el procesamiento del lenguaje natural que le pediremos a los Siri, Google Now o Cortana en los próximos años. Son algunas de las áreas para las que el aprendizaje automático o machine learning es necesario.

Creada una máquina que aprende como una persona

Que las máquinas aprendan es fundamental porque es uno de los elementos que retrasará su obsolescencia prematura, reforzando su autonomía. Este aprendizaje es uno de los temas que han sobrevolado la Conferencia Internacional de Desarrolladores (IDF) de Intel.

Hoy el 7% de todos los servidores presentes en el mundo están dedicados a tareas de aprendizaje automático. Y más del 97% de estos servidores funcionan con procesadores de Intel. Si bien en campos como los coches autónomos la compañía se ve amenazada por los productos de su competidora Nvidia.

En todo caso, esta rama de la inteligencia artificial es la que tiene mayor proyección. Intel proporciona el hardware sobre el que los desarrolladores pueden programar sus algoritmos de inteligencia artificial. Para entrenar a los algoritmos la compañía ofrece el procesador Xeon Phi, mientras que para ejecutar una tarea determinada, ya aprendida, cuenta con el Xeon.

                                                                        Un centro de datos de Intel. Intel

 

“Trabajamos con instituciones académicas y desarrolladores para asegurarnos de que pueden usar el hardware optimizado”, comenta Nidhi Chappell, responsable de aprendizaje automático en la división de centros de datos de Intel. “Hay muchos beneficios en tener el software y el hardware optimizado. ¿Podrías trabajar con procesamiento del lenguaje natural en un Xeon no optimizado? Sí, pero cuanto más optimices los elementos, tanto en software como en el hardware, más rápido harás los trabajos”.

Se necesita que el rendimiento del hardware sea muy alto, pero también que sea fácil de poner en marcha. Y otra de las claves para optimizar este aspecto es la compatibilidad con diferentes tipos de algoritmos. “Queremos habilitar nuestros productos para soluciones que estén basadas en código abierto”, indica Chappell. “Pues muchas de las cargas de trabajo en deep learning, como el procesamiento del lenguaje natural o el etiquetado de imágenes, están basadas en frameworks (marcos de trabajo para desarrollar software) de código abierto”.

Los algoritmos del ‘Deep learning’

 

 

 

 

El Deep learning o aprendizaje profundo, considerado una parte del aprendizaje automático, se basa en redes neuronales artificiales, inspiradas en el funcionamiento de sistemas biológicos. Muchos algoritmos que usan deep learning proceden de empresas o universidades, como Google o Berkeley, y una parte de ellos están bajo código abierto. Lo que hace Intel es asegurarse de que la arquitectura de sus productos está optimizada para estos algoritmos.

El conocimiento que los nutre proviene de compañías privadas, de centros académicos y también de instituciones públicas. No todo se pone a disposición del público, pero compartir la información y los progresos técnicos es uno de los motores para el aprendizaje de las máquinas.

Cloudera, una de las empresas presentes en el IDF, trabaja en big data con plataformas de código abierto. Su portavoz en el congreso de Intel, Johnny Pak, cree que la colaboración es necesaria para no estancarse. “El código abierto ayudará al desarrollo rápido de la inteligencia artificial. La posibilidad de construir sobre el trabajo de otros es lo que va a ayudar a avanzar”, reflexiona.

                                                   El conocimiento proviene de múltiples fuentes. Intel

 

Aprender bien la lección

 

 

 

El aprendizaje automático tiene otra cara. Se puede descontrolar, como le ocurrió al bot Tay, programado por Microsoft para aprender de la gente a través de sus interacciones en Twitter. Su cuenta en la red social pronto empezó a lanzar mensajes xenófobos tras el troleo de algunos usuarios y la compañía tuvo que suspender este experimento social.

“Siempre se necesitará un marco para limitar al algoritmo”, es la opinión de Pak. “Una máquina no es más que un conjunto de algoritmos. Lo que significa que las máquinas no tienen la libertad que las personas tenemos”. Así, esa especie de libertad social que Tay tuvo para aprender acabó por volverse en su contra. “Si vas a usar algoritmos en un entorno social creo que tienes que poner unos límites, de la misma forma que nosotros tenemos límites sociales”, sentencia Pak.

Es una forma de controlar la toma de decisiones. Por cierto, para una persona estas decisiones no siempre están basadas en el razonamiento lógico y no siempre se obtiene así el mejor resultado. La intuición a veces es un factor determinante y no es algo que se aprenda de forma lógica. ¿Pueden los algoritmos actuales dotar a una máquina de intuición?

El caso que más se acerca a una toma de decisiones intuitiva por una máquina es el del sistema Alpha Go, desarrollado por Google y que venció Lee Sedol, el campeón mundial del Go, un juego mucho más complejo de aprender para una máquina que por ejemplo el ajedrez.

Pak apunta que la toma de decisiones de Alpha Go a veces no partía de la lógica. “No estaba calculando, como sí hacen en ajedrez, millones de interacciones para determinar qué es lo que va a hacer el jugador. Tenía que vislumbrar cuál era el mejor movimiento. Y ganó. Lee solo gano una partida”. Y es que ni siquiera los científicos detrás de Alpha Go predecían cómo se iba a comportar su programa.

SIxIj48L3BhdGg+PHBhdGggZD0iTTE0LjczMywxLjY4NiBDNy41MTYsMS42ODYgMS42NjUsNy40OTUgMS42NjUsMTQuNjYyIEMxLjY2NSwyMC4xNTkgNS4xMDksMjQuODU0IDkuOTcsMjYuNzQ0IEM5Ljg1NiwyNS43MTggOS43NTMsMjQuMTQzIDEwLjAxNiwyMy4wMjIgQzEwLjI1MywyMi4wMSAxMS41NDgsMTYuNTcyIDExLjU0OCwxNi41NzIgQzExLjU0OCwxNi41NzIgMTEuMTU3LDE1Ljc5NSAxMS4xNTcsMTQuNjQ2IEMxMS4xNTcsMTIuODQyIDEyLjIxMSwxMS40OTUgMTMuNTIyLDExLjQ5NSBDMTQuNjM3LDExLjQ5NSAxNS4xNzUsMTIuMzI2IDE1LjE3NSwxMy4zMjMgQzE1LjE3NSwxNC40MzYgMTQuNDYyLDE2LjEgMTQuMDkzLDE3LjY0MyBDMTMuNzg1LDE4LjkzNSAxNC43NDUsMTkuOTg4IDE2LjAyOCwxOS45ODggQzE4LjM1MSwxOS45ODggMjAuMTM2LDE3LjU1NiAyMC4xMzYsMTQuMDQ2IEMyMC4xMzYsMTAuOTM5IDE3Ljg4OCw4Ljc2NyAxNC42NzgsOC43NjcgQzEwLjk1OSw4Ljc2NyA4Ljc3NywxMS41MzYgOC43NzcsMTQuMzk4IEM4Ljc3NywxNS41MTMgOS4yMSwxNi43MDkgOS43NDksMTcuMzU5IEM5Ljg1NiwxNy40ODggOS44NzIsMTcuNiA5Ljg0LDE3LjczMSBDOS43NDEsMTguMTQxIDkuNTIsMTkuMDIzIDkuNDc3LDE5LjIwMyBDOS40MiwxOS40NCA5LjI4OCwxOS40OTEgOS4wNCwxOS4zNzYgQzcuNDA4LDE4LjYyMiA2LjM4NywxNi4yNTIgNi4zODcsMTQuMzQ5IEM2LjM4NywxMC4yNTYgOS4zODMsNi40OTcgMTUuMDIyLDYuNDk3IEMxOS41NTUsNi40OTcgMjMuMDc4LDkuNzA1IDIzLjA3OCwxMy45OTEgQzIzLjA3OCwxOC40NjMgMjAuMjM5LDIyLjA2MiAxNi4yOTcsMjIuMDYyIEMxNC45NzMsMjIuMDYyIDEzLjcyOCwyMS4zNzkgMTMuMzAyLDIwLjU3MiBDMTMuMzAyLDIwLjU3MiAxMi42NDcsMjMuMDUgMTIuNDg4LDIzLjY1NyBDMTIuMTkzLDI0Ljc4NCAxMS4zOTYsMjYuMTk2IDEwLjg2MywyNy4wNTggQzEyLjA4NiwyNy40MzQgMTMuMzg2LDI3LjYzNyAxNC43MzMsMjcuNjM3IEMyMS45NSwyNy42MzcgMjcuODAxLDIxLjgyOCAyNy44MDEsMTQuNjYyIEMyNy44MDEsNy40OTUgMjEuOTUsMS42ODYgMTQuNzMzLDEuNjg2IiBmaWxsPSIjYmQwODFjIj48L3BhdGg+PC9nPjwvc3ZnPg==') no-repeat scroll 3px 50% / 14px 14px; position: absolute; opacity: 0.85; z-index: 8675309; display: none; cursor: pointer; top: 3426px; left: 18px;">Guardar

¿Llegará la I.A. a superar a los Humanos?

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Literatura y ciencia

La novela de un robot, finalista en un premio literario

Los algoritmos de la Inteligencia Artificial triunfan entre los escritores: ya son capaces de emocionar al jurado de un concurso.

Hall 9000, el ojo de Odisea en el Espacio, de Stanley Kubrick.
Hall 9000, el ojo de Odisea en el Espacio, de Stanley Kubrick.

 

Lorena G. Maldonado

Cuenta el documental Gonzo que Hunter S. Thompson se sentó un día frente a su máquina de escribir y copió una y otra vez El gran Gatsby hasta que fue capaz de reproducir “la música” de Fitzgerald, el ritmo de su prosa en base a las teclas. Ahí había un algoritmo, dado que el estilo siempre requiere de repetición. Lo mismo hizo el PC Writer 2008, un programa informático al que se le incorporó el vocabulario, el lenguaje y las herramientas narrativas de trece escritores, además de los datos que perfilaban a los personajes de la obra, una trama y un tiempo y un lugar en los que desarrollar la historia.

En tres días, voilà: ya había parido una novela. Eso sí: la máquina imitaba la forma de escribir de Haruki Murakami (Tokio Blues o Crónica del pájaro que da cuerda al mundo) y sus personajes se parecían sospechosamente a los de Anna Karenina. El título tampoco era muy original: Amor verdadero. Tras el proceso de corrección -el mismo que se lleva a cabo cuando el texto procede de la mano humana-, la novela fue publicada por la editorial rusa Astral Spb.

La máquina imitaba la forma de escribir de Haruki Murakami y sus personajes se parecían sospechosamente a los de Anna Karenina. El título tampoco era muy original: Amor verdadero

Ya en 2007, la revista Discovery Channel hablaba de MEXICA, un programa informático que escribía sus propios relatos de ficción basándose en representaciones computerizadas de emociones y tensiones entre diversos personajes. Aunque ambos sistemas necesiten de una revisión humana al final de su trabajo, es indiscutible que sus capacidades dan miedo. Ya lo decía la tercera ley de Clarke: toda tecnología lo suficientemente avanzada es indistinguible de la magia. La creación artificial no da los quebraderos de cabeza de la humana, al menos a ojos de la industria: es más obediente a las características requeridas por el editor y sus honorarios son más bajos.

Sucedió en Japón

Claro que las secuencias sintácticas se pueden generar -emulando estilos, seleccionando léxicos-, pero ¿y el sentido literario-poético humano? ¿Podemos clonar o reproducir algo que no sabemos definir exactamente? Aquí el tradicional problema de la inteligencia artificial: el humor. ¿Cuáles son los mecanismos de la risa? Se han dado pasos en esta dirección -a principios de este año, el equipo de investigación de Virginia Tech, en EEUU, aseguró haber encontrado un algoritmo que entiende y predice el humor en imágenes-, pero no se ha conseguido lo propio con la herramienta del lenguaje.

Quedaba ahí un consuelo: la sensación que nos da de que la máquina está creando es sólo eso, una sensación, porque en realidad está uniendo extractos de cosas que le han enseñado previamente. Sólo eso: las organiza de forma nueva, distinta. Y se le nota: igual que se notan las influencias feroces de algunos autores que les llevan a una imitación más o menos descarada. Menos mal que las máquinas -aún- no se han sofisticado tanto.

La sensación que nos da de que la máquina está creando es sólo eso, una sensación, porque en realidad está uniendo extractos de cosas que le han enseñado previamente

Cuando el ser humano -y el escritor- volvían a sentirse imprescindibles, estalla la noticia: según The Japan News, una novela coescrita por seres humanos y un programa de inteligencia artificial ha llegado a la segunda fase del proceso de selección de un premio literario nacional. Aunque no alcanzó el premio final, el jurado se quedó francamente sorprendido al enterarse de que la historia había sido producida por una máquina.

La novela finalista la había presentado un equipo de investigadores encabezado por Hitoshi Matsubara, profesor de la Universidad del Futuro-Hakodate, e imitaba el estilo de Shinichi Hoshi, un escritor japonés reconocido por sus obras de ciencia ficción. Ésta no fue la única de elaboración artificial: este mismo equipo había presentado otro relato más, y el grupo científico liderado por el profesor de la Escuela de Ingeniería de la Universidad de Tokio, Fujio Toriumi, había enviado otras dos historias.

Describir a un personaje

La cuadrilla de Matsubara estableció los parámetros de la novela, como la trama y el sexo de los personajes, y dejó al artefacto actuar: no lo hizo mal, claro, pero, según las palabras de un miembro del jurado, el novelista Satoshi Hase: “Aunque me sorprendió el trabajo -era una novela muy bien estructurada-, este sistema tiene todavía algunos problemas para ganar el premio, por ejemplo, la descripción de los personajes”.

Es curioso: la inteligencia artificial entiende de códigos, de relaciones, de lógica verbal y aritmética, pero no tiene capacidad de imaginar. De crear de la nada. De fabular. Se acerca al hemisferio cerebral izquierdo a pasos agigantados, pero el derecho -sensaciones, sentimientos, habilidades visuales y sonoras…- ni lo roza. Puede dividir un texto en capítulos ordenados y coherentes, pero no puede dotar de alma a sus personajes ni a sus espacios. Es un alivio -por ahora-.

Aunque la novela artificial pudo pasar una etapa del proceso del premio, no convenció el hecho de que no describiese a sus personajes

El Premio Hoshi Shinichi es conocido por aceptar solicitantes que no sean seres humanos -esto es, programas de inteligencia artificial y variantes-, pero según la secretaría del concurso, este año ha sido la primera vez que una historia de este tipo supera una etapa. El profesor ha hecho saber que inició este proyecto hace cuatro años y que no va a rendirse hasta perfeccionar su programa.

La máquina que le hace los guiones a Friends

Otras aplicaciones están tomándole la delantera: en octubre del año pasado apareció Wordsmith, que es capaz de escribir artículos -ya está siendo usada por Associated Press para crear 3000 artículos cada trimestre sobre resultados fiscales de compañías-; y en enero de 2016, Andy Herd creó una red neuronal que puede generar diálogos de la famosa serie Friends a partir de los diálogos originales de la serie.

La inteligencia artificial ya puede escribir discursos políticos -siguiendo perfectamente una línea ideológica con palabras claves- e incluso pasar las pruebas de acceso de universidades japonesas. La última que ha liado es conseguir derrotar a un ser humano en una partida de Go, como se demostró en el programa AlphaGo.

La inteligencia artificial ya puede escribir discursos políticos e incluso pasar las pruebas de acceso de universidades japonesas

El espectador de Her, la película de Spike Jonze, entendió en la escena de ‘sexo’ entre Phoenix y la voz de Johansson -trufada de un negro orgasmático- que el ser humano es lenguaje: que la imaginación, a remolque de la palabra, trasciende a lo físico y es capaz de excitar. La intención, el juego, el guiño de la inteligencia, ensanchan la sintaxis hacia campos donde la máquina no llega. Además, los programas de inteligencia artificial necesitan de información que procesar para seguir “viviendo”: si no la reciben, pierden su propósito y dejan de existir. El ser humano sí tiene eso de inagotable. No puede desconectarse del recuerdo, de la propia experiencia -que es la fuerza motor de la escritura-. No puede. Por ahora.

La I.Artificial… ¿Qué nos traerá?

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

                                                  INTELIGENCIA ARTIFICIAL
Nick Bostrom, en el Instituto del Futuro de la Humanidad.
Nick Bostrom, en el Instituto del Futuro de la Humanidad. Tom Pilston Getty Images

    El futuro de la humanidad en sus manos

 

Un equipo de expertos investiga en un Instituto de Oxford los riesgos de extinción del ser humano

 

Necesitamos sabiduría para enfrentar el futuro. Para saber si los progresos tecnológicos de vanguardia van en la dirección adecuada o no; si favorecen al ser humano o todo lo contrario. Para tener una idea de qué hacer si se presentan escenarios que ponen en riesgo la supervivencia de la especie, como los derivados de la amenaza nuclear, la modificación de microbios letales o la creación de mentes digitales más inteligentes que el hombre. A reflexionar sobre este tipo de cuestiones se dedican un puñado de cerebros en un lugar ubicado en Oxford y llamado el Instituto para el Futuro de la Humanidad.

Al frente de un heterodoxo grupo de filósofos, tecnólogos, físicos, economistas y matemáticos se encuentra un filósofo formado en física, neurociencia computacional y matemáticas, un tipo que desde su adolescencia se encontró sin interlocutores con los cuales compartir sus inquietudes acerca de Schopenhauer, un sueco de 42 años que se pasea por las instalaciones del Instituto con un brebaje hecho a base de vegetales, proteínas y grasas al que denomina elixir y que escucha audiolibros al doble de velocidad para no perder un segundo de su preciado tiempo. Se llama Nick Bostrom, y es el autor de Superinteligencia: Caminos, Peligros, Estrategias, un libro que ha causado impacto, una reflexión acerca de cómo afrontar un futuro en que la inteligencia artificial supere a la humana, un ensayo que ha recibido el respaldo explícito de cerebros de Silicon Valley como Bill Gates y Elon Musk, de filósofos como Derek Parfit o Peter Singer, de físicos como Max Tegmark, profesor del Massachusetts Institute of Technology. Un trabajo que, además, se coló en la lista de los libros más vendidos que elabora The New York Times Book Review. La ONU le reclama para que exponga su visión, sociedades científicas como The Royal Society le invitan a dar conferencias, una de sus charlas TED lleva ya contabilizados más de 1.747.000 visionados. Y Stephen Hawking ya ha alertado al mundo: hay que tener cuidado con la Inteligencia Artificial.

El Instituto para el Futuro de la Humanidad —FHI, siglas en inglés— es un espacio con salas de reuniones bautizadas con nombres de héroes anónimos que con un gesto salvaron el mundo —como Stanislav Petrov, teniente coronel ruso que evitó un incidente nuclear durante la Guerra Fría— donde fluyen las ideas, los intercambios de impresiones, donde florecen hipótesis y análisis. Sobre todo, por las tardes-noches: el jefe es, como él mismo confiesa, un noctámbulo; se queda en la oficina hasta las dos de la madrugada.

“En el momento en que sepamos cómo hacer máquinas inteligentes, las haremos”, afirma Bostrom, en una sala del Instituto que dirige, “y para entonces, debemos saber cómo controlarlas. Si tienes un agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podría incluir esconder sus propias capacidades de modo estratégico”. Expertos en Inteligencia Artificial que cita en su libro aseguran que hay un 90% de posibilidades de que entre 2075 y 2090 haya máquinas tan inteligentes como los humanos. En la transición hacia esa nueva era habrá que tomar decisiones. Inocular valores morales a las máquinas, tal vez. Evitar que se vuelvan contra nosotros.

El día que las máquinas lleguen a pensar por sí mismas… ¡La especie Humana habrá llegado al fin!

A analizar este tipo de supuestos y escenarios se dedica este hombre que en estos días lee intensivamente sobre machine learning (aprendizaje automático, rama de la inteligencia artificial que explora técnicas para que las computadoras puedan aprender por sí solas) y economía de la innovación. Para Bostrom el tiempo nunca es suficiente. Leer, leer, leer, asentar conocimientos, profundizar, escribir. “El tiempo es precioso. Es un bien de gran valor que constantemente se nos desliza entre los dedos”.

 

 

 

La gente parece olvidar la guerra nuclear. Un cambio para mal en la geopolítica podría ser un peligro

 

 

 

Estudiar, formular hipótesis, desarrollarlas, anticipar escenarios. Es lo que se hace en este Instituto donde se cultiva la tormenta de ideas y la videoconferencia, un laberinto de salas dominadas por pizarras vileda con diagramas y en cuyo pasillo de entrada cuelga un cartel que reproduce la portada de Un mundo feliz, la visionaria distopía firmada por Aldous Huxley en 1932. Un total de 16 profesionales trabajan aquí. Publican en revistas académicas, hacen informes de riesgos para compañías tecnológicas, para gobiernos (por ejemplo, el finlandés) o para la ONU, que se dispone a crear su primer programa sobre Inteligencia Artificial —uno de cuyos representantes andaba la semana pasada por las oficinas del FHI—. Niel Bowerman, director adjunto, físico del clima y exasesor del equipo político de Energía y Medio Ambiente de Barack Obama, explica que en el instituto siempre estudian cómo de grande es un problema, cuánta gente trabaja en él y cómo de fácil es realizar progresos en esa área para determinar los campos de estudio.

Bostrom es el hombre que comanda el Instituto, el que decide por dónde se transita, el visionario. Desarrolla su labor gracias al impulso filantrópico de James Martin, millonario interesado en las cuestiones de los riesgos existenciales del futuro que impulsó el FHI hace diez años para que se estudie y reflexione en torno a aquellas cosas en las que la industria y los gobiernos, guiados por sus particulares intereses, no tienen por qué pensar.

Al filósofo sueco, que formó parte en 2009 de la lista de los 100 mayores pensadores globales de la revista Foreign Policy, le interesa estudiar, sobre todo, amenazas lejanas, a las que no le gusta poner fecha. “Cuanto más largo sea el plazo”, dice, “mayores son las posibilidades de un escenario de extinción o de era posthumana”. Pero existen peligros a corto plazo. Los que más le preocupan a Bostrom son los que pueden afectar negativamente a las personas como las plagas, la gripe aviar, los virus, las pandemias.

En cuanto a la Inteligencia Artificial y su cruce con la militar, dice que el riesgo más claro lo presentan los drones y las armas letales autónomas. Y recuerda que la guerra nuclear, aunque tiene pocas probabilidades de llegar, sigue siendo un peligro latente. “La gente parece haber dejado de preocuparse por ella; un cambio para mal en la situación geopolítica podría convertirse en un gran peligro”.

 

 

 

“Hay una carrera entre nuestro progreso tecnológico y nuestra sabiduría, que va mucho más despacio

 

La biotecnología, y en particular, la posibilidad que ofrece el sistema de edición genética CRISPR de crear armas biológicas, también plantea nuevos desafíos. “La biotecnología está avanzando rápidamente va a permitir manipular la vida, modificar microbios con gran precisión y poder. Eso abre el paso a capacidades muy destructivas”. La tecnología nuclear, señala, se puede controlar. La biotecnología, la nanotecnología, lo que haga alguien un garaje con un equipo de segunda mano comprado en EBay, no tanto. Con poco se puede hacer mucho daño.

                     Mientras la máquina esté al servicio del humano… ¡Todo irá bien!

Superada su etapa transhumanista —fundó en 1998 junto a David Pearce la Asociación Mundial Transhumanista, colectivo que aboga de modo entusiasta por la expansión de las capacidades humanas mediante el uso de las tecnologías—, Bostrom ha encontrado en la Inteligencia Artificial el terreno perfecto para desarrollar su trabajo. La carrera en este campo se ha desatado, grandes empresas —Google compró en 2014 la tecnológica DeepMind— y Estados pugnan por hacerse con un sector que podría otorgar poderes inmensos, casi inimaginables.

Uno de los escenarios que proyecta en su libro, cuya versión en español publica el 25 de febrero la editorial Teell, es el de la toma de poder por parte de una Inteligencia Artificial (AI, siglas en inglés). Se produce una explosión de inteligencia. Las máquinas llegan a un punto en que superan a sus programadores, los humanos. Son capaces de mejorarse a sí mismas. De desarrollar grandes habilidades de programación, estratégicas, de manipulación social, de hacking. Pueden querer tomar el control del planeta. Los humanos pueden ser un estorbo para sus objetivos. Para tomar el control, esconden sus cartas. Podrán mostrarse inicialmente dóciles. En el momento en que desarrollan todos sus poderes, pueden lanzar un ataque contra la especie humana. Hackear drones, armas. Liberar robots del tamaño de un mosquito elaborados en nanofactorías que producen gas nervioso, o gas mostaza.

Esta es simplemente la síntesis del desarrollo de un escenario. Pero, como decía la crítica de Superinteligencia de la revista The Economist, las implicaciones de la introducción de una segunda especie inteligente en la Tierra merecen que alguien piense en ellas. “Antes, muchas de estas cuestiones, no solo las del AI, solían estar en el campo de la ciencia ficción, de la especulación”, dice Bostrom, “para mucha gente era difícil de entender que se pudiera hacer trabajo académico con ello, que se podían hacer progresos intelectuales”.

El libro también plantea un escenario en que la Inteligencia Artificial se desarrolla en distintos sectores de manera paralela y genera una economía que produce inimaginables cotas de riqueza, descubrimientos tecnológicos asombrosos. Los robots, que no duermen, ni reclaman vacaciones, producen sin cesar y desbancan a los humanos en múltiples trabajos.

— ¿Los robots nos enriquecerán o nos reemplazarán?

No creo que sea nada bueno llegar a construir robots que sepan comprender el átomo

— Primero, tal vez nos enriquezcan. A largo plazo ya se verá. El trabajo es costoso y no es algo deseado, por eso hay que pagar a la gente por hacerlo. Automatizarlo parece beneficioso. Eso crea dos retos: si la gente pierde sus salarios, ¿cómo se mantiene? Lo cual se convierte en una cuestión política, ¿se piensa en una garantía de renta básica? ¿En un Estado del Bienestar? Si esta tecnología realmente hace que el mundo se convierta en un lugar mucho más rico, con un crecimiento más rápido, el problema debería ser fácil de resolver, habría más dinero. El otro reto es que mucha gente ve su trabajo como algo necesario para tener estatus social y que su vida tenga sentido. Hoy en día, estar desempleado no es malo solo porque no tienes dinero, sino porque mucha gente se siente inútil. Se necesitaría cambiar la cultura para que no pensemos que trabajar por dinero es algo que te da valor. Es posible, hay ejemplos históricos: los aristócratas no trabajaban para vivir, incluso pensaban que tener que hacerlo era degradante. Creemos que las estructuras de significado social son universales, pero son recientes. La vida de los niños parece tener mucho sentido incluso si no hacen nada útil. Soy optimista: la cultura se puede cambiar.

Lo que para nosotros es natural, en la A.I. es casi… ¡imposible!

A Bostrom se le ha acusado desde algunos sectores de la comunidad científica de tener visiones demasiado radicales. Sobre todo, en su etapa transhumanista. “Sus visiones sobre la edición genética o sobre la mejora del humano son controvertidas”, señala Miquel-Ángel Serra, biólogo que acaba de publicar junto a Albert Cortina Humanidad: desafío éticos de las tecnologías emergentes. “Somos muchos los escépticos con las propuestas que hace”. Serra, no obstante, deja claro que Bostrom está ahora en el centro del debate sobre el futuro de la Inteligencia Artificial, que es una referencia.

— ¿Proyecta usted una visión demasiado apocalíptica en su libro de lo que puede ocurrir con la humanidad?

— Mucha gente puede quedarse con la impresión de que soy más pesimista con la AI de lo que realmente soy. Cuando lo escribí parecía más urgente tratar de ver qué podía ir mal para asegurarnos de cómo evitarlo.

— Pero, ¿es usted optimista con respecto al futuro?

¿Avanzar? Sí, pero sin caer en aberraciones antinaturales

— Intento no ser pesimista ni optimista. Intento ajustar mis creencias a lo que apunta la evidencia; con nuestros conocimientos actuales, creo que el resultado final puede ser muy bueno o muy malo. Aunque tal vez podríamos desplazar la probabilidad hacia un buen final si trabajamos duramente en ello.

— O sea, que hay cosas que hacer. ¿Cuáles?

— Estamos haciendo todo lo posible para crear este campo de investigación de control problema. Hay que mantener y cultivar buenas relaciones con la industria y los desarrolladores de Inteligencia Artificial. Aparte, hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar rápidamente nuestra capacidades tecnológicas, y nuestra sabiduría, que va mucho más despacio. Necesitamos un cierto nivel de sabiduría y de colaboración para el momento en que alcancemos determinados hitos tecnológicos, para sobrevivir a esas transiciones.

Fuente: El Pais

PD.

Sólo algunas imágenes y comentarios que la acompañan han sido añadidas respetando el reportaje original, con la intención de hacerla más amena.

Inteligencia artificial: ¿esperanza o amenaza?

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

  • Hace tiempo llegó a los cines ‘Ex machina’, una película de ciencia ficción que imagina la creación futura de una máquina que piensa y siente como un ser humano

  • Murray Shanahan, el científico que ha asesorado el guión del filme, cree que los robots serán ‘amigables’ y harán que nuestras vidas sean más fáciles

 

Exmachina

Ava acaricia una máscara humana buscando respuestas. Ava reviste sus brazos, sus piernas y sus glúteos mecánicos con una segunda piel que le hace parecerse a nosotros. Ava es un prodigioso robot con conciencia que ha sido capaz de seducir a un extraño y que ahora se deja llevar por un impulso vital: escapar. Por méritos propios y ajenos, Ava se ha ganado a pulso un lugar en el olimpo de los seres de inteligencia artificial creados por el cine, junto al Hal de 2001 o a los replicantes de Blade Runner. La fascinante mujer-robot de Ex Machina, interpretada por Alicia Vikander, deja en el aire una serie de inquietantes preguntas que seguirán resonando en nuestro cerebro humano al cabo de los días.

¿La Inteligencia Artificial (AI) es una esperanza o una amenaza? ¿Cuánto falta exactamente para la llegada de ese momento bautizado como la singularidad? ¿Y qué ocurrirá cuando las máquinas conscientes sean más inteligentes que los hombres? ¿Quién nos protegerá de ellas? ¿Cómo se protegerán ellas de nosotros?

«No he intentado hacer una película paranoica al estilo Terminator», se defiende el director Alex Garland, que dio la campanada a los 26 años con la novela La Playa y cayó en las garras del cine cuando Danny Boyle la llevó a la pantalla grande. Ni si siquiera es un filme anti-Inteligencia Artificial, más bien lo contrario».

Ex Machina

El estreno de la película, en los cines españoles, ha coincidido con el llamamiento mundial de algunas de las mentes más lúcidas del planeta -entre ellas, la del físico Stephen Hawking y la del emprendedor Elon Musk- advirtiendo sobre los riesgos de la Inteligencia Artificial. La carta, firmada por decenas de científicos y auspiciada por el Future of Life Institute, sostiene que la tecnología se está acercando a una peligrosa encrucijada que nos puede hacer «prosperar como nunca antes o llevarnos de cabeza a «la autodestrucción».

«El desarrollo completo de la inteligencia artificial podría significar el fin de la especie humana», advirtió Hawking hace apenas tres meses, en el momento de estrenar su nueva silla inteligente. Elon Musk, el fundador de Tesla y SpaceX, ha ido aún más allá y asegura que el desarrollo incontrolado de la AI sería más o menos como «invocar al diablo».

Otro de los destacados firmante del manifiesto es el filósofo sueco Nick Bostrom, autor del ensayo Superinteligencia: «El hombre es la mayor amenaza para el hombre. Estamos ante el mayor proceso transformativo de la humanidad, el que tal vez nos abra las puertas al poshumanismo. Pero las mismas tecnologías que nos van a posibilitar ese salto entrañan también grandes riesgos. En cierto modo, somos como bebés jugando con explosivos».

Murray Shanahan, experto en robótica y asesor del guión de ‘Ex machina’. EM

 

«Mi posición sobre el tema es muy simple: no veo nada de problemático en el hecho de crear una máquina consciente», se defiende el director de Ex Machina Alex Garland. «Y no veo la razón por la que deberíamos oponernos a su existencia. Muchas de las películas se aproximan al tema desde una posición de miedo; yo he decidido hacerlo desde una actitud de admiración y esperanza».

Para hacer más creíble su película, ubicada en un futuro que parece inminente, Garland se ha rodeado de un equipo científico de primera, con el profesor de Robótica Cognitiva Murray Shanahan (del Imperial College) y con el experto en genética y reconocido divulgador Adam Rutherford en primera fila.

«Comparto las preocupaciones de algunos científicos, pero los medios se han dejado llevar por el sensacionalismo», asegura Shanahan. «Lo que frecuentemente se deja de lado es la cuestión fundamental del tiempo y las incertidumbres que siguen habiendo en el camino. No estamos a punto de conseguir un nivel de inteligencia artificial como el que vemos en las películas de ciencia ficción, incluida ésta. Nuestros robots son aún muy primitivos comparados con Ava. Estamos probablemente aún a varias décadas de distancia».

«Es fácil caer en el alarmismo», reconoce, sin embargo, Shanahan. «Aunque creo que sí ha llegado el momento de abrir el debate sobre los riesgos de esta tecnología, y de formularnos preguntas como: ¿queremos que sean los gobiernos quienes controlen estas criaturas o lo dejamos en manos de compañías privadas? Yo en el fondo soy optimista y creo que seremos capaces de desarrollar una tecnología amigable que mejorará nuestras vidas. Tenemos mucho tiempo por delante para abordar la cuestión de la seguridad».

En Ex Machina, el futuro parece, sin embargo, sospechosamente cercano. Una compañía todopoderosa, BlueBlook, ha suplantado a Google como el Gran Hermano de las búsquedas en Internet. Y su artífice es un geek multimillonario llamado Nathan (Oscar Isaac), que vive recluido en un paraje remoto y nórdico, a la busca del santo grial de la Inteligencia Artificial. «Uno de los elementos más reales es el papel que los gigantes de Internet pueden tener en el control del futuro de la inteligencia artificial», advierte el científico Adam Rutherford.

«Debemos permanecer vigilantes a lo que está ocurriendo con la inteligencia artificial y sobre todo vigilar de dónde viene el dinero y cuáles son las motivaciones», declara Rutherford. «Al fin y al cabo, lo que están haciendo ahora Google y Facebook es cosechar datos, y no sabemos aún a dónde nos llevará todo esto». En cualquier caso, este experto comparte el optimismo sobre el futuro de la AI y recalca que una de las virtudes de Ex Machina es precisamente darle la vuelta a la cuestión moral: «Hasta ahora nos hemos preguntado cómo nos protegemos de las máquinas, como en la famosas leyes de Asimov. Pero también es necesario plantearse cómo proteger de la humanidad a esas máquinas conscientes que podemos crear. Creo que ningún científico se prestaría a crear robots inteligentes y sensibles que estuvieran predestinados a ser simplemente nuestros esclavos».

¿Cuánto tiempo nos queda, pues, para admirar o temer a una máquina de la precisión, la belleza y la inteligencia de Ava? Alex Garland no pone la mano en el fuego, pero predice que sus hijos llegarán a ver algo parecido: «Nos estamos aproximando al momento en que las máquinas nos puedan decir: ‘No me apagues’. Con el tiempo tendrán la capacidad de querer por sí mismas, de tener sentimientos».

Ha sido publicado en El Mundo