sábado, 23 de septiembre del 2017 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¿Inteligencia Artificial? No, gracias

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen de Inteligencia artificial

Esta Inteligencia Artificial (IA) de Facebook ha tenido que ser desactivada.

Una sección de investigación de Facebook desarrolló una IA para mejorar los chatbots de Facebook. Para probarla, dejaron a dos máquinas de este tipo manteniendo una conversación libre entre sí. El resultado, el más inesperado de todos: crearon un nuevo idioma. Al principio pensaban que era un error, pero se pudo comprobar que sí, que se estaban comunicando en un lenguaje nuevo y desarrollado por ‘ellos’.

La Inteligencia Artificial de Google ha creado su propio sistema de cifrado

Un lenguaje que no entendamos podría llegar a ser peligroso

Lejos de ser un buen resultado, los investigadores al cargo de esta IA han decidido ‘apagarla’. Pero no por miedo ni porque temían que fuera el comienzo de una Inteligencia Artificial malévola. La razón era mucho más sencilla: si la IA decidiera comunicarse en su propio lenguaje, perderíamos el control sobre ella.

 

 

 

 

La razón para apagar la IA es muy simple: podría llegar un momento en el que se perdiera el control sobre ella

Es cierto que el lenguaje que habían creado era mucho más eficiente. No obstante, nunca podríamos llegar a comunicarnos, o al menos sería muy complicado. Los resultados de la conversación pueden resultar absurdos a simple vista, pero no lo son:

Resultado de imagen de La Inteligencia artificial del futuro

Bob: “I can i i everything else”

Alice: “balls have zero to me to me to me to me to me to me to me”

El hecho de repetir ‘to me’ tantas veces no quiere decir que se haya vuelto loca, sino que quiere, en este caso, 7 unidades. Este lenguaje es mucho más lógico que el nuestro (o, en este caso, que el inglés, que fue el lenguaje usado originalmente). Lo complicado, como decíamos, es entenderlo.

 

La IA de Google se ha inventado su propio idioma secreto

No es la primera vez que ocurre. Ya en el pasado Google también tuvo que recurrir a la misma solución tras presentarse el mismo problema. Como ya hecho Facebook, lo mejor es desactivarla y buscar una solución antes de que se pierda el control por completo.

Elon Musk: “La Inteligencia Artifical puede acabar con la humanidad”

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen de inteligencia artificial

Reportaaje de:  Elías Rodríguez García

Elon Musk cree que deberíamos tomar medidas para legislar la Inteligencia Artificial.

Elon Musk está siendo uno de los personajes del siglo XXI más importantes en cuanto a tecnología se refiere. Es el CEO de una de las compañías que está cambiando el transporte y además tiene otros proyectos importantes entre manos (Hyperloop y SpaceX). También es uno de los precursores de la polémica renta universal, además de otras teorías que deberíamos ir planteándonos dentro de muy poco.

Una de esas no tan locas ideas del empresario que quiere conquistar Martepara 2025 es comenzar a legislar el campo de la Inteligencia Artificial (IA). A pesar de que ha afirmado estar en contra de regulaciones estrictas, en el ámbito de la IA cree que es distinto. Así lo ha manifestado en una asambleaestadounidense donde intervenían dirigentes de diferentes naciones de USA.

La idealización de Elon Musk. ¿Es el nuevo Steve Jobs?

«En 20 años, no es que no vaya a haber gente al volante, es que directamente no habrá volante», lo que para Musk haría replantearnos seriamente las cosas.

Regular la Inteligencia Artificial antes de que sea tarde

La Inteligencia Artificial es el nuevo campo de desarrollo. Además, permitirá avances tecnológicos terriblemente grandes. No es dar marcha atrás, por supuesto, sino que habría que pisar el freno. Ha añadido que cuando queramos reaccionar y regular la IA, «será demasiado tarde» ¿Se referirá concretamente a que podría acabar con la raza humana? En efecto, añade que «se trata de un riesgo para la existencia de la civilización humana».

 

«Hasta que la gente no vea robots matando personas no se entenderá el peligro de la IA»

 

A pesar de que podría considerarse como un pensamiento muy extremista o apocalíptico, afirma que no se trata de nada algo etéreo. Hay que actuar y debe ser ya.

«[Refiriéndose a la IA] podrían comenzar una guerra publicando noticias falsas, robando cuentas de correo electrónico y enviando notas de prensa falsas, solo con manipular información».

Las próximas industrias que serán conquistadas por la Inteligencia Artificial

 

 

Por último, recuerda que los robots nunca se cansarán. Además de que harán nuestro trabajo mucho mejor. Esto supondrá toda una revolución en el sector industrial y en general también en el resto.

Otros intelectuales como Stephen Hawking están totalmente en contra del avance de la Inteligencia Artificial; como si de la invención de la bomba atómica se tratase. Para este otro «La inteligencia artificial podría significar el fin de la raza humana».

el futuro Incierto

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

TECNOLOGÍA

Nick Bostrom, el filósofo que advierte de los riesgos de la superinteligencia artificial

Por Maruxa Ruiz del Árbol | 20-04-2017

 

Nick Bostrom

Nick Bostrom

Filósofo

Bautizado como “el filósofo del fin del mundo” por el New Yorker, Nick Bostrom no tiene aspecto de loco apocalíptico. Es más bien la imagen de la mesura y la reflexión, aunque sus ideas desaten polémicas cada vez que las expone y gane acérrimos enemigos con la misma facilidad con que consigue fervorosos defensores. Entre estos últimos se encuentran mentes tan brillantes como las de Stephen Hawking o visionarios de las nuevas tecnologías como Bill Gates o Elon Musk. Lo que ha llamado la atención de este filósofo sueco, director y fundador del Future of Humanity Institute en la universidad de Oxford, son sus desarrollos acerca de los peligros que acechan a nuestra especie detrás de la inteligencia artificial. Frente al optimismo ingenuo de quienes ven en las máquinas pensantes la solución a todos nuestros problemas, Bostrom advierte que debemos tener cautela. O, dicho en sus propias palabras, dejar de comportarnos como “niños pequeños jugando con una bomba”.

Resultado de imagen de inteligencia artificial

La posibilidad de que los ordenadores o los robots que estamos construyendo nos superen en inteligencia algún día no es descabellada. Lo que hasta hace muy poco era terreno de la ciencia ficción debe observarse ahora como un horizonte muy probable: “creo que si hay algo que puede cambiar fundamentalmente la naturaleza de la vida en la Tierra, eso es la transición hacia la era de la inteligencia de las máquinas. No tenemos otra opción que enfrentar este desafío. La superinteligencia de las máquinas es como un portal que la humanidad debe atravesar obligatoriamente, pero debemos asegurarnos de no chocar contra el muro cuando lo hagamos”. Aunque pudiera parecer lo contrario, el de Bostrom no es un mensaje desesperanzador ni predica -como si fuera una versión digital de los luditas que destrozaron las máquinas durante la primera revolución industrial- una guerra contra las nuevas tecnologías. De hecho su confianza en las posibilidades de la ciencia le llevó a fundar en 1998 la Asociación Mundial Transhumanista, que defiende potenciar las capacidades humanas a través de una hibridación con la tecnología.

Resultado de imagen de inteligencia artificial

En una entrevista con El País, Bostrom incidía en que su función es llamar a una reflexión profunda, no demonizar las máquinas: “hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar rápidamente nuestra capacidades tecnológicas, y nuestra sabiduría, que va mucho más despacio. Necesitamos un cierto nivel de sabiduría y de colaboración para el momento en que alcancemos determinados hitos tecnológicos, para sobrevivir a esas transiciones”.

Resultado de imagen de inteligencia artificial

Como defiende en su libro Superinteligencia: Caminos, Peligros, Estrategias, publicado en 2014 (y que entró rápidamente en la lista de los más vendidos del New York Times Book Review) el verdadero reto no está tanto en la inteligencia que sean capaces de alcanzar las máquinas, sino en el desarrollo moral de nuestra especie. Al final, como ya postuló Jean-Paul Sartre, estamos condenados a ser libres. Y eso puede ser peligroso, pero también una excelente oportunidad para dar otro salto evolutivo. (http://www.nickbostrom.com)

Los pros y los contras de las máquinas más listas

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Inteligencia artificial

 

El aprendizaje automático es uno de los campos con más proyección  en inteligencia artificial.

 

 

 

Tenemos la clave para fabricar máquinas listas. Intel

 

Reportaje de Pablo G. Bejerano
 

Los miles de millones de dispositivos que se conectan a internet cada día generan una cantidad abrumadora de información. Son montones de terabytes de datos que aparecen de la nada diariamente.

Esto abre el apetito por obtener valor de la información. Y la inteligencia artificial es clave aquí. El término se suele asociar con la robótica, una herencia cultural de la ciencia ficción, pero lo cierto es que la inteligencia artificial es algo mucho más abstracto que robots humanoides caminando o que los dilemas del superordenador Hal en 2001: una odisea del espacio.

Ojo cámara (con lente fish eye es decir con una visual muy panóptica) de color rojo (para detectar por filtro cromático incluso la “luz” IR no perceptible por el ser humano), usado para representar a HAL 9000 en uno de sus aspectos de control prácticamente orweliano.

Podría decirse que la inteligencia artificial asoma la cabeza por primera vez en los años 60 con sistemas predictivos y a partir de ahí evoluciona a velocidad de crucero. Hoy se usa para evitar fraudes bancarios, en el reconocimiento de voz, en el filtro anti spam del correo electrónico, incluso en el etiquetado de fotos automático de Facebook o en los videojuegos.

Lo que está por venir en inteligencia artificial –ya se ha investigado mucho sobre ello– son los coches autónomos, la medicina de alta precisión o el procesamiento del lenguaje natural que le pediremos a los Siri, Google Now o Cortana en los próximos años. Son algunas de las áreas para las que el aprendizaje automático o machine learning es necesario.

Creada una máquina que aprende como una persona

Que las máquinas aprendan es fundamental porque es uno de los elementos que retrasará su obsolescencia prematura, reforzando su autonomía. Este aprendizaje es uno de los temas que han sobrevolado la Conferencia Internacional de Desarrolladores (IDF) de Intel.

Hoy el 7% de todos los servidores presentes en el mundo están dedicados a tareas de aprendizaje automático. Y más del 97% de estos servidores funcionan con procesadores de Intel. Si bien en campos como los coches autónomos la compañía se ve amenazada por los productos de su competidora Nvidia.

En todo caso, esta rama de la inteligencia artificial es la que tiene mayor proyección. Intel proporciona el hardware sobre el que los desarrolladores pueden programar sus algoritmos de inteligencia artificial. Para entrenar a los algoritmos la compañía ofrece el procesador Xeon Phi, mientras que para ejecutar una tarea determinada, ya aprendida, cuenta con el Xeon.

                                                                        Un centro de datos de Intel. Intel

 

“Trabajamos con instituciones académicas y desarrolladores para asegurarnos de que pueden usar el hardware optimizado”, comenta Nidhi Chappell, responsable de aprendizaje automático en la división de centros de datos de Intel. “Hay muchos beneficios en tener el software y el hardware optimizado. ¿Podrías trabajar con procesamiento del lenguaje natural en un Xeon no optimizado? Sí, pero cuanto más optimices los elementos, tanto en software como en el hardware, más rápido harás los trabajos”.

Se necesita que el rendimiento del hardware sea muy alto, pero también que sea fácil de poner en marcha. Y otra de las claves para optimizar este aspecto es la compatibilidad con diferentes tipos de algoritmos. “Queremos habilitar nuestros productos para soluciones que estén basadas en código abierto”, indica Chappell. “Pues muchas de las cargas de trabajo en deep learning, como el procesamiento del lenguaje natural o el etiquetado de imágenes, están basadas en frameworks (marcos de trabajo para desarrollar software) de código abierto”.

Los algoritmos del ‘Deep learning’

 

 

 

 

El Deep learning o aprendizaje profundo, considerado una parte del aprendizaje automático, se basa en redes neuronales artificiales, inspiradas en el funcionamiento de sistemas biológicos. Muchos algoritmos que usan deep learning proceden de empresas o universidades, como Google o Berkeley, y una parte de ellos están bajo código abierto. Lo que hace Intel es asegurarse de que la arquitectura de sus productos está optimizada para estos algoritmos.

El conocimiento que los nutre proviene de compañías privadas, de centros académicos y también de instituciones públicas. No todo se pone a disposición del público, pero compartir la información y los progresos técnicos es uno de los motores para el aprendizaje de las máquinas.

Cloudera, una de las empresas presentes en el IDF, trabaja en big data con plataformas de código abierto. Su portavoz en el congreso de Intel, Johnny Pak, cree que la colaboración es necesaria para no estancarse. “El código abierto ayudará al desarrollo rápido de la inteligencia artificial. La posibilidad de construir sobre el trabajo de otros es lo que va a ayudar a avanzar”, reflexiona.

                                                   El conocimiento proviene de múltiples fuentes. Intel

 

Aprender bien la lección

 

 

 

El aprendizaje automático tiene otra cara. Se puede descontrolar, como le ocurrió al bot Tay, programado por Microsoft para aprender de la gente a través de sus interacciones en Twitter. Su cuenta en la red social pronto empezó a lanzar mensajes xenófobos tras el troleo de algunos usuarios y la compañía tuvo que suspender este experimento social.

“Siempre se necesitará un marco para limitar al algoritmo”, es la opinión de Pak. “Una máquina no es más que un conjunto de algoritmos. Lo que significa que las máquinas no tienen la libertad que las personas tenemos”. Así, esa especie de libertad social que Tay tuvo para aprender acabó por volverse en su contra. “Si vas a usar algoritmos en un entorno social creo que tienes que poner unos límites, de la misma forma que nosotros tenemos límites sociales”, sentencia Pak.

Es una forma de controlar la toma de decisiones. Por cierto, para una persona estas decisiones no siempre están basadas en el razonamiento lógico y no siempre se obtiene así el mejor resultado. La intuición a veces es un factor determinante y no es algo que se aprenda de forma lógica. ¿Pueden los algoritmos actuales dotar a una máquina de intuición?

El caso que más se acerca a una toma de decisiones intuitiva por una máquina es el del sistema Alpha Go, desarrollado por Google y que venció Lee Sedol, el campeón mundial del Go, un juego mucho más complejo de aprender para una máquina que por ejemplo el ajedrez.

Pak apunta que la toma de decisiones de Alpha Go a veces no partía de la lógica. “No estaba calculando, como sí hacen en ajedrez, millones de interacciones para determinar qué es lo que va a hacer el jugador. Tenía que vislumbrar cuál era el mejor movimiento. Y ganó. Lee solo gano una partida”. Y es que ni siquiera los científicos detrás de Alpha Go predecían cómo se iba a comportar su programa.

SIxIj48L3BhdGg+PHBhdGggZD0iTTE0LjczMywxLjY4NiBDNy41MTYsMS42ODYgMS42NjUsNy40OTUgMS42NjUsMTQuNjYyIEMxLjY2NSwyMC4xNTkgNS4xMDksMjQuODU0IDkuOTcsMjYuNzQ0IEM5Ljg1NiwyNS43MTggOS43NTMsMjQuMTQzIDEwLjAxNiwyMy4wMjIgQzEwLjI1MywyMi4wMSAxMS41NDgsMTYuNTcyIDExLjU0OCwxNi41NzIgQzExLjU0OCwxNi41NzIgMTEuMTU3LDE1Ljc5NSAxMS4xNTcsMTQuNjQ2IEMxMS4xNTcsMTIuODQyIDEyLjIxMSwxMS40OTUgMTMuNTIyLDExLjQ5NSBDMTQuNjM3LDExLjQ5NSAxNS4xNzUsMTIuMzI2IDE1LjE3NSwxMy4zMjMgQzE1LjE3NSwxNC40MzYgMTQuNDYyLDE2LjEgMTQuMDkzLDE3LjY0MyBDMTMuNzg1LDE4LjkzNSAxNC43NDUsMTkuOTg4IDE2LjAyOCwxOS45ODggQzE4LjM1MSwxOS45ODggMjAuMTM2LDE3LjU1NiAyMC4xMzYsMTQuMDQ2IEMyMC4xMzYsMTAuOTM5IDE3Ljg4OCw4Ljc2NyAxNC42NzgsOC43NjcgQzEwLjk1OSw4Ljc2NyA4Ljc3NywxMS41MzYgOC43NzcsMTQuMzk4IEM4Ljc3NywxNS41MTMgOS4yMSwxNi43MDkgOS43NDksMTcuMzU5IEM5Ljg1NiwxNy40ODggOS44NzIsMTcuNiA5Ljg0LDE3LjczMSBDOS43NDEsMTguMTQxIDkuNTIsMTkuMDIzIDkuNDc3LDE5LjIwMyBDOS40MiwxOS40NCA5LjI4OCwxOS40OTEgOS4wNCwxOS4zNzYgQzcuNDA4LDE4LjYyMiA2LjM4NywxNi4yNTIgNi4zODcsMTQuMzQ5IEM2LjM4NywxMC4yNTYgOS4zODMsNi40OTcgMTUuMDIyLDYuNDk3IEMxOS41NTUsNi40OTcgMjMuMDc4LDkuNzA1IDIzLjA3OCwxMy45OTEgQzIzLjA3OCwxOC40NjMgMjAuMjM5LDIyLjA2MiAxNi4yOTcsMjIuMDYyIEMxNC45NzMsMjIuMDYyIDEzLjcyOCwyMS4zNzkgMTMuMzAyLDIwLjU3MiBDMTMuMzAyLDIwLjU3MiAxMi42NDcsMjMuMDUgMTIuNDg4LDIzLjY1NyBDMTIuMTkzLDI0Ljc4NCAxMS4zOTYsMjYuMTk2IDEwLjg2MywyNy4wNTggQzEyLjA4NiwyNy40MzQgMTMuMzg2LDI3LjYzNyAxNC43MzMsMjcuNjM3IEMyMS45NSwyNy42MzcgMjcuODAxLDIxLjgyOCAyNy44MDEsMTQuNjYyIEMyNy44MDEsNy40OTUgMjEuOTUsMS42ODYgMTQuNzMzLDEuNjg2IiBmaWxsPSIjYmQwODFjIj48L3BhdGg+PC9nPjwvc3ZnPg==') no-repeat scroll 3px 50% / 14px 14px; position: absolute; opacity: 0.85; z-index: 8675309; display: none; cursor: pointer; top: 3426px; left: 18px;">Guardar

¿Llegará la I.A. a superar a los Humanos?

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Literatura y ciencia

La novela de un robot, finalista en un premio literario

Los algoritmos de la Inteligencia Artificial triunfan entre los escritores: ya son capaces de emocionar al jurado de un concurso.

Hall 9000, el ojo de Odisea en el Espacio, de Stanley Kubrick.
Hall 9000, el ojo de Odisea en el Espacio, de Stanley Kubrick.

 

Lorena G. Maldonado

Cuenta el documental Gonzo que Hunter S. Thompson se sentó un día frente a su máquina de escribir y copió una y otra vez El gran Gatsby hasta que fue capaz de reproducir “la música” de Fitzgerald, el ritmo de su prosa en base a las teclas. Ahí había un algoritmo, dado que el estilo siempre requiere de repetición. Lo mismo hizo el PC Writer 2008, un programa informático al que se le incorporó el vocabulario, el lenguaje y las herramientas narrativas de trece escritores, además de los datos que perfilaban a los personajes de la obra, una trama y un tiempo y un lugar en los que desarrollar la historia.

En tres días, voilà: ya había parido una novela. Eso sí: la máquina imitaba la forma de escribir de Haruki Murakami (Tokio Blues o Crónica del pájaro que da cuerda al mundo) y sus personajes se parecían sospechosamente a los de Anna Karenina. El título tampoco era muy original: Amor verdadero. Tras el proceso de corrección -el mismo que se lleva a cabo cuando el texto procede de la mano humana-, la novela fue publicada por la editorial rusa Astral Spb.

La máquina imitaba la forma de escribir de Haruki Murakami y sus personajes se parecían sospechosamente a los de Anna Karenina. El título tampoco era muy original: Amor verdadero

Ya en 2007, la revista Discovery Channel hablaba de MEXICA, un programa informático que escribía sus propios relatos de ficción basándose en representaciones computerizadas de emociones y tensiones entre diversos personajes. Aunque ambos sistemas necesiten de una revisión humana al final de su trabajo, es indiscutible que sus capacidades dan miedo. Ya lo decía la tercera ley de Clarke: toda tecnología lo suficientemente avanzada es indistinguible de la magia. La creación artificial no da los quebraderos de cabeza de la humana, al menos a ojos de la industria: es más obediente a las características requeridas por el editor y sus honorarios son más bajos.

Sucedió en Japón

Claro que las secuencias sintácticas se pueden generar -emulando estilos, seleccionando léxicos-, pero ¿y el sentido literario-poético humano? ¿Podemos clonar o reproducir algo que no sabemos definir exactamente? Aquí el tradicional problema de la inteligencia artificial: el humor. ¿Cuáles son los mecanismos de la risa? Se han dado pasos en esta dirección -a principios de este año, el equipo de investigación de Virginia Tech, en EEUU, aseguró haber encontrado un algoritmo que entiende y predice el humor en imágenes-, pero no se ha conseguido lo propio con la herramienta del lenguaje.

Quedaba ahí un consuelo: la sensación que nos da de que la máquina está creando es sólo eso, una sensación, porque en realidad está uniendo extractos de cosas que le han enseñado previamente. Sólo eso: las organiza de forma nueva, distinta. Y se le nota: igual que se notan las influencias feroces de algunos autores que les llevan a una imitación más o menos descarada. Menos mal que las máquinas -aún- no se han sofisticado tanto.

La sensación que nos da de que la máquina está creando es sólo eso, una sensación, porque en realidad está uniendo extractos de cosas que le han enseñado previamente

Cuando el ser humano -y el escritor- volvían a sentirse imprescindibles, estalla la noticia: según The Japan News, una novela coescrita por seres humanos y un programa de inteligencia artificial ha llegado a la segunda fase del proceso de selección de un premio literario nacional. Aunque no alcanzó el premio final, el jurado se quedó francamente sorprendido al enterarse de que la historia había sido producida por una máquina.

La novela finalista la había presentado un equipo de investigadores encabezado por Hitoshi Matsubara, profesor de la Universidad del Futuro-Hakodate, e imitaba el estilo de Shinichi Hoshi, un escritor japonés reconocido por sus obras de ciencia ficción. Ésta no fue la única de elaboración artificial: este mismo equipo había presentado otro relato más, y el grupo científico liderado por el profesor de la Escuela de Ingeniería de la Universidad de Tokio, Fujio Toriumi, había enviado otras dos historias.

Describir a un personaje

La cuadrilla de Matsubara estableció los parámetros de la novela, como la trama y el sexo de los personajes, y dejó al artefacto actuar: no lo hizo mal, claro, pero, según las palabras de un miembro del jurado, el novelista Satoshi Hase: “Aunque me sorprendió el trabajo -era una novela muy bien estructurada-, este sistema tiene todavía algunos problemas para ganar el premio, por ejemplo, la descripción de los personajes”.

Es curioso: la inteligencia artificial entiende de códigos, de relaciones, de lógica verbal y aritmética, pero no tiene capacidad de imaginar. De crear de la nada. De fabular. Se acerca al hemisferio cerebral izquierdo a pasos agigantados, pero el derecho -sensaciones, sentimientos, habilidades visuales y sonoras…- ni lo roza. Puede dividir un texto en capítulos ordenados y coherentes, pero no puede dotar de alma a sus personajes ni a sus espacios. Es un alivio -por ahora-.

Aunque la novela artificial pudo pasar una etapa del proceso del premio, no convenció el hecho de que no describiese a sus personajes

El Premio Hoshi Shinichi es conocido por aceptar solicitantes que no sean seres humanos -esto es, programas de inteligencia artificial y variantes-, pero según la secretaría del concurso, este año ha sido la primera vez que una historia de este tipo supera una etapa. El profesor ha hecho saber que inició este proyecto hace cuatro años y que no va a rendirse hasta perfeccionar su programa.

La máquina que le hace los guiones a Friends

Otras aplicaciones están tomándole la delantera: en octubre del año pasado apareció Wordsmith, que es capaz de escribir artículos -ya está siendo usada por Associated Press para crear 3000 artículos cada trimestre sobre resultados fiscales de compañías-; y en enero de 2016, Andy Herd creó una red neuronal que puede generar diálogos de la famosa serie Friends a partir de los diálogos originales de la serie.

La inteligencia artificial ya puede escribir discursos políticos -siguiendo perfectamente una línea ideológica con palabras claves- e incluso pasar las pruebas de acceso de universidades japonesas. La última que ha liado es conseguir derrotar a un ser humano en una partida de Go, como se demostró en el programa AlphaGo.

La inteligencia artificial ya puede escribir discursos políticos e incluso pasar las pruebas de acceso de universidades japonesas

El espectador de Her, la película de Spike Jonze, entendió en la escena de ‘sexo’ entre Phoenix y la voz de Johansson -trufada de un negro orgasmático- que el ser humano es lenguaje: que la imaginación, a remolque de la palabra, trasciende a lo físico y es capaz de excitar. La intención, el juego, el guiño de la inteligencia, ensanchan la sintaxis hacia campos donde la máquina no llega. Además, los programas de inteligencia artificial necesitan de información que procesar para seguir “viviendo”: si no la reciben, pierden su propósito y dejan de existir. El ser humano sí tiene eso de inagotable. No puede desconectarse del recuerdo, de la propia experiencia -que es la fuerza motor de la escritura-. No puede. Por ahora.