jueves, 30 de marzo del 2017 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




Los pros y los contras de las máquinas más listas

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Inteligencia artificial

 

El aprendizaje automático es uno de los campos con más proyección  en inteligencia artificial.

 

 

 

Tenemos la clave para fabricar máquinas listas. Intel

 

Reportaje de Pablo G. Bejerano
 

Los miles de millones de dispositivos que se conectan a internet cada día generan una cantidad abrumadora de información. Son montones de terabytes de datos que aparecen de la nada diariamente.

Esto abre el apetito por obtener valor de la información. Y la inteligencia artificial es clave aquí. El término se suele asociar con la robótica, una herencia cultural de la ciencia ficción, pero lo cierto es que la inteligencia artificial es algo mucho más abstracto que robots humanoides caminando o que los dilemas del superordenador Hal en 2001: una odisea del espacio.

Ojo cámara (con lente fish eye es decir con una visual muy panóptica) de color rojo (para detectar por filtro cromático incluso la “luz” IR no perceptible por el ser humano), usado para representar a HAL 9000 en uno de sus aspectos de control prácticamente orweliano.

Podría decirse que la inteligencia artificial asoma la cabeza por primera vez en los años 60 con sistemas predictivos y a partir de ahí evoluciona a velocidad de crucero. Hoy se usa para evitar fraudes bancarios, en el reconocimiento de voz, en el filtro anti spam del correo electrónico, incluso en el etiquetado de fotos automático de Facebook o en los videojuegos.

Lo que está por venir en inteligencia artificial –ya se ha investigado mucho sobre ello– son los coches autónomos, la medicina de alta precisión o el procesamiento del lenguaje natural que le pediremos a los Siri, Google Now o Cortana en los próximos años. Son algunas de las áreas para las que el aprendizaje automático o machine learning es necesario.

Creada una máquina que aprende como una persona

Que las máquinas aprendan es fundamental porque es uno de los elementos que retrasará su obsolescencia prematura, reforzando su autonomía. Este aprendizaje es uno de los temas que han sobrevolado la Conferencia Internacional de Desarrolladores (IDF) de Intel.

Hoy el 7% de todos los servidores presentes en el mundo están dedicados a tareas de aprendizaje automático. Y más del 97% de estos servidores funcionan con procesadores de Intel. Si bien en campos como los coches autónomos la compañía se ve amenazada por los productos de su competidora Nvidia.

En todo caso, esta rama de la inteligencia artificial es la que tiene mayor proyección. Intel proporciona el hardware sobre el que los desarrolladores pueden programar sus algoritmos de inteligencia artificial. Para entrenar a los algoritmos la compañía ofrece el procesador Xeon Phi, mientras que para ejecutar una tarea determinada, ya aprendida, cuenta con el Xeon.

                                                                        Un centro de datos de Intel. Intel

 

“Trabajamos con instituciones académicas y desarrolladores para asegurarnos de que pueden usar el hardware optimizado”, comenta Nidhi Chappell, responsable de aprendizaje automático en la división de centros de datos de Intel. “Hay muchos beneficios en tener el software y el hardware optimizado. ¿Podrías trabajar con procesamiento del lenguaje natural en un Xeon no optimizado? Sí, pero cuanto más optimices los elementos, tanto en software como en el hardware, más rápido harás los trabajos”.

Se necesita que el rendimiento del hardware sea muy alto, pero también que sea fácil de poner en marcha. Y otra de las claves para optimizar este aspecto es la compatibilidad con diferentes tipos de algoritmos. “Queremos habilitar nuestros productos para soluciones que estén basadas en código abierto”, indica Chappell. “Pues muchas de las cargas de trabajo en deep learning, como el procesamiento del lenguaje natural o el etiquetado de imágenes, están basadas en frameworks (marcos de trabajo para desarrollar software) de código abierto”.

Los algoritmos del ‘Deep learning’

 

 

 

 

El Deep learning o aprendizaje profundo, considerado una parte del aprendizaje automático, se basa en redes neuronales artificiales, inspiradas en el funcionamiento de sistemas biológicos. Muchos algoritmos que usan deep learning proceden de empresas o universidades, como Google o Berkeley, y una parte de ellos están bajo código abierto. Lo que hace Intel es asegurarse de que la arquitectura de sus productos está optimizada para estos algoritmos.

El conocimiento que los nutre proviene de compañías privadas, de centros académicos y también de instituciones públicas. No todo se pone a disposición del público, pero compartir la información y los progresos técnicos es uno de los motores para el aprendizaje de las máquinas.

Cloudera, una de las empresas presentes en el IDF, trabaja en big data con plataformas de código abierto. Su portavoz en el congreso de Intel, Johnny Pak, cree que la colaboración es necesaria para no estancarse. “El código abierto ayudará al desarrollo rápido de la inteligencia artificial. La posibilidad de construir sobre el trabajo de otros es lo que va a ayudar a avanzar”, reflexiona.

                                                   El conocimiento proviene de múltiples fuentes. Intel

 

Aprender bien la lección

 

 

 

El aprendizaje automático tiene otra cara. Se puede descontrolar, como le ocurrió al bot Tay, programado por Microsoft para aprender de la gente a través de sus interacciones en Twitter. Su cuenta en la red social pronto empezó a lanzar mensajes xenófobos tras el troleo de algunos usuarios y la compañía tuvo que suspender este experimento social.

“Siempre se necesitará un marco para limitar al algoritmo”, es la opinión de Pak. “Una máquina no es más que un conjunto de algoritmos. Lo que significa que las máquinas no tienen la libertad que las personas tenemos”. Así, esa especie de libertad social que Tay tuvo para aprender acabó por volverse en su contra. “Si vas a usar algoritmos en un entorno social creo que tienes que poner unos límites, de la misma forma que nosotros tenemos límites sociales”, sentencia Pak.

Es una forma de controlar la toma de decisiones. Por cierto, para una persona estas decisiones no siempre están basadas en el razonamiento lógico y no siempre se obtiene así el mejor resultado. La intuición a veces es un factor determinante y no es algo que se aprenda de forma lógica. ¿Pueden los algoritmos actuales dotar a una máquina de intuición?

El caso que más se acerca a una toma de decisiones intuitiva por una máquina es el del sistema Alpha Go, desarrollado por Google y que venció Lee Sedol, el campeón mundial del Go, un juego mucho más complejo de aprender para una máquina que por ejemplo el ajedrez.

Pak apunta que la toma de decisiones de Alpha Go a veces no partía de la lógica. “No estaba calculando, como sí hacen en ajedrez, millones de interacciones para determinar qué es lo que va a hacer el jugador. Tenía que vislumbrar cuál era el mejor movimiento. Y ganó. Lee solo gano una partida”. Y es que ni siquiera los científicos detrás de Alpha Go predecían cómo se iba a comportar su programa.

SIxIj48L3BhdGg+PHBhdGggZD0iTTE0LjczMywxLjY4NiBDNy41MTYsMS42ODYgMS42NjUsNy40OTUgMS42NjUsMTQuNjYyIEMxLjY2NSwyMC4xNTkgNS4xMDksMjQuODU0IDkuOTcsMjYuNzQ0IEM5Ljg1NiwyNS43MTggOS43NTMsMjQuMTQzIDEwLjAxNiwyMy4wMjIgQzEwLjI1MywyMi4wMSAxMS41NDgsMTYuNTcyIDExLjU0OCwxNi41NzIgQzExLjU0OCwxNi41NzIgMTEuMTU3LDE1Ljc5NSAxMS4xNTcsMTQuNjQ2IEMxMS4xNTcsMTIuODQyIDEyLjIxMSwxMS40OTUgMTMuNTIyLDExLjQ5NSBDMTQuNjM3LDExLjQ5NSAxNS4xNzUsMTIuMzI2IDE1LjE3NSwxMy4zMjMgQzE1LjE3NSwxNC40MzYgMTQuNDYyLDE2LjEgMTQuMDkzLDE3LjY0MyBDMTMuNzg1LDE4LjkzNSAxNC43NDUsMTkuOTg4IDE2LjAyOCwxOS45ODggQzE4LjM1MSwxOS45ODggMjAuMTM2LDE3LjU1NiAyMC4xMzYsMTQuMDQ2IEMyMC4xMzYsMTAuOTM5IDE3Ljg4OCw4Ljc2NyAxNC42NzgsOC43NjcgQzEwLjk1OSw4Ljc2NyA4Ljc3NywxMS41MzYgOC43NzcsMTQuMzk4IEM4Ljc3NywxNS41MTMgOS4yMSwxNi43MDkgOS43NDksMTcuMzU5IEM5Ljg1NiwxNy40ODggOS44NzIsMTcuNiA5Ljg0LDE3LjczMSBDOS43NDEsMTguMTQxIDkuNTIsMTkuMDIzIDkuNDc3LDE5LjIwMyBDOS40MiwxOS40NCA5LjI4OCwxOS40OTEgOS4wNCwxOS4zNzYgQzcuNDA4LDE4LjYyMiA2LjM4NywxNi4yNTIgNi4zODcsMTQuMzQ5IEM2LjM4NywxMC4yNTYgOS4zODMsNi40OTcgMTUuMDIyLDYuNDk3IEMxOS41NTUsNi40OTcgMjMuMDc4LDkuNzA1IDIzLjA3OCwxMy45OTEgQzIzLjA3OCwxOC40NjMgMjAuMjM5LDIyLjA2MiAxNi4yOTcsMjIuMDYyIEMxNC45NzMsMjIuMDYyIDEzLjcyOCwyMS4zNzkgMTMuMzAyLDIwLjU3MiBDMTMuMzAyLDIwLjU3MiAxMi42NDcsMjMuMDUgMTIuNDg4LDIzLjY1NyBDMTIuMTkzLDI0Ljc4NCAxMS4zOTYsMjYuMTk2IDEwLjg2MywyNy4wNTggQzEyLjA4NiwyNy40MzQgMTMuMzg2LDI3LjYzNyAxNC43MzMsMjcuNjM3IEMyMS45NSwyNy42MzcgMjcuODAxLDIxLjgyOCAyNy44MDEsMTQuNjYyIEMyNy44MDEsNy40OTUgMjEuOTUsMS42ODYgMTQuNzMzLDEuNjg2IiBmaWxsPSIjYmQwODFjIj48L3BhdGg+PC9nPjwvc3ZnPg==') no-repeat scroll 3px 50% / 14px 14px; position: absolute; opacity: 0.85; z-index: 8675309; display: none; cursor: pointer; top: 3426px; left: 18px;">Guardar

¿Llegará la I.A. a superar a los Humanos?

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Literatura y ciencia

La novela de un robot, finalista en un premio literario

Los algoritmos de la Inteligencia Artificial triunfan entre los escritores: ya son capaces de emocionar al jurado de un concurso.

Hall 9000, el ojo de Odisea en el Espacio, de Stanley Kubrick.
Hall 9000, el ojo de Odisea en el Espacio, de Stanley Kubrick.

 

Lorena G. Maldonado

Cuenta el documental Gonzo que Hunter S. Thompson se sentó un día frente a su máquina de escribir y copió una y otra vez El gran Gatsby hasta que fue capaz de reproducir “la música” de Fitzgerald, el ritmo de su prosa en base a las teclas. Ahí había un algoritmo, dado que el estilo siempre requiere de repetición. Lo mismo hizo el PC Writer 2008, un programa informático al que se le incorporó el vocabulario, el lenguaje y las herramientas narrativas de trece escritores, además de los datos que perfilaban a los personajes de la obra, una trama y un tiempo y un lugar en los que desarrollar la historia.

En tres días, voilà: ya había parido una novela. Eso sí: la máquina imitaba la forma de escribir de Haruki Murakami (Tokio Blues o Crónica del pájaro que da cuerda al mundo) y sus personajes se parecían sospechosamente a los de Anna Karenina. El título tampoco era muy original: Amor verdadero. Tras el proceso de corrección -el mismo que se lleva a cabo cuando el texto procede de la mano humana-, la novela fue publicada por la editorial rusa Astral Spb.

La máquina imitaba la forma de escribir de Haruki Murakami y sus personajes se parecían sospechosamente a los de Anna Karenina. El título tampoco era muy original: Amor verdadero

Ya en 2007, la revista Discovery Channel hablaba de MEXICA, un programa informático que escribía sus propios relatos de ficción basándose en representaciones computerizadas de emociones y tensiones entre diversos personajes. Aunque ambos sistemas necesiten de una revisión humana al final de su trabajo, es indiscutible que sus capacidades dan miedo. Ya lo decía la tercera ley de Clarke: toda tecnología lo suficientemente avanzada es indistinguible de la magia. La creación artificial no da los quebraderos de cabeza de la humana, al menos a ojos de la industria: es más obediente a las características requeridas por el editor y sus honorarios son más bajos.

Sucedió en Japón

Claro que las secuencias sintácticas se pueden generar -emulando estilos, seleccionando léxicos-, pero ¿y el sentido literario-poético humano? ¿Podemos clonar o reproducir algo que no sabemos definir exactamente? Aquí el tradicional problema de la inteligencia artificial: el humor. ¿Cuáles son los mecanismos de la risa? Se han dado pasos en esta dirección -a principios de este año, el equipo de investigación de Virginia Tech, en EEUU, aseguró haber encontrado un algoritmo que entiende y predice el humor en imágenes-, pero no se ha conseguido lo propio con la herramienta del lenguaje.

Quedaba ahí un consuelo: la sensación que nos da de que la máquina está creando es sólo eso, una sensación, porque en realidad está uniendo extractos de cosas que le han enseñado previamente. Sólo eso: las organiza de forma nueva, distinta. Y se le nota: igual que se notan las influencias feroces de algunos autores que les llevan a una imitación más o menos descarada. Menos mal que las máquinas -aún- no se han sofisticado tanto.

La sensación que nos da de que la máquina está creando es sólo eso, una sensación, porque en realidad está uniendo extractos de cosas que le han enseñado previamente

Cuando el ser humano -y el escritor- volvían a sentirse imprescindibles, estalla la noticia: según The Japan News, una novela coescrita por seres humanos y un programa de inteligencia artificial ha llegado a la segunda fase del proceso de selección de un premio literario nacional. Aunque no alcanzó el premio final, el jurado se quedó francamente sorprendido al enterarse de que la historia había sido producida por una máquina.

La novela finalista la había presentado un equipo de investigadores encabezado por Hitoshi Matsubara, profesor de la Universidad del Futuro-Hakodate, e imitaba el estilo de Shinichi Hoshi, un escritor japonés reconocido por sus obras de ciencia ficción. Ésta no fue la única de elaboración artificial: este mismo equipo había presentado otro relato más, y el grupo científico liderado por el profesor de la Escuela de Ingeniería de la Universidad de Tokio, Fujio Toriumi, había enviado otras dos historias.

Describir a un personaje

La cuadrilla de Matsubara estableció los parámetros de la novela, como la trama y el sexo de los personajes, y dejó al artefacto actuar: no lo hizo mal, claro, pero, según las palabras de un miembro del jurado, el novelista Satoshi Hase: “Aunque me sorprendió el trabajo -era una novela muy bien estructurada-, este sistema tiene todavía algunos problemas para ganar el premio, por ejemplo, la descripción de los personajes”.

Es curioso: la inteligencia artificial entiende de códigos, de relaciones, de lógica verbal y aritmética, pero no tiene capacidad de imaginar. De crear de la nada. De fabular. Se acerca al hemisferio cerebral izquierdo a pasos agigantados, pero el derecho -sensaciones, sentimientos, habilidades visuales y sonoras…- ni lo roza. Puede dividir un texto en capítulos ordenados y coherentes, pero no puede dotar de alma a sus personajes ni a sus espacios. Es un alivio -por ahora-.

Aunque la novela artificial pudo pasar una etapa del proceso del premio, no convenció el hecho de que no describiese a sus personajes

El Premio Hoshi Shinichi es conocido por aceptar solicitantes que no sean seres humanos -esto es, programas de inteligencia artificial y variantes-, pero según la secretaría del concurso, este año ha sido la primera vez que una historia de este tipo supera una etapa. El profesor ha hecho saber que inició este proyecto hace cuatro años y que no va a rendirse hasta perfeccionar su programa.

La máquina que le hace los guiones a Friends

Otras aplicaciones están tomándole la delantera: en octubre del año pasado apareció Wordsmith, que es capaz de escribir artículos -ya está siendo usada por Associated Press para crear 3000 artículos cada trimestre sobre resultados fiscales de compañías-; y en enero de 2016, Andy Herd creó una red neuronal que puede generar diálogos de la famosa serie Friends a partir de los diálogos originales de la serie.

La inteligencia artificial ya puede escribir discursos políticos -siguiendo perfectamente una línea ideológica con palabras claves- e incluso pasar las pruebas de acceso de universidades japonesas. La última que ha liado es conseguir derrotar a un ser humano en una partida de Go, como se demostró en el programa AlphaGo.

La inteligencia artificial ya puede escribir discursos políticos e incluso pasar las pruebas de acceso de universidades japonesas

El espectador de Her, la película de Spike Jonze, entendió en la escena de ‘sexo’ entre Phoenix y la voz de Johansson -trufada de un negro orgasmático- que el ser humano es lenguaje: que la imaginación, a remolque de la palabra, trasciende a lo físico y es capaz de excitar. La intención, el juego, el guiño de la inteligencia, ensanchan la sintaxis hacia campos donde la máquina no llega. Además, los programas de inteligencia artificial necesitan de información que procesar para seguir “viviendo”: si no la reciben, pierden su propósito y dejan de existir. El ser humano sí tiene eso de inagotable. No puede desconectarse del recuerdo, de la propia experiencia -que es la fuerza motor de la escritura-. No puede. Por ahora.

La I.Artificial… ¿Qué nos traerá?

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

                                                  INTELIGENCIA ARTIFICIAL
Nick Bostrom, en el Instituto del Futuro de la Humanidad.
Nick Bostrom, en el Instituto del Futuro de la Humanidad. Tom Pilston Getty Images

    El futuro de la humanidad en sus manos

 

Un equipo de expertos investiga en un Instituto de Oxford los riesgos de extinción del ser humano

 

Necesitamos sabiduría para enfrentar el futuro. Para saber si los progresos tecnológicos de vanguardia van en la dirección adecuada o no; si favorecen al ser humano o todo lo contrario. Para tener una idea de qué hacer si se presentan escenarios que ponen en riesgo la supervivencia de la especie, como los derivados de la amenaza nuclear, la modificación de microbios letales o la creación de mentes digitales más inteligentes que el hombre. A reflexionar sobre este tipo de cuestiones se dedican un puñado de cerebros en un lugar ubicado en Oxford y llamado el Instituto para el Futuro de la Humanidad.

Al frente de un heterodoxo grupo de filósofos, tecnólogos, físicos, economistas y matemáticos se encuentra un filósofo formado en física, neurociencia computacional y matemáticas, un tipo que desde su adolescencia se encontró sin interlocutores con los cuales compartir sus inquietudes acerca de Schopenhauer, un sueco de 42 años que se pasea por las instalaciones del Instituto con un brebaje hecho a base de vegetales, proteínas y grasas al que denomina elixir y que escucha audiolibros al doble de velocidad para no perder un segundo de su preciado tiempo. Se llama Nick Bostrom, y es el autor de Superinteligencia: Caminos, Peligros, Estrategias, un libro que ha causado impacto, una reflexión acerca de cómo afrontar un futuro en que la inteligencia artificial supere a la humana, un ensayo que ha recibido el respaldo explícito de cerebros de Silicon Valley como Bill Gates y Elon Musk, de filósofos como Derek Parfit o Peter Singer, de físicos como Max Tegmark, profesor del Massachusetts Institute of Technology. Un trabajo que, además, se coló en la lista de los libros más vendidos que elabora The New York Times Book Review. La ONU le reclama para que exponga su visión, sociedades científicas como The Royal Society le invitan a dar conferencias, una de sus charlas TED lleva ya contabilizados más de 1.747.000 visionados. Y Stephen Hawking ya ha alertado al mundo: hay que tener cuidado con la Inteligencia Artificial.

El Instituto para el Futuro de la Humanidad —FHI, siglas en inglés— es un espacio con salas de reuniones bautizadas con nombres de héroes anónimos que con un gesto salvaron el mundo —como Stanislav Petrov, teniente coronel ruso que evitó un incidente nuclear durante la Guerra Fría— donde fluyen las ideas, los intercambios de impresiones, donde florecen hipótesis y análisis. Sobre todo, por las tardes-noches: el jefe es, como él mismo confiesa, un noctámbulo; se queda en la oficina hasta las dos de la madrugada.

“En el momento en que sepamos cómo hacer máquinas inteligentes, las haremos”, afirma Bostrom, en una sala del Instituto que dirige, “y para entonces, debemos saber cómo controlarlas. Si tienes un agente artificial con objetivos distintos de los tuyos, cuando se vuelve lo suficientemente inteligente, es capaz de anticipar tus acciones y de hacer planes teniendo en cuenta los tuyos, lo cual podría incluir esconder sus propias capacidades de modo estratégico”. Expertos en Inteligencia Artificial que cita en su libro aseguran que hay un 90% de posibilidades de que entre 2075 y 2090 haya máquinas tan inteligentes como los humanos. En la transición hacia esa nueva era habrá que tomar decisiones. Inocular valores morales a las máquinas, tal vez. Evitar que se vuelvan contra nosotros.

El día que las máquinas lleguen a pensar por sí mismas… ¡La especie Humana habrá llegado al fin!

A analizar este tipo de supuestos y escenarios se dedica este hombre que en estos días lee intensivamente sobre machine learning (aprendizaje automático, rama de la inteligencia artificial que explora técnicas para que las computadoras puedan aprender por sí solas) y economía de la innovación. Para Bostrom el tiempo nunca es suficiente. Leer, leer, leer, asentar conocimientos, profundizar, escribir. “El tiempo es precioso. Es un bien de gran valor que constantemente se nos desliza entre los dedos”.

 

 

 

La gente parece olvidar la guerra nuclear. Un cambio para mal en la geopolítica podría ser un peligro

 

 

 

Estudiar, formular hipótesis, desarrollarlas, anticipar escenarios. Es lo que se hace en este Instituto donde se cultiva la tormenta de ideas y la videoconferencia, un laberinto de salas dominadas por pizarras vileda con diagramas y en cuyo pasillo de entrada cuelga un cartel que reproduce la portada de Un mundo feliz, la visionaria distopía firmada por Aldous Huxley en 1932. Un total de 16 profesionales trabajan aquí. Publican en revistas académicas, hacen informes de riesgos para compañías tecnológicas, para gobiernos (por ejemplo, el finlandés) o para la ONU, que se dispone a crear su primer programa sobre Inteligencia Artificial —uno de cuyos representantes andaba la semana pasada por las oficinas del FHI—. Niel Bowerman, director adjunto, físico del clima y exasesor del equipo político de Energía y Medio Ambiente de Barack Obama, explica que en el instituto siempre estudian cómo de grande es un problema, cuánta gente trabaja en él y cómo de fácil es realizar progresos en esa área para determinar los campos de estudio.

Bostrom es el hombre que comanda el Instituto, el que decide por dónde se transita, el visionario. Desarrolla su labor gracias al impulso filantrópico de James Martin, millonario interesado en las cuestiones de los riesgos existenciales del futuro que impulsó el FHI hace diez años para que se estudie y reflexione en torno a aquellas cosas en las que la industria y los gobiernos, guiados por sus particulares intereses, no tienen por qué pensar.

Al filósofo sueco, que formó parte en 2009 de la lista de los 100 mayores pensadores globales de la revista Foreign Policy, le interesa estudiar, sobre todo, amenazas lejanas, a las que no le gusta poner fecha. “Cuanto más largo sea el plazo”, dice, “mayores son las posibilidades de un escenario de extinción o de era posthumana”. Pero existen peligros a corto plazo. Los que más le preocupan a Bostrom son los que pueden afectar negativamente a las personas como las plagas, la gripe aviar, los virus, las pandemias.

En cuanto a la Inteligencia Artificial y su cruce con la militar, dice que el riesgo más claro lo presentan los drones y las armas letales autónomas. Y recuerda que la guerra nuclear, aunque tiene pocas probabilidades de llegar, sigue siendo un peligro latente. “La gente parece haber dejado de preocuparse por ella; un cambio para mal en la situación geopolítica podría convertirse en un gran peligro”.

 

 

 

“Hay una carrera entre nuestro progreso tecnológico y nuestra sabiduría, que va mucho más despacio

 

La biotecnología, y en particular, la posibilidad que ofrece el sistema de edición genética CRISPR de crear armas biológicas, también plantea nuevos desafíos. “La biotecnología está avanzando rápidamente va a permitir manipular la vida, modificar microbios con gran precisión y poder. Eso abre el paso a capacidades muy destructivas”. La tecnología nuclear, señala, se puede controlar. La biotecnología, la nanotecnología, lo que haga alguien un garaje con un equipo de segunda mano comprado en EBay, no tanto. Con poco se puede hacer mucho daño.

                     Mientras la máquina esté al servicio del humano… ¡Todo irá bien!

Superada su etapa transhumanista —fundó en 1998 junto a David Pearce la Asociación Mundial Transhumanista, colectivo que aboga de modo entusiasta por la expansión de las capacidades humanas mediante el uso de las tecnologías—, Bostrom ha encontrado en la Inteligencia Artificial el terreno perfecto para desarrollar su trabajo. La carrera en este campo se ha desatado, grandes empresas —Google compró en 2014 la tecnológica DeepMind— y Estados pugnan por hacerse con un sector que podría otorgar poderes inmensos, casi inimaginables.

Uno de los escenarios que proyecta en su libro, cuya versión en español publica el 25 de febrero la editorial Teell, es el de la toma de poder por parte de una Inteligencia Artificial (AI, siglas en inglés). Se produce una explosión de inteligencia. Las máquinas llegan a un punto en que superan a sus programadores, los humanos. Son capaces de mejorarse a sí mismas. De desarrollar grandes habilidades de programación, estratégicas, de manipulación social, de hacking. Pueden querer tomar el control del planeta. Los humanos pueden ser un estorbo para sus objetivos. Para tomar el control, esconden sus cartas. Podrán mostrarse inicialmente dóciles. En el momento en que desarrollan todos sus poderes, pueden lanzar un ataque contra la especie humana. Hackear drones, armas. Liberar robots del tamaño de un mosquito elaborados en nanofactorías que producen gas nervioso, o gas mostaza.

Esta es simplemente la síntesis del desarrollo de un escenario. Pero, como decía la crítica de Superinteligencia de la revista The Economist, las implicaciones de la introducción de una segunda especie inteligente en la Tierra merecen que alguien piense en ellas. “Antes, muchas de estas cuestiones, no solo las del AI, solían estar en el campo de la ciencia ficción, de la especulación”, dice Bostrom, “para mucha gente era difícil de entender que se pudiera hacer trabajo académico con ello, que se podían hacer progresos intelectuales”.

El libro también plantea un escenario en que la Inteligencia Artificial se desarrolla en distintos sectores de manera paralela y genera una economía que produce inimaginables cotas de riqueza, descubrimientos tecnológicos asombrosos. Los robots, que no duermen, ni reclaman vacaciones, producen sin cesar y desbancan a los humanos en múltiples trabajos.

— ¿Los robots nos enriquecerán o nos reemplazarán?

No creo que sea nada bueno llegar a construir robots que sepan comprender el átomo

— Primero, tal vez nos enriquezcan. A largo plazo ya se verá. El trabajo es costoso y no es algo deseado, por eso hay que pagar a la gente por hacerlo. Automatizarlo parece beneficioso. Eso crea dos retos: si la gente pierde sus salarios, ¿cómo se mantiene? Lo cual se convierte en una cuestión política, ¿se piensa en una garantía de renta básica? ¿En un Estado del Bienestar? Si esta tecnología realmente hace que el mundo se convierta en un lugar mucho más rico, con un crecimiento más rápido, el problema debería ser fácil de resolver, habría más dinero. El otro reto es que mucha gente ve su trabajo como algo necesario para tener estatus social y que su vida tenga sentido. Hoy en día, estar desempleado no es malo solo porque no tienes dinero, sino porque mucha gente se siente inútil. Se necesitaría cambiar la cultura para que no pensemos que trabajar por dinero es algo que te da valor. Es posible, hay ejemplos históricos: los aristócratas no trabajaban para vivir, incluso pensaban que tener que hacerlo era degradante. Creemos que las estructuras de significado social son universales, pero son recientes. La vida de los niños parece tener mucho sentido incluso si no hacen nada útil. Soy optimista: la cultura se puede cambiar.

Lo que para nosotros es natural, en la A.I. es casi… ¡imposible!

A Bostrom se le ha acusado desde algunos sectores de la comunidad científica de tener visiones demasiado radicales. Sobre todo, en su etapa transhumanista. “Sus visiones sobre la edición genética o sobre la mejora del humano son controvertidas”, señala Miquel-Ángel Serra, biólogo que acaba de publicar junto a Albert Cortina Humanidad: desafío éticos de las tecnologías emergentes. “Somos muchos los escépticos con las propuestas que hace”. Serra, no obstante, deja claro que Bostrom está ahora en el centro del debate sobre el futuro de la Inteligencia Artificial, que es una referencia.

— ¿Proyecta usted una visión demasiado apocalíptica en su libro de lo que puede ocurrir con la humanidad?

— Mucha gente puede quedarse con la impresión de que soy más pesimista con la AI de lo que realmente soy. Cuando lo escribí parecía más urgente tratar de ver qué podía ir mal para asegurarnos de cómo evitarlo.

— Pero, ¿es usted optimista con respecto al futuro?

¿Avanzar? Sí, pero sin caer en aberraciones antinaturales

— Intento no ser pesimista ni optimista. Intento ajustar mis creencias a lo que apunta la evidencia; con nuestros conocimientos actuales, creo que el resultado final puede ser muy bueno o muy malo. Aunque tal vez podríamos desplazar la probabilidad hacia un buen final si trabajamos duramente en ello.

— O sea, que hay cosas que hacer. ¿Cuáles?

— Estamos haciendo todo lo posible para crear este campo de investigación de control problema. Hay que mantener y cultivar buenas relaciones con la industria y los desarrolladores de Inteligencia Artificial. Aparte, hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar rápidamente nuestra capacidades tecnológicas, y nuestra sabiduría, que va mucho más despacio. Necesitamos un cierto nivel de sabiduría y de colaboración para el momento en que alcancemos determinados hitos tecnológicos, para sobrevivir a esas transiciones.

Fuente: El Pais

PD.

Sólo algunas imágenes y comentarios que la acompañan han sido añadidas respetando el reportaje original, con la intención de hacerla más amena.

Inteligencia artificial: ¿esperanza o amenaza?

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

  • Hace tiempo llegó a los cines ‘Ex machina’, una película de ciencia ficción que imagina la creación futura de una máquina que piensa y siente como un ser humano

  • Murray Shanahan, el científico que ha asesorado el guión del filme, cree que los robots serán ‘amigables’ y harán que nuestras vidas sean más fáciles

 

Exmachina

Ava acaricia una máscara humana buscando respuestas. Ava reviste sus brazos, sus piernas y sus glúteos mecánicos con una segunda piel que le hace parecerse a nosotros. Ava es un prodigioso robot con conciencia que ha sido capaz de seducir a un extraño y que ahora se deja llevar por un impulso vital: escapar. Por méritos propios y ajenos, Ava se ha ganado a pulso un lugar en el olimpo de los seres de inteligencia artificial creados por el cine, junto al Hal de 2001 o a los replicantes de Blade Runner. La fascinante mujer-robot de Ex Machina, interpretada por Alicia Vikander, deja en el aire una serie de inquietantes preguntas que seguirán resonando en nuestro cerebro humano al cabo de los días.

¿La Inteligencia Artificial (AI) es una esperanza o una amenaza? ¿Cuánto falta exactamente para la llegada de ese momento bautizado como la singularidad? ¿Y qué ocurrirá cuando las máquinas conscientes sean más inteligentes que los hombres? ¿Quién nos protegerá de ellas? ¿Cómo se protegerán ellas de nosotros?

«No he intentado hacer una película paranoica al estilo Terminator», se defiende el director Alex Garland, que dio la campanada a los 26 años con la novela La Playa y cayó en las garras del cine cuando Danny Boyle la llevó a la pantalla grande. Ni si siquiera es un filme anti-Inteligencia Artificial, más bien lo contrario».

Ex Machina

El estreno de la película, en los cines españoles, ha coincidido con el llamamiento mundial de algunas de las mentes más lúcidas del planeta -entre ellas, la del físico Stephen Hawking y la del emprendedor Elon Musk- advirtiendo sobre los riesgos de la Inteligencia Artificial. La carta, firmada por decenas de científicos y auspiciada por el Future of Life Institute, sostiene que la tecnología se está acercando a una peligrosa encrucijada que nos puede hacer «prosperar como nunca antes o llevarnos de cabeza a «la autodestrucción».

«El desarrollo completo de la inteligencia artificial podría significar el fin de la especie humana», advirtió Hawking hace apenas tres meses, en el momento de estrenar su nueva silla inteligente. Elon Musk, el fundador de Tesla y SpaceX, ha ido aún más allá y asegura que el desarrollo incontrolado de la AI sería más o menos como «invocar al diablo».

Otro de los destacados firmante del manifiesto es el filósofo sueco Nick Bostrom, autor del ensayo Superinteligencia: «El hombre es la mayor amenaza para el hombre. Estamos ante el mayor proceso transformativo de la humanidad, el que tal vez nos abra las puertas al poshumanismo. Pero las mismas tecnologías que nos van a posibilitar ese salto entrañan también grandes riesgos. En cierto modo, somos como bebés jugando con explosivos».

Murray Shanahan, experto en robótica y asesor del guión de ‘Ex machina’. EM

 

«Mi posición sobre el tema es muy simple: no veo nada de problemático en el hecho de crear una máquina consciente», se defiende el director de Ex Machina Alex Garland. «Y no veo la razón por la que deberíamos oponernos a su existencia. Muchas de las películas se aproximan al tema desde una posición de miedo; yo he decidido hacerlo desde una actitud de admiración y esperanza».

Para hacer más creíble su película, ubicada en un futuro que parece inminente, Garland se ha rodeado de un equipo científico de primera, con el profesor de Robótica Cognitiva Murray Shanahan (del Imperial College) y con el experto en genética y reconocido divulgador Adam Rutherford en primera fila.

«Comparto las preocupaciones de algunos científicos, pero los medios se han dejado llevar por el sensacionalismo», asegura Shanahan. «Lo que frecuentemente se deja de lado es la cuestión fundamental del tiempo y las incertidumbres que siguen habiendo en el camino. No estamos a punto de conseguir un nivel de inteligencia artificial como el que vemos en las películas de ciencia ficción, incluida ésta. Nuestros robots son aún muy primitivos comparados con Ava. Estamos probablemente aún a varias décadas de distancia».

«Es fácil caer en el alarmismo», reconoce, sin embargo, Shanahan. «Aunque creo que sí ha llegado el momento de abrir el debate sobre los riesgos de esta tecnología, y de formularnos preguntas como: ¿queremos que sean los gobiernos quienes controlen estas criaturas o lo dejamos en manos de compañías privadas? Yo en el fondo soy optimista y creo que seremos capaces de desarrollar una tecnología amigable que mejorará nuestras vidas. Tenemos mucho tiempo por delante para abordar la cuestión de la seguridad».

En Ex Machina, el futuro parece, sin embargo, sospechosamente cercano. Una compañía todopoderosa, BlueBlook, ha suplantado a Google como el Gran Hermano de las búsquedas en Internet. Y su artífice es un geek multimillonario llamado Nathan (Oscar Isaac), que vive recluido en un paraje remoto y nórdico, a la busca del santo grial de la Inteligencia Artificial. «Uno de los elementos más reales es el papel que los gigantes de Internet pueden tener en el control del futuro de la inteligencia artificial», advierte el científico Adam Rutherford.

«Debemos permanecer vigilantes a lo que está ocurriendo con la inteligencia artificial y sobre todo vigilar de dónde viene el dinero y cuáles son las motivaciones», declara Rutherford. «Al fin y al cabo, lo que están haciendo ahora Google y Facebook es cosechar datos, y no sabemos aún a dónde nos llevará todo esto». En cualquier caso, este experto comparte el optimismo sobre el futuro de la AI y recalca que una de las virtudes de Ex Machina es precisamente darle la vuelta a la cuestión moral: «Hasta ahora nos hemos preguntado cómo nos protegemos de las máquinas, como en la famosas leyes de Asimov. Pero también es necesario plantearse cómo proteger de la humanidad a esas máquinas conscientes que podemos crear. Creo que ningún científico se prestaría a crear robots inteligentes y sensibles que estuvieran predestinados a ser simplemente nuestros esclavos».

¿Cuánto tiempo nos queda, pues, para admirar o temer a una máquina de la precisión, la belleza y la inteligencia de Ava? Alex Garland no pone la mano en el fuego, pero predice que sus hijos llegarán a ver algo parecido: «Nos estamos aproximando al momento en que las máquinas nos puedan decir: ‘No me apagues’. Con el tiempo tendrán la capacidad de querer por sí mismas, de tener sentimientos».

Ha sido publicado en El Mundo

¿Nos arrepentiremos de crear la I.A.?

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (5)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

 

 

Comparación de tamaños entre la enana blanca IK Pegasi B  (centro abajo), su compañera de clase espectral A IK Pegasi A (izquierda) y el Sol (derecha). Esta enana blanca tiene una temperatura en la superficie de 35.500 K.

 

 

Lo que no impide que, podamos ver espejismos que nos confundan

 

La Inteligencia Artificial, dijo John McCarthy cuando acuñó el término en las conferencias de Darmouth de 1956, es: “…la ciencia e ingeniería de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes.” Ese sentido no ha cambiado desde entonces. En cambio, las técnicas y aplicaciones de la Inteligencia Artificial son cada más variadas, profundas y sorprendentes. A pasos exponenciales inundarán nuestras vidas y pronto serán tan omnipresentes que apenas las percibiremos, como hoy nos sucede con la televisión, los modernos teléfonos móviles y el Internet que forman parte de nuestras vidas y, de alguna manera nos podríamos preguntar: ¿Qué haríamos sin todo esto?

El punto muerto de la Inteligencia Artificial
                                                          Androide de la película «Yo, robot»

Puede que vivamos en un mundo donde cada persona se conectará mentalmente con una red de ordenadores con miles de mentes pensantes también conectadas. O puede que las máquinas realicen todas las tareas para nosotros y nos permitan vivir con total lujo durante toda nuestra vida. Pero ¿qué ocurriría si las máquinas nos vieran como algo innecesario – o algo peor-? Si las máquinas llegan al punto donde se puedan reparar ellas mismas o incluso crear versiones mucho mejores, ¿podrían llegar a la conclusión de los humanos son simplemente una molestia? Realmente es un escenario que asusta. ¿Podría ser cierta la versión de Vinge del futuro? ¿Hay alguna manera de evitarlo?

He dado muchas vueltas a la IA y a la consciencia de los seres vivos. Las conclusiones a las que he podido llegar son que el pensamiento consciente debe involucrar componentes que no pueden ser siquiera simulados adecuadamente por una mera computación; menos aún podría la computación por sí sola, provocar cualquier sentimiento o intención consciente. En consecuencia, la mente debe ser realmente algo que no puede describirse mediante ningún tipo de términos computacionales. Sin embargo, noticias que llegan de nuevos descubrimientos te hacen dudar de hasta dónde podrán llegar esos “seres” artificiales creados por el hombre.

¿Llegaremos a construir replicantes que, como el replicante Geminoid DK sean físicamente idénticos a los seres humanos?,  e incluso otros que, como Robonaut 2 que han salido de la Tierra en su primer viaje espacial; gracias a la fibra óptica incluso puedan llegar a sentir frío y calor, y, en general, ¿haremos infinidad de pequeñas máquinas capaces de hacer o imitar cualquier tipo de mocimiento humano con total fluidez? Algunas de esas cosas ya se han conseguido. Pero siguen teniendo un nivel muy bajo de inteligencia, insuficiente como para que gocen de autonomía. Sin embargo…

Da miedo pensar que esto llegue
¿Hasta dónde llegaremos?

De todas las maneras, no dejamos de insistir y queremos llegar a conseguir poder insertar los sentimientos en esos seres artificiales que cada día creamos con mayor perfección. ¿No somos conscientes del peligro que conlleva imitar a los humanos de esa manera? Las consecuencias son impredecibles y, como tántas otras cosas, cuando querámos darnos cuenta…será tarde.

“Un Robot no puede hacer daño a un ser humano o, mediante la inacción que un ser humano sufra daños” … No estaría yo tan seguro de eso.

Investigadores europeos están desarrollando un software que dará a los robots la capacidad de aprender cuándo una persona está triste, feliz o enfadada. El proyecto Feelix Growing está uniendo sencillos robots que pueden detectar diferentes parámetros (expresiones faciales, voz y cercanía) para determinar estados emocionales. El objetivo del proyecto es desarrollar un robot que pueda servir a los humanos con necesidades especiales, como los enfermos y los ancianos mediante redes neuronales adaptables, el robot puede aprender la manera correcta de responder a las emociones de la gente a partir de la experiencia. Por ejemplo, si alguien tiene miedo, el robot puede aprender a cambiar su comportamiento para parecer menos amenazante. Si alguien parece feliz, el robot puede tomar nota mental (¿positrónica, espintrónica…?) de lo que logró esa respuesta. Y si alguien parece enfadado o solitario, puede darle una palmadita en la espalda, ofrecerle una bebida fuerte y decir: “No te preocupes, te mereces a alguien mejor”. Sólo podemos esperar que no se hayan olvidado de las tres leyes de Asimov.

Bien es verdad que no tenemos una comprensión científica de la mente humana. Sin embargo, esto no quiere decir que el fenómeno de la consciencia deba permanecer fuera de la explicación científica. Ya se están buscando caminos científicos para dar esa explicación del misterio más profundo (seguramente) del Universo. Y, a pesar de no conocer a fondo nuestra mente, ya estamos tratando de incorporar, a mentes artificiales lo poco que de ella sabemos. ¿No será una temeridad?

                   A su imagen y semejanza.  La Geminoid F es la androide con apariencia femenina

Estamos en el camino: Prototipos al servicio de la sociedad, como una androide-enfermera, el robot-mayordomo para el hogar… Todo eso está a la vuelta de la esquina y, yo me pregunto: ¿Cómo será ese futuro nuestro?

La comprensión es, después de todo, de lo que trata la ciencia; y la ciencia es mucho más que la mera computación mecánico-electrónica. Sin embargo, parece que la realidad desmiente estos pensamientos y, podría llegar el momento en el que, la Inteligencia Artificial,  alcance niveles preocupantes al dotar, a esos “seres” artificiales de pensar por sí mismos y, si me apuran, hasta de tener sentimientos.

Somos tan “Inteligentes” que de seguir por el camino que hemos emprendido, podríamos poner en otras manos el destinos del “mundo”, de la energía, de los viajes espaciales y, sobre todo… ¡De nuestro futuro! Yo, como el entrañable Stephen Hawking creo que, deberíamos tener mucho cuidado con los avances en el acampo de la robótica y la Inteligencia artificial. No podemos crear una nueva especie que, dotada de pensamientos propios… ¡Nos pueda superar!

¿Cuál es el campo de acción de la ciencia? ¿Son solamente los atributos materiales de nuestro Universo los que son abordables con sus métodos, mientras nuestra existencia mental debe quedar para siempre fuera de su alcance? ¿O podríamos llegar algún día a una comprensión científica adecuada del profundo misterio de la mente? ¿Es el fenómeno de la consciencia humana algo que está más allá del dominio de la investigación científica, o podrá la potencia del método científico resolver algún día el problema de la propia existencia de nuestro yo consciente?

Claro que, hacemos estas preguntas y, por otro lado, al ver todo lo que está pasando y todo lo que pretendemos hacer, cabría preguntarse: ¿Somos en verdad conscientes?

 

Sí, tenemos la facultad de meditar profundamente y, a través de esas meditaciones alcanzar un estadio de mayor “consciencia” y comprensión, un estado tal que nos puede llevar a una conexión tan real con el Universo que es como si viajáramos fuera de este mundo para visitar, ese otro mundo hecho de pura luz donde podríamos encontrar la sabiduría que necesitamos. ¡Falta nos hace!

Creo que se avecina un cambio importante, y, nuestros cerebros que forman parte del mundo material del Universo, tiene un ingrediente que aún no hemos llegado a comprender. Incluso con nuestra limitada comprensión actual de la naturaleza de este ingrediente ausente en nuestro saber, sí podemos empezar a señalar donde debe estar dejando su huella, y como debería estar aportando una contribución vital a lo que quiera que sea en que subyacen nuestros sentimientos y acciones conscientes. ¿Por qué tratamos de regalar ese don? El que no lo comprendamos no quiere decir que lo tengamos que dar y, menos, a “seres aerificiales” de cuya evolución no podemos responder.

http://1.bp.blogspot.com/_xyYFMwz4t6g/S7-euKLPDFI/AAAAAAAACkY/ur2Aaiw1zHg/s1600/conciencia+03.jpg

Una visión científica del mundo que no trate de entender en profundidad el problema de la mente consciente no puede tener pretensiones serias de compleción. La consciencia es parte de nuestro Universo, de modo que cualquier teoría física que no le conceda un lugar apropiado se queda muy lejos de proporcionar una descripción auténtica del mundo que, nosotros (tan engreídos como siempre) queremos cambiar.

Claro que, todo conocimiento científico es un arma de dos filos. Lo que realmente hacemos con nuestro conocimiento científico es otra cuestión. Tratemos de ver hasta dónde pueden llevarnos nuestras visiones de la ciencia y la mente.

Pensemos que incluso en aquellos países afortunados donde hay una paz próspera y una libertad democrática, los recursos naturales y humanos son malgastados de formas aparentemente absurdas. ¿No es ésta una clara muestra de la estupidez general del hombre? Aunque creemos representar el pináculo de la inteligencia en el reino animal, esta inteligencia parece tristemente inadecuada para manejar muchos de los problemas a los que nuestra propia sociedad nos obliga a hacer frente.

https://lh3.googleusercontent.com/-3BqNOOb20GY/TYUWvqw79TI/AAAAAAAAC68/oCk83hNK6W8/s1600/recursos+naturales.jpg

  Esta simple escena, en algunos lugares, resulta una maravilla

Pese a todo, no pueden negarse los logros positivos de nuestra inteligencia. Entre dichos logros se encuentran nuestras impresionantes ciencia y tecnología. En realidad, algunos de estos logros son alto cuestionables a largo (o corto) plazo, así lo atestiguan múltiples problemas medioambientales y un genuino temor a una catástrofe mundial inducida por las nuevas tecnologías traídas de la mano por nuestra moderna sociedad (aquí mismo, en éste foro, nos hicimos eco del temor de muchos sobre las consecuencias que  podría traer el LHC) pero, y la IA ¿qué nos traerá?

Pero, no podemos mirar para otro lado sin ver que, nuestras tecnologías no sólo nos proporcionan una enorme expansión del dominio de nuestro yo físico sino que también amplia nuestras capacidades mentales mejorando en gran medida nuestras habilidades para realizar muchas tareas rutinarias. ¿Qué pasa con las tareas mentales que no son rutinarias, las tareas que requieren inteligencia genuina?

A veces me pregunto si podrían ser los Robots la respuesta. ¿No existe la posibilidad completamente diferente de una enorme expansión de una capacidad mental, a saber, esa inteligencia electrónica ajena que apenas está empezando a emerger de los extraordinarios avances en tecnología de ordenadores? De hecho, con frecuencia nos dirigimos ya a los ordenadores en busca de asistencia intelectual.

¿No os parece sorprendente que, de mecanismos como este podamos obtener información imposible por nuestros propios medios?

El mundo de la tecnología

No me gustaria dejar el mundo en estas manos

Hay muchas circunstancias en las que la inteligencia humana sin ayuda no resulta nada adecuada para prever las consecuencias probables de acciones alternativas. Tales consecuencias pueden quedar mucho más allá del alcance del poder computacional humano; así pues, cabe esperar que los ordenadores del futuro amplíen enormemente este papel, en donde la computación pura y dura proporcione una ayuda incalculable para la inteligencia humana.

Pero ¿no cabe la posibilidad de que los ordenadores lleguen finalmente a conseguir mucho más que todo esto? Muchos expertos afirman que los ordenadores nos ofrecen, al menos en principio, el potencial para una inteligencia artificial que al final superará a la nuestra. Una vez que los robots controlados por ordenador alcancen el nivel de “equivalencia humana”, entonces no pasará mucho tiempo, argumentan ellos, antes de que superen rápidamente nuestro propio y exiguo nivel. Sólo entonces, afirman estos expertos, tendremos una autoridad con inteligencia, sabiduría y entendimiento suficientes que sea capaz de resolver los problemas de este mundo que ha creado la humanidad pero que no sabe ni está capacitada para regular en la adecuada forma.

      Avanzamos en tecnología y no sabemos erradicar la inmigración del hambre

A todo esto señalan el rapidísimo crecimiento exponencial de la potencia de los ordenadores y basan sus estimaciones en comparación entre la velocidad y precisión de los transistores, y la relativa lentitud y poca sólida acción de las neuronas. De hecho, los circuitos electrónicos son ya más de un millón de veces más rápido que el disparo de las neuronas en el cerebro (siendo la velocidad de aproximadamente 109 segundos para los transistores y de 103 segundos para las neuronas, y tienen una exactitud cronométrica y una precisión de acción que de ningún modo comparten las neuronas.

El Chip Intel Pentium tiene más de tres millones de de transistores en una “rodaja de silicio” del tamaño aproximado de una uña del pulgar, capaz cada uno de ellos de realizar 113 millones de instrucciones por segundo (no se si cuando esto escribo ya estará superado ese record).

 


El microprocesador Pentium (que aquí se muestra con una ampliación de 2,5 veces) es fabricado por Intel Corporation. Contiene más de tres millones de transistores, y puede hacer que algunas partes de sus circuitos vayan más lentas o se detengan cuando no son necesarias, con lo que ahorra energía.
Se argumenta que el número total de neuronas de un cerebro humano (unos cientos de miles de millones) supera absolutamente al número de transistores de un ordenador. Además, existen muchas más conexiones, en promedio, entre neuronas diferentes que las que existen entre los transistores de un ordenador. En particular las células de Purkinje en el cerebelo pueden tener hasta ochenta mil terminaciones sinápticas (uniones entre neuronas), mientras que para un ordenador, el número correspondiente es de tres o cuatro a lo sumo. Además, la mayoría de los transistores de los ordenadores actuales están relacionados solamente con la memoria y no directamente con la acción computacional, mientras que tal acción computacional podría estar mucho más extendida en el caso del cerebro.

 El cerebro humano es una maravilla de la Naturaleza. De hecho estamos hablando de uno de los objetos más complejos del Universo. Que los materiales fabricados en las estrellas se conformaran en la debida manera en un planeta ideal, ha dado lugar a que seres como nosotros, sean poseedores de unas funciones cerebrales de inimagible poder de creación. Aquí confinados en un pequeño mundo, hemos sido capaces de “viajar” hasta los confines del Universo para ver qué ocurre en regiones lejanas. De la misma manera, hemos sabido desvelar secretos profundamente escondidos en las entrañas de la Naturaleza. Sabemos del “universo” de lo muy pequeño y también, del inmenso Cosmos. Sabemos de la materia y del Espacio “infinito” y, hemos podido llegar a saber que, cuando nosotros desaparezcamos, ninguna estrella llorará por nosotros. Sin embargo, es nuestra obligación tratar de quenuestra especie perdure y, desde luego, bajo ningún concepto podemos contribuir a que, nuestras actividades en la I.A., sea la causante de nuestra desaparición futura.

                      Habrá que estar muy atentos y no creernos dioses

Si hiciéramos caso de las afirmaciones más extremas de los defensores más locuaces de la IA, y aceptáramos que los ordenadores y los robots guiados por ordenador superarán con el tiempo (quizá en relativo  poco tiempo) todas las capacidades humanas, entonces los ordenadores serían  capaces de hacer muchísimo más que ayudar simplemente a nuestras inteligencias. Podríamos entonces dirigirnos a estas inteligencias superiores en busca de consejo y autoridad en todas las cuestiones de interés; ¡y finalmente podrían resolverse los problemas del mundo generados por la humanidad!

Pero parece haber otra consecuencia lógica de estos desarrollos potenciales que muy bien podría producirnos una alarma genuina. ¿No harían estos ordenadores a la largo superfluos a los propios humanos? Si los robots guiados por ordenador resultaran ser superiores a nosotros en todos los aspectos, entonces ¿no descubrirían que pueden dirigir el mundo sin ninguna necesidad de nosotros? La propia humanidad se habría quedado obsoleta. Quizá si tenemos suerte, ellos podrían conservarnos como animales de compañía, incluso podrían exhibirnos en museos para recordar a sus creadores.

 

                    Si algún día los robots llegaran a tener sentimientos… ¡Mal nos irían las cosas!

Yo, como he dejado claro otras veces. Soy partidario de pensar que, una cosa es la Inteligencia Artificial y otra muy distinta es el pensamiento consciente, muy superior a aquella que trabaja sólo con los datos suministrados previamente, sin el poder de repentizar una solución que no esté en su programación. ¿Llegarán los robots algún día a pensar por sí mismos, como ahora lo hacemos nosotros?

La cuestión no es nada sencilla y plantea muchas variantes de entre las que, así, de momento, podríamos exponer aquí las siguientes:

  • Todo pensamiento es computación; en particular, las sensaciones de conocimiento consciente son provocadas simplemente por la ejecución de computaciones apropiadas.
  • El conocimiento es un aspecto de la acción física del cerebro; y si bien cualquier acción física puede ser simulada computacionalmente, la simulación computacional no puede por sí misma provocar conocimiento.
  • La acción física apropiada del cerebro provoca conocimiento, pero esta acción física nunca puede ser simulada adecuadamente de forma computacional.
  • El conocimiento no puede explicarse en términos físicos, computacionales o cualesquiera otros términos científicos.

 

                                             Materia, energía, luz… para llegar a ser conscientes… ¡Habrá que tener cuidado!

Está claro que adentrarnos aquí a ciertas profundidades del pensamiento, no parece adecuado ni al momento ni al lugar, sin embargo, debemos pensar en que, la propia materia parece tener una existencia meramente transitoria puesto que puede transformarse de una forma en otra. Incluso la masa de un cuerpo material , que proporciona una medida física precisa de la cantidad de materia que contiene el cuerpo, puede transformarse en circunstancias apropiadas en pura energía (según E=mc2) de modo que incluso la sustancia material parece ser capaz de transformarse en algo con una actualidad meramente matemática y teórica.

De todas las maneras, por mi parte, me quedo con el punto tercero de los enumerados anteriormente, es un punto de vista más operacional que el anterior, puesto que afirma que existen manifestaciones externas conscientes (por ejemplo, cerebros) que difieren de las manifestaciones externas de un ordenador: los efectos externos de la consciencia no pueden ser correctamente simulados por un ordenador (creo).

“La acción física apropiada del cerebro provoca conocimiento, pero esta acción física nunca puede ser simulada adecuadamente de forma computacional.”

¿Permite la Física actual la posibilidad de una acción que, en principio, sea imposible de simular en un ordenador? La respuesta no está completamente clara, sin embargo, según creo, es que tal acción no computacional tendría que encontrarse en un área de la física que está fuera de las leyes físicas actualmente conocidas.

Claro que, en este simple comentario, no queda claro quien será el vencedor final:  Fisicalismo frente a Mentalismo. Seremos tan estúpidos como para poder crear máquinas que nos superen en inteligencia hasta el punto de que puedan dominarnos.

Ahí queda la pregunta del título del trabajo flotando en el aire. ¿Quién la quiere contestar?

emilio silvera

PD.

Dar las gracias a Penrose por sus ideas.