domingo, 19 de noviembre del 2017 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¿La Inteligencia Artificial? ¡¡Un Peligro!!

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Por qué la inteligencia artificial aún no llega al nivel de «Terminator»

 

El automatismo de los sistemas lleva más de 50 años sin un consenso en lo referente a la regulación, mientras la nueva revolución industrial simplifica tareas en el mercado de trabajo

Por qué la inteligencia artificial aún no llega al nivel de «Terminator»

 

 

 

 

 

 

La ciencia ficción introdujo las posibilidades de las máquinas en un futuro no muy lejano, films como «Terminator» o «Robocop» mostraron las dos caras de los beneficios y los peligros tácitos de la robótica. Sin embargo, el debate desde hace años se encuentra en un vaivén y más cuando se tercia si se le da la posibilidad a un exoesqueleto de metal de tomar decisiones como un ser humano, revolucionando de esta manera el paradigma de la ética a través de la inteligencia artificial.

Resultado de imagen

Hace unos años, el científico Stephen Hawking alertó de la amenaza que podía representar la robótica, sobretodo cuando se le integra un sistema de inteligencia artificial e si esta no se moderaba: «Los robots son una amenaza para la humanidad. Los seres humanos que están limitados por la evolución biológica lenta, no podrían competir por la inteligencia artificial, y serían superados por ella».

Mark Zuckerberg, el fundador de Facebook, es uno de los precursores del desarrollo de este tipo de tecnología, además de ser parte de la postura contraria que alienta a los desarrolladores a no ser víctima del miedo. Por contra, Elon Musk -que ha fundado y dirige empresas como Tesla, SpaceX, Hyperloop One o Paypal, es quien lidera la versión moderada de implantar una serie de medidas reguladoras. Los dos tecnólogos tuvieron un enfrentamiento sobre las medidas delimitadoras en las que se debería desarrollar.

Resultado de imagen de La Inteligencia Artificial del futuro

     Si no sabemos manejar este espinoso asunto, las cosas se podrían poner feas para los humanos

Las opiniones generadas entorno a esta área han llegado a la formación de manifiestos y grupos contrarios a su desarrollo sin control, mientras que otros acreditan que ciertas posturas están fundamentadas en el terror. Lo cierto es que este verano saltó la voz de alarma cuando Facebook tuvo quedesactivar un experimento de inteligencia artificial, porque dos bots programados para aprender a negociar habían llegado a la conclusión de que era más fácil regatear con un idioma más simple extraído del inglés; es decir, inventaron su propio lenguaje inentendible para el ser humano.

Enrique Domínguez, director estratégico de InnoTech, aclara que en este tipo de experimentos ocurren desenlaces imprevisibles como parte de lo que supone la propia investigación. Por lo que, se debe matizar en el caso de estos dos bots que «no pensábamos que iban a reaccionar así», en lugar de «que no estaban programados para ello». Por lo tanto, «no se apagó porque se hubiera sucumbido al pánico, sino que ya se había cumplido el objetivo del experimento». Sin embargo, ambos bots no habían sido programados para que negociasen en un idioma entendible, porque al fin y al cabo las máquinas siguen sus normas establecidas en el código.

Imagen relacionada

          Todos los indicios nos dicen que, con facilidad, los “Seres” Artificiales nos superarán

«Esto que veíamos en la película de Terminator de una inteligencia que se haga consciente de que es inteligente y trate de asumir el control o imponerse sobre los demás, queda todavía muy lejos», recalca el Dr. en Inteligencia Artificial y profesor de la Universidad Europea Javier Sánchez. En la situación actual de la IA, «tenemos muchos sistemas que son especializados en labores concretas y las hacen muy bien, pero no hay un sistema que sea capaz de hacer muchas cosas muy bien hechas», añade además.

Sin embargo, la preocupación existe y discurre no en la tesitura de que un sistema funcione sin las pautas establecidas por un ser humano, sino por la falta de un consenso de la ética que deben seguir los sistemas inteligentes y el nivel de ciberseguridad para que los delincuentes no alteren su lógica marcada. «Sí que hay ciertos asuntos que hacen preocuparnos como lo relativo a la privacidad y la seguridad. Porque se está empezando a ver sistemas que están muy especializados en un área y eso puede suponer una amenaza», indica Sánchez. En este sentido, resuena a menudo las tres leyes de la robótica que estableció Isaac Asimov en su libro «Yo, robot» y que ha quedado plasmada a lo largo de la literatura de ciencia ficción.

Resultado de imagen de Imágenes de Yo Robot

    En ésta película pudimos ver la rebelión de los Robots que, bien podría ser un presagio de futuro

En primer lugar un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño, en el segundo caso un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley y por último un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Dichas reglas son una buena manera de plantear la ética en la inteligencia artificial, pero «no responde realmente a los límites que deben tener la inteligencia artificial. La forma de expresarlo todavía no es tan pragmático como las reglas del libro «Yo, robot» de Isaac Asimov» cuenta a este diario Isabel Fernández, Managing Director de Accenture Analytics en el área de IA. Dentro de la postura Accenture, recalca Fernández que es primordial que la IA «nunca supere la inteligencia de un ser humano, por algo muy sencillo, porque en el momento en que lo supere no tendremos capacidad para controlarlo».

Sin regulación

 

 

Resultado de imagen de La Inteligencia Artificial del futuro

 

 

Si sabemos regular, mediante una Ley, hasta donde se puede llegar con la I.A., los avances podrían ser controlados pero, siempre estará el científico independiente de “geniales” ideas que de con todo al traste y no cumpla las Normas.

 

¿Por qué resultan tan difícil establecer un consenso internacional para el desarrollo de la inteligencia artificial? Esta cuestión es a menudo respondida por el caso de los vehículos sin conductor, «un coche autónomo que haría si tiene que decidir entre matar a sus ocupantes o cinco personas en un paso de peatones», expone Domínguez. Dentro de la cuestión ética también trae consigo el componente de la cultura, que no es universal.

En las distintas vertientes de la IA, se ha obtenido en ciertas áreas un nivel de especialización mucho mayor, por lo que el Dr. Sánchez opina que «si esto lo combinamos con máquinas con autonomía de tomar ciertas decisiones estratégicas y operar en dispositivos que en este caso sí que podrían ser armas, pues puede suponer un riesgo». Por lo que, ajeno a ese mundo apocalíptico de máquinas superiores, hay que centrar los esfuerzos en controles de calidad para garantizar cierto nivel de calidad.

Resultado de imagen de La Inteligencia Artificial del futuro

                   Esta escena es ya un hecho, los humanos juegan al ajedres con máquinas

La inteligencia artificial busca simular comportamientos que los seres humanos podemos interpretar como inteligentes, pero son los que toman decisiones de cierto calibre los que están en el foco de atención. IBM es una de las compañías punteras en lo referente a lo que llaman sistemas cognitivos, el software Watson que utilizan algunas empresas para sus sistemas se están empleando en casos reales como el diagnóstico de enfermedades. Cada Watson es distinto dependiendo del objetivo predispuesto al igual que la base de datos con la que está conectada, porque al fin y al cabo es una herramienta que lee muchos datos que una persona no podría abarcar, pero que despiertan dudas.

Por un lado, el director estratégico de InnoTech explica que «estos sistemas expertos a mí me preocupan desde el punto de vista de ciberseguridad, porque qué pasaría si alguien consigue atacarlos y modificar su comportamiento -bien sea alimentándolos de datos maliciosos para que cambian su manera de comportarse o de alguna manera transmutándolos para que de alguna manera cambien sus decisiones- ahí podríamos estar hablando de muertes de personas o incluso de colapsos de compañías a nivel económico».

Resultado de imagen de Los Robots están presentes en los quirófanos

Los Robots están presentes en los quirófanos y en otros ámbitos de nuestras vidas, el que poco a poco y de manera silenciosa se introduzcan en nuestra Sociedad, y, comiencen a pensar… ¡sólo es cosa de Tiempo!

Asimismo, el profesor de la UE señala que «si estás hablando de diagnósticos clínicos estás hablando de protección de datos. Parece una contradicción, pero algunas de las aplicaciones más interesantes y más complejas, algunas ya eran capaces de hacer diagnósticos hace años, de cómo iba a evolucionar una enfermedad y con tasas de aciertos muy altas».

Resultado de imagen de IBM y la Robótica

                            Se empieza como si de un juego se tratara y… ¿Cómo se acabará?

Algunas empresas, ante la falta de consenso, han elaborado sus propia pautas y las comparten con otros entornos, como en el caso de IBM. La compañía tecnológica ha compilado tres principios. En primer lugar, lo que llaman el diseño que se refiere a «la capacidad de amplificar una persona», explica Elisa Marín, directora de Innovación IBM España, «debido a la gran generación de conocimiento entorno a la era digital, toda la información es valiosa» de manera diferente para cada persona. En segundo lugar, el principio de credibilidad para que «generemos confianza a las personas de su utilización». Por último el principio de fiabilidad del comportamiento para que solucione un problema de un dominio específico.

Por otro lado, Marín también aclara que los programas Watson como son diferentes, también funcionan a partir de bases de datos distintas. Al estar concentrados y separados, se reduce el riesgo del problema que pueda haber con la información, así como los datos que se vayan generando vayan únicamente a «la entidad que aporta la solución». Por otro lado, también hay un Watson de computación cognitiva en las amenazas de seguridad.

Resultado de imagen de la Robótica una amenaza real

Sí, hoy muchos de los automóviles que circulan por nuestras carreteras han sido fabricado por robots, y, algunos, hasta los llevan dentro para que aparquen solos, o, incluso, se les marque el viaje que harán sin necesidad de conductor… ¡No me gusta nada!

En el caso de la postura Accenture, la compañía apuesta por lo que llama la Inteligencia Artificial Responsable porque creen «que es una fuerza transformadora de la sociedad que sí debe haber niveles de regulación, pero no porque tengamos miedo de lo que nos pueda traer la inteligencia artificial, porque estamos intentando que avance quitándonos tareas que pueden ser hechas por máquinas y dejándonos tareas que podemos aportar mucho más como humanos. Pero sí, tiene que estar regulada», defiende la Managing Director de Accenture Analytics.

¿Inteligencia Artificial? No, gracias

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen de Inteligencia artificial

Esta Inteligencia Artificial (IA) de Facebook ha tenido que ser desactivada.

Una sección de investigación de Facebook desarrolló una IA para mejorar los chatbots de Facebook. Para probarla, dejaron a dos máquinas de este tipo manteniendo una conversación libre entre sí. El resultado, el más inesperado de todos: crearon un nuevo idioma. Al principio pensaban que era un error, pero se pudo comprobar que sí, que se estaban comunicando en un lenguaje nuevo y desarrollado por ‘ellos’.

La Inteligencia Artificial de Google ha creado su propio sistema de cifrado

Un lenguaje que no entendamos podría llegar a ser peligroso

Lejos de ser un buen resultado, los investigadores al cargo de esta IA han decidido ‘apagarla’. Pero no por miedo ni porque temían que fuera el comienzo de una Inteligencia Artificial malévola. La razón era mucho más sencilla: si la IA decidiera comunicarse en su propio lenguaje, perderíamos el control sobre ella.

 

 

 

 

La razón para apagar la IA es muy simple: podría llegar un momento en el que se perdiera el control sobre ella

Es cierto que el lenguaje que habían creado era mucho más eficiente. No obstante, nunca podríamos llegar a comunicarnos, o al menos sería muy complicado. Los resultados de la conversación pueden resultar absurdos a simple vista, pero no lo son:

Resultado de imagen de La Inteligencia artificial del futuro

Bob: “I can i i everything else”

Alice: “balls have zero to me to me to me to me to me to me to me”

El hecho de repetir ‘to me’ tantas veces no quiere decir que se haya vuelto loca, sino que quiere, en este caso, 7 unidades. Este lenguaje es mucho más lógico que el nuestro (o, en este caso, que el inglés, que fue el lenguaje usado originalmente). Lo complicado, como decíamos, es entenderlo.

 

La IA de Google se ha inventado su propio idioma secreto

No es la primera vez que ocurre. Ya en el pasado Google también tuvo que recurrir a la misma solución tras presentarse el mismo problema. Como ya hecho Facebook, lo mejor es desactivarla y buscar una solución antes de que se pierda el control por completo.

Elon Musk: “La Inteligencia Artifical puede acabar con la humanidad”

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen de inteligencia artificial

Reportaaje de:  Elías Rodríguez García

Elon Musk cree que deberíamos tomar medidas para legislar la Inteligencia Artificial.

Elon Musk está siendo uno de los personajes del siglo XXI más importantes en cuanto a tecnología se refiere. Es el CEO de una de las compañías que está cambiando el transporte y además tiene otros proyectos importantes entre manos (Hyperloop y SpaceX). También es uno de los precursores de la polémica renta universal, además de otras teorías que deberíamos ir planteándonos dentro de muy poco.

Una de esas no tan locas ideas del empresario que quiere conquistar Martepara 2025 es comenzar a legislar el campo de la Inteligencia Artificial (IA). A pesar de que ha afirmado estar en contra de regulaciones estrictas, en el ámbito de la IA cree que es distinto. Así lo ha manifestado en una asambleaestadounidense donde intervenían dirigentes de diferentes naciones de USA.

La idealización de Elon Musk. ¿Es el nuevo Steve Jobs?

«En 20 años, no es que no vaya a haber gente al volante, es que directamente no habrá volante», lo que para Musk haría replantearnos seriamente las cosas.

Regular la Inteligencia Artificial antes de que sea tarde

La Inteligencia Artificial es el nuevo campo de desarrollo. Además, permitirá avances tecnológicos terriblemente grandes. No es dar marcha atrás, por supuesto, sino que habría que pisar el freno. Ha añadido que cuando queramos reaccionar y regular la IA, «será demasiado tarde» ¿Se referirá concretamente a que podría acabar con la raza humana? En efecto, añade que «se trata de un riesgo para la existencia de la civilización humana».

 

«Hasta que la gente no vea robots matando personas no se entenderá el peligro de la IA»

 

A pesar de que podría considerarse como un pensamiento muy extremista o apocalíptico, afirma que no se trata de nada algo etéreo. Hay que actuar y debe ser ya.

«[Refiriéndose a la IA] podrían comenzar una guerra publicando noticias falsas, robando cuentas de correo electrónico y enviando notas de prensa falsas, solo con manipular información».

Las próximas industrias que serán conquistadas por la Inteligencia Artificial

 

 

Por último, recuerda que los robots nunca se cansarán. Además de que harán nuestro trabajo mucho mejor. Esto supondrá toda una revolución en el sector industrial y en general también en el resto.

Otros intelectuales como Stephen Hawking están totalmente en contra del avance de la Inteligencia Artificial; como si de la invención de la bomba atómica se tratase. Para este otro «La inteligencia artificial podría significar el fin de la raza humana».

el futuro Incierto

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

TECNOLOGÍA

Nick Bostrom, el filósofo que advierte de los riesgos de la superinteligencia artificial

Por Maruxa Ruiz del Árbol | 20-04-2017

 

Nick Bostrom

Nick Bostrom

Filósofo

Bautizado como “el filósofo del fin del mundo” por el New Yorker, Nick Bostrom no tiene aspecto de loco apocalíptico. Es más bien la imagen de la mesura y la reflexión, aunque sus ideas desaten polémicas cada vez que las expone y gane acérrimos enemigos con la misma facilidad con que consigue fervorosos defensores. Entre estos últimos se encuentran mentes tan brillantes como las de Stephen Hawking o visionarios de las nuevas tecnologías como Bill Gates o Elon Musk. Lo que ha llamado la atención de este filósofo sueco, director y fundador del Future of Humanity Institute en la universidad de Oxford, son sus desarrollos acerca de los peligros que acechan a nuestra especie detrás de la inteligencia artificial. Frente al optimismo ingenuo de quienes ven en las máquinas pensantes la solución a todos nuestros problemas, Bostrom advierte que debemos tener cautela. O, dicho en sus propias palabras, dejar de comportarnos como “niños pequeños jugando con una bomba”.

Resultado de imagen de inteligencia artificial

La posibilidad de que los ordenadores o los robots que estamos construyendo nos superen en inteligencia algún día no es descabellada. Lo que hasta hace muy poco era terreno de la ciencia ficción debe observarse ahora como un horizonte muy probable: “creo que si hay algo que puede cambiar fundamentalmente la naturaleza de la vida en la Tierra, eso es la transición hacia la era de la inteligencia de las máquinas. No tenemos otra opción que enfrentar este desafío. La superinteligencia de las máquinas es como un portal que la humanidad debe atravesar obligatoriamente, pero debemos asegurarnos de no chocar contra el muro cuando lo hagamos”. Aunque pudiera parecer lo contrario, el de Bostrom no es un mensaje desesperanzador ni predica -como si fuera una versión digital de los luditas que destrozaron las máquinas durante la primera revolución industrial- una guerra contra las nuevas tecnologías. De hecho su confianza en las posibilidades de la ciencia le llevó a fundar en 1998 la Asociación Mundial Transhumanista, que defiende potenciar las capacidades humanas a través de una hibridación con la tecnología.

Resultado de imagen de inteligencia artificial

En una entrevista con El País, Bostrom incidía en que su función es llamar a una reflexión profunda, no demonizar las máquinas: “hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar rápidamente nuestra capacidades tecnológicas, y nuestra sabiduría, que va mucho más despacio. Necesitamos un cierto nivel de sabiduría y de colaboración para el momento en que alcancemos determinados hitos tecnológicos, para sobrevivir a esas transiciones”.

Resultado de imagen de inteligencia artificial

Como defiende en su libro Superinteligencia: Caminos, Peligros, Estrategias, publicado en 2014 (y que entró rápidamente en la lista de los más vendidos del New York Times Book Review) el verdadero reto no está tanto en la inteligencia que sean capaces de alcanzar las máquinas, sino en el desarrollo moral de nuestra especie. Al final, como ya postuló Jean-Paul Sartre, estamos condenados a ser libres. Y eso puede ser peligroso, pero también una excelente oportunidad para dar otro salto evolutivo. (http://www.nickbostrom.com)

Los pros y los contras de las máquinas más listas

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

Inteligencia artificial

 

El aprendizaje automático es uno de los campos con más proyección  en inteligencia artificial.

 

 

 

Tenemos la clave para fabricar máquinas listas. Intel

 

Reportaje de Pablo G. Bejerano
 

Los miles de millones de dispositivos que se conectan a internet cada día generan una cantidad abrumadora de información. Son montones de terabytes de datos que aparecen de la nada diariamente.

Esto abre el apetito por obtener valor de la información. Y la inteligencia artificial es clave aquí. El término se suele asociar con la robótica, una herencia cultural de la ciencia ficción, pero lo cierto es que la inteligencia artificial es algo mucho más abstracto que robots humanoides caminando o que los dilemas del superordenador Hal en 2001: una odisea del espacio.

Ojo cámara (con lente fish eye es decir con una visual muy panóptica) de color rojo (para detectar por filtro cromático incluso la “luz” IR no perceptible por el ser humano), usado para representar a HAL 9000 en uno de sus aspectos de control prácticamente orweliano.

Podría decirse que la inteligencia artificial asoma la cabeza por primera vez en los años 60 con sistemas predictivos y a partir de ahí evoluciona a velocidad de crucero. Hoy se usa para evitar fraudes bancarios, en el reconocimiento de voz, en el filtro anti spam del correo electrónico, incluso en el etiquetado de fotos automático de Facebook o en los videojuegos.

Lo que está por venir en inteligencia artificial –ya se ha investigado mucho sobre ello– son los coches autónomos, la medicina de alta precisión o el procesamiento del lenguaje natural que le pediremos a los Siri, Google Now o Cortana en los próximos años. Son algunas de las áreas para las que el aprendizaje automático o machine learning es necesario.

Creada una máquina que aprende como una persona

Que las máquinas aprendan es fundamental porque es uno de los elementos que retrasará su obsolescencia prematura, reforzando su autonomía. Este aprendizaje es uno de los temas que han sobrevolado la Conferencia Internacional de Desarrolladores (IDF) de Intel.

Hoy el 7% de todos los servidores presentes en el mundo están dedicados a tareas de aprendizaje automático. Y más del 97% de estos servidores funcionan con procesadores de Intel. Si bien en campos como los coches autónomos la compañía se ve amenazada por los productos de su competidora Nvidia.

En todo caso, esta rama de la inteligencia artificial es la que tiene mayor proyección. Intel proporciona el hardware sobre el que los desarrolladores pueden programar sus algoritmos de inteligencia artificial. Para entrenar a los algoritmos la compañía ofrece el procesador Xeon Phi, mientras que para ejecutar una tarea determinada, ya aprendida, cuenta con el Xeon.

                                                                        Un centro de datos de Intel. Intel

 

“Trabajamos con instituciones académicas y desarrolladores para asegurarnos de que pueden usar el hardware optimizado”, comenta Nidhi Chappell, responsable de aprendizaje automático en la división de centros de datos de Intel. “Hay muchos beneficios en tener el software y el hardware optimizado. ¿Podrías trabajar con procesamiento del lenguaje natural en un Xeon no optimizado? Sí, pero cuanto más optimices los elementos, tanto en software como en el hardware, más rápido harás los trabajos”.

Se necesita que el rendimiento del hardware sea muy alto, pero también que sea fácil de poner en marcha. Y otra de las claves para optimizar este aspecto es la compatibilidad con diferentes tipos de algoritmos. “Queremos habilitar nuestros productos para soluciones que estén basadas en código abierto”, indica Chappell. “Pues muchas de las cargas de trabajo en deep learning, como el procesamiento del lenguaje natural o el etiquetado de imágenes, están basadas en frameworks (marcos de trabajo para desarrollar software) de código abierto”.

Los algoritmos del ‘Deep learning’

 

 

 

 

El Deep learning o aprendizaje profundo, considerado una parte del aprendizaje automático, se basa en redes neuronales artificiales, inspiradas en el funcionamiento de sistemas biológicos. Muchos algoritmos que usan deep learning proceden de empresas o universidades, como Google o Berkeley, y una parte de ellos están bajo código abierto. Lo que hace Intel es asegurarse de que la arquitectura de sus productos está optimizada para estos algoritmos.

El conocimiento que los nutre proviene de compañías privadas, de centros académicos y también de instituciones públicas. No todo se pone a disposición del público, pero compartir la información y los progresos técnicos es uno de los motores para el aprendizaje de las máquinas.

Cloudera, una de las empresas presentes en el IDF, trabaja en big data con plataformas de código abierto. Su portavoz en el congreso de Intel, Johnny Pak, cree que la colaboración es necesaria para no estancarse. “El código abierto ayudará al desarrollo rápido de la inteligencia artificial. La posibilidad de construir sobre el trabajo de otros es lo que va a ayudar a avanzar”, reflexiona.

                                                   El conocimiento proviene de múltiples fuentes. Intel

 

Aprender bien la lección

 

 

 

El aprendizaje automático tiene otra cara. Se puede descontrolar, como le ocurrió al bot Tay, programado por Microsoft para aprender de la gente a través de sus interacciones en Twitter. Su cuenta en la red social pronto empezó a lanzar mensajes xenófobos tras el troleo de algunos usuarios y la compañía tuvo que suspender este experimento social.

“Siempre se necesitará un marco para limitar al algoritmo”, es la opinión de Pak. “Una máquina no es más que un conjunto de algoritmos. Lo que significa que las máquinas no tienen la libertad que las personas tenemos”. Así, esa especie de libertad social que Tay tuvo para aprender acabó por volverse en su contra. “Si vas a usar algoritmos en un entorno social creo que tienes que poner unos límites, de la misma forma que nosotros tenemos límites sociales”, sentencia Pak.

Es una forma de controlar la toma de decisiones. Por cierto, para una persona estas decisiones no siempre están basadas en el razonamiento lógico y no siempre se obtiene así el mejor resultado. La intuición a veces es un factor determinante y no es algo que se aprenda de forma lógica. ¿Pueden los algoritmos actuales dotar a una máquina de intuición?

El caso que más se acerca a una toma de decisiones intuitiva por una máquina es el del sistema Alpha Go, desarrollado por Google y que venció Lee Sedol, el campeón mundial del Go, un juego mucho más complejo de aprender para una máquina que por ejemplo el ajedrez.

Pak apunta que la toma de decisiones de Alpha Go a veces no partía de la lógica. “No estaba calculando, como sí hacen en ajedrez, millones de interacciones para determinar qué es lo que va a hacer el jugador. Tenía que vislumbrar cuál era el mejor movimiento. Y ganó. Lee solo gano una partida”. Y es que ni siquiera los científicos detrás de Alpha Go predecían cómo se iba a comportar su programa.

SIxIj48L3BhdGg+PHBhdGggZD0iTTE0LjczMywxLjY4NiBDNy41MTYsMS42ODYgMS42NjUsNy40OTUgMS42NjUsMTQuNjYyIEMxLjY2NSwyMC4xNTkgNS4xMDksMjQuODU0IDkuOTcsMjYuNzQ0IEM5Ljg1NiwyNS43MTggOS43NTMsMjQuMTQzIDEwLjAxNiwyMy4wMjIgQzEwLjI1MywyMi4wMSAxMS41NDgsMTYuNTcyIDExLjU0OCwxNi41NzIgQzExLjU0OCwxNi41NzIgMTEuMTU3LDE1Ljc5NSAxMS4xNTcsMTQuNjQ2IEMxMS4xNTcsMTIuODQyIDEyLjIxMSwxMS40OTUgMTMuNTIyLDExLjQ5NSBDMTQuNjM3LDExLjQ5NSAxNS4xNzUsMTIuMzI2IDE1LjE3NSwxMy4zMjMgQzE1LjE3NSwxNC40MzYgMTQuNDYyLDE2LjEgMTQuMDkzLDE3LjY0MyBDMTMuNzg1LDE4LjkzNSAxNC43NDUsMTkuOTg4IDE2LjAyOCwxOS45ODggQzE4LjM1MSwxOS45ODggMjAuMTM2LDE3LjU1NiAyMC4xMzYsMTQuMDQ2IEMyMC4xMzYsMTAuOTM5IDE3Ljg4OCw4Ljc2NyAxNC42NzgsOC43NjcgQzEwLjk1OSw4Ljc2NyA4Ljc3NywxMS41MzYgOC43NzcsMTQuMzk4IEM4Ljc3NywxNS41MTMgOS4yMSwxNi43MDkgOS43NDksMTcuMzU5IEM5Ljg1NiwxNy40ODggOS44NzIsMTcuNiA5Ljg0LDE3LjczMSBDOS43NDEsMTguMTQxIDkuNTIsMTkuMDIzIDkuNDc3LDE5LjIwMyBDOS40MiwxOS40NCA5LjI4OCwxOS40OTEgOS4wNCwxOS4zNzYgQzcuNDA4LDE4LjYyMiA2LjM4NywxNi4yNTIgNi4zODcsMTQuMzQ5IEM2LjM4NywxMC4yNTYgOS4zODMsNi40OTcgMTUuMDIyLDYuNDk3IEMxOS41NTUsNi40OTcgMjMuMDc4LDkuNzA1IDIzLjA3OCwxMy45OTEgQzIzLjA3OCwxOC40NjMgMjAuMjM5LDIyLjA2MiAxNi4yOTcsMjIuMDYyIEMxNC45NzMsMjIuMDYyIDEzLjcyOCwyMS4zNzkgMTMuMzAyLDIwLjU3MiBDMTMuMzAyLDIwLjU3MiAxMi42NDcsMjMuMDUgMTIuNDg4LDIzLjY1NyBDMTIuMTkzLDI0Ljc4NCAxMS4zOTYsMjYuMTk2IDEwLjg2MywyNy4wNTggQzEyLjA4NiwyNy40MzQgMTMuMzg2LDI3LjYzNyAxNC43MzMsMjcuNjM3IEMyMS45NSwyNy42MzcgMjcuODAxLDIxLjgyOCAyNy44MDEsMTQuNjYyIEMyNy44MDEsNy40OTUgMjEuOTUsMS42ODYgMTQuNzMzLDEuNjg2IiBmaWxsPSIjYmQwODFjIj48L3BhdGg+PC9nPjwvc3ZnPg==') no-repeat scroll 3px 50% / 14px 14px; position: absolute; opacity: 0.85; z-index: 8675309; display: none; cursor: pointer; top: 3426px; left: 18px;">Guardar