jueves, 18 de abril del 2024 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




El futuro está aquí, y, no se si me gusta

Autor por Emilio Silvera    ~    Archivo Clasificado en General    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

 

La próxima frontera de la inteligencia artificial: sistemas que dudan de sí mismos
La próxima frontera de la inteligencia artificial: sistemas que dudan de sí mismos

La comunicación del “deep learning” y modelos probabilísticos permiten diseñar algoritmos capaces de lidias con la incertidumbre
Resultado de imagen de Máquinas que tomarán decisiones en el futuro

 

 

Avanzamos sin darnos cuenta hacia una sociedad en la que las máquinas tomarán decisiones cada vez más complicadas. De su presencia en tareas altamente automatizables hasta su introducción en las llamadas compañías data driven —gobernadas por datos informatizados—, el potencial de los algoritmos para sustituir el control humano es tan enorme que asusta.

 

 

Al margen de los miedos que despierta la posibilidad de que sistemas de inteligencia artificial nos quiten el trabajo —y si permitimos sus virtudes en la medida en que nos simplifiquen la vida—, es vital que, al menos, respondan correctamente y de forma eficiente si les vamos a dejar tomar cierto tipo de decisiones. Porque las máquinas también son susceptibles de equivocarse.

Quienes diseñan sus algoritmos parten de suposiciones basadas en sus propios datos sobre cómo deberían hacerlos funcionar, y estas suposiciones no son siempre acertadas. “Como hemos aprendido de los grandes bancos durante el colapso financiero, los modelos matemáticos basados en suposiciones equivocadas  pueden ser peligrosos cuando depositamos demasiada confianza en sus predicciones sin considerar lo que podría ir mal”, afirma Jennifer Wortman, investigadora senior en Microsoft especializada en aprendizaje automático y economía algorítmica.

 

  • Afrontando el problema
Fotograma de la película 'Yo, robot'
Fotograma de la película ‘Yo, robot’

Pero, ¿qué pasaría si estos sistemas fueran conscientes de ello? ¿Si supieran que pueden haber cometido un error y fueran capaces de enmendarlo? Una de las ramas más interesantes que se están desarrollando actualmente en aprendizaje automático está destinada a este propósito: que las máquinas puedan lidiar con la incertidumbre. Compañías como Uber o Google ya trabajan en modificar los marcos tradicionales de aprendizaje profundo —más conocido por su denominación inglesa, deep learning— para construir programas de inteligencia artificial que midan su confianza en una decisión para saber cuándo deberían dudar de sí mismos y sean menos propensos a fallar.

“Si un automóvil que se conduce solo no sabe que es capaz de equivocarse, puede cometer un error fatal, y eso puede ser catastrófico”, afirmaba durante un congreso en California Dustin Tran, que trabaja en el desarrollo de este tipo de sistemas en Google. Normalmente, el vehículo reconoce objetos en las imágenes que captura por sus cámaras y estima la distancia a la que se encuentran. Con esta nueva aproximación, calcularía la probabilidad de que sus estimaciones fueran correctas y la de cada una de las posibles consecuencias de sus decisiones, y lo tendría en cuenta antes de actuar.

 

 

 

En este sentido, la aplicación de dichas mecánicas también es relevante en ámbitos como la salud, donde los algoritmos podrían determinar la posibilidad de acierto en el diagnóstico de un paciente y sus potenciales respuestas al aplicarle un determinado tratamiento.

Para alcanzar este ideal, que se enmarca como la próxima frontera de la inteligencia artificial —máquinas capaces de realizar labores complejas teniendo en cuenta parámetros de incertidumbre a la hora de establecer sus predicciones— es necesaria la combinación de modelos de aprendizaje profundo con sistemas probabilísticos.

 

  • La unión hace la fuerza

“El aprendizaje profundo es un tipo de machine learning que utiliza redes neuronales. Además de aplicarse en el campo de la investigación, lo emplean Google, Facebook, Microsoft, Amazon, Netflix, Spotify y Uber para describir con lenguaje natural el contenido de una imagen o para el reconocimiento de voz”, ilustra Francisco Rodríguez Ruiz, investigador en las universidades de Columbia y Cambridge con experiencia en estos sistemas. “Su principal ventaja es que permite modelar relaciones complejas entre entradas y salidas (inputs y outputs)”.

 

 

 

 

Por su parte, los sistemas probabilísticos son modelos estadísticos que introducen una serie de parámetros para estimar la incertidumbre. “Esto es particularmente útil a la hora de entender lo que puede pasar. Si el modelo duda de sí mismo, este hecho se reflejará en sus predicciones para que puedan tenerlo en cuenta”, aclara Rodríguez.

Pero estos sistemas no encajan tan fácilmente y su combinación presenta varios retos técnicos en el medio plazo. La complejidad que añade el aprendizaje automático cuando se aplica a modelos probabilísticos dificulta que el cálculo sobre la incertidumbre de los parámetros fijados sea preciso. “Esto representa un problema en aplicaciones en tiempo real donde sea necesaria una respuesta en un período limitado de tiempo”, expone Rodríguez. “Por ejemplo, un vehículo autónomo necesitaría responder a determinados estímulos en cuestión de una fracción de segundo”.

El camino a recorrer se antoja largo y empinado. El tiempo determinará si este enfoque permitirá disfrutar de las ventajas de ambos modelos y desarrollar sistemas cuyas dudas les ayuden a ser más eficientes.

 

  1. 1
    emiliosilvera
    el 26 de marzo del 2018 a las 9:52

    Lo cierto es que, el futuro que es imparable, lo construimos nosotros mismos y, no siempre, prestamos atención a lo que hacemos, a la gravedad que implican algunos proyectos que acometemos tratando de dar a lo que no tiene sentimientos, un poder que se podría volver contra nosotros. ¿Habéis pensado lo que dependemos (cada vez más) de todo este inconmensurable mundo “mágico” de Internet y toda la tecnología que implica dar potestades a lo artificial para que nos eviten trabajos y faciliten la vida, sin pensar, algunas veces en lo que ello podría implicar si seguimos por ese camino.
    Telescopios y muicroscopios cada vez más potentes para visitar los extremos de lo muy pequeño y de lo muy grande, aceleradsores de partículas que utilizan fuerzas y energías increíbles, para que puedan nllegar a esas distancias infinitesimales en las que están escondidos los secretos de la materia, y, telescopios más potentes para arrancar al Universo sus secretos, poder llegar a donde nunca pudimos imaginar, galaxias situadas a miles de millones de años luz, que fueron concebiudas muy cerca del comienzo del Tiempo.
    Y, a todo ello, tenemos que añadir máquinas pensantes, que no sólo se limitan a llevar a cabo aquellos trabajos encomendados, sino que (según pretenden algunos), puieden llegar a tener sus propios pensamientos, es decir, poder decidir por sí mismass en situaciones extremas y poder resolver imprevistos surgidos e inesperados, como si de humkanos se tratara. ¿Estaremos haciendo lo correcto?
    Si todo sigue por el camino emprendido, y si nadie pone remedio a estos proyectos futuristas, sin que nos demos cuenta, estaremos creando una “nueva especie” que, aunque artificial, sí que podrá incidir en nuestras vidas e incluso, en nuestro futuro, en el futuro de nuestra especie.
    ¿Dónde y cuando perdimos la cordura?
    Es lo mismo que pienso de que, algún día, lejos aún en el futuro, nos puedan visitar seres de otros mundos… ¿Quién garantiza que intenciones podrán traer? Creo sinceramente que la Naturaleza es sabia y, precisamente por eso, situó a las estrellas y los mundos tan alejados los unos de los otros, en regiones en las que no podemos darle alcance físico, y, si algún día podemos hacerlo, espero, para nuestro bien (el de la especie), que el proceso de humanización esté finalizado y veámos las cosas de otra manera, es decir, ¡que seámos en verdad humanos! Por el momento creo que, ese título no lo hemos ganado.

    Responder

Deja un comentario



Comentario:

XHTML

Subscribe without commenting