miércoles, 23 de mayo del 2018 Fecha
Ir a la página principal Ir al blog

IMPRESIÓN NO PERMITIDA - TEXTO SUJETO A DERECHOS DE AUTOR




¿La Inteligencia Artificial? Es cosa de futuro

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen

La informática Margaret Ann Boden(1936) cumple hoy años. Profesora de investigación en el Departamento de Informática de la Universidad de Sussex, su trabajo abarca los campos de la inteligencia artificial, la psicología, la filosofía, las ciencias cognitivas y las ciencias de la computación.

“Es absurdo pensar que tenemos la ‘superinteligencia’ a la vuelta de la esquina”

 

Margaret Boden (Maggie para los amigos) ha visto de todo desde 1936. Nació en el Londres de los bombardeos y de Alan Turing, se abrió paso en el masculino mundo de la ciencia y se descolgó en 1977 con Inteligencia Artificial y Hombre Natural, uno de los libros pioneros en un campo que ha contribuido a ensanchar gracias a su ‘sabiduría’ adquirida en los mundos de la medicina, de la filosofía, de la psicología y de las ciencias cognitivas.

A sus 82 años, Boden sigue activa desde su mirador en la Universidad de Sussex, fiel a su condición de insaciable “mariposa intelectual”. Nos recibe con vestido floreado en su casa de Brighton, que pronto sentimos como nuestra. Y nos invita a hacer un recorrido por las estanterías donde alternan libros y pequeños frascos de vidrio que se estiran hasta tiempos de los romanos. Estamos aquí para hablar de su último libro, Inteligencia Artificial (Turner), y para intentar distinguir entre la paja y el heno en un terreno pantanoso en el que se atrevió a adentrar en sus últimos meses de vida el mismísimo Stephen Hawking.

 

 

¿Cuál es la idea más equivocada que tenemos sobre la inteligencia artificial?
Yo diría que hay dos ideas equivocadas. La primera es que la inteligencia artificial (IA) puede hacer mucho más de lo que es capaz realmente. Y la segunda es que puede hacer mucho menos. Entre estos dos polos nos movemos, y esa ha sido mi idea con este libro. Examinar la naturaleza de la IA, hacer balance de dónde estamos e intentar vislumbrar el futuro, con los pies en el suelo y sin caer en escenarios de ciencia ficción.
Meses antes de morir, con su voz computerizada, Stephen Hawking advirtió: “El desarrollo pleno de la inteligencia artificial puede significar el fin de la raza humana” ¿Verdadero o falso?
Ese tipo de afirmaciones genéricas sirven al final para infundir el temor a lo desconocido. Con todos mis respetos para Stephen Hawking, y reconociendo sus grandes méritos en el campo de la Física, no se puede intentar abarcar todo y hablar ex cátedra de un campo que no era su especialidad. Por no hablar de la profunda contradicción: él tenía que estar en el fondo agradecido a la IA porque le permitía hablar y comunicarse con los humanos.

Hawking era tan asombrosamente popular que todo lo que salía de su boca se elevaba inevitablemente a titular. Hizo mucho por la divulgación de la ciencia, pero no estaba en una posición privilegidada para hablar de la IA. Al fin y al cabo, su aproximación era la de un astrofísico, preocupado por el futuro de la Tierra y urgiendo a la especie humana a colonizar otros planetas.El filósofo Nick Bostrom, al frente del Instituto para el Futuro de la Humanidad en la Universidad de Oxford, considera también la superinteligencia como el “mayor riesgo existencial” para la humanidad, por delante incluso del cambio climático…

 

 

 

 

Crear seres artificiales que tendrán poderes muy superiores al humanoOtra peligrosa generalización. Bostrom tiene ideas un poco locas, como la noción misma de la superinteligencia (una inteligencia superior a la humana) a mediados de siglo o incluso antes. Son predicciones un poco absurdas. Bostrom está contribuyendo también, a su manera, a infundir el miedo a ese futuro apocalíptico, y desviar por ejemplo la atención del cambio climático, que es un peligro presente y real, que va a comprometer enormemente las vidas de las próximas generaciones.

 ”Con todos mis respetos para Stephen Hawking, y reconociendo sus grandes méritos en el campo de la Física, no se puede intentar abarcar todo y hablar ex cátedra de un campo que no era su especialidad”

¿Y qué nos dice de las predicciones de Ray Kurzweil, el profeta de la singularidad?
Kurzweil es aún peor, precisamente por todo lo contrario. Habla de la singularidad (el momento en el que la inteligencia de las máquinas superan a la del hombre) como una especie de santo grial o de utopía tecnológica. En su opinión, la inteligencia artificial (combinada con la nanotecnología y con la biología sintética) servirá para acabar con las enfermedades, con las guerras e incluso con la muerte. Además predice que el momento está bien cerca, en torno al 2030… ¡Nos quedan 12 años! Lo tenemos como quien dice a la vuelta de la esquina… Es absurdo.

Pensar que con la IA puedes resolver conflictos tan humanos como el de Oriente Próximo (y ya puestos, el de Irlanda del Norte o el Cataluña) es totalmente ridículo. Los que creen en la singularidad ignoran las limitaciones de la IA actual. Se basan sólo en los avances tecnológicos exponenciales, pero ignoran un hecho: el aumento de potencia de los ordenadores y de la disponibilidad de datos no garantiza una IA de nivel humano.El fundador de Tesla, Elon Musk, es otra de las voces más notorias ante los riesgos de la IA ¿No deberíamos darle algo de crédito?A Elon Musk hay que agradecerle sobre todo que ponga sobre la mesa la cuestión ética y que ponga dinero para investigar temas que deberíamos haber estado investigando durante años. Su contribución al Instituto para el Futuro de la Vida me parece muy valiosa. Es esencial plantearnos escenarios de futuro, pero hay que hacerlo con investigaciones rigurosas y multidisciplinarias que nos adviertan de los riesgos reales.En la parte final de su libro, usted reconoce sin embargo que pese a todos los “mitos” que rodean la IA, hay realmente motivos para “estar preocupados”. ¿Cuáles son?

 

 

 

 

 

 

Desde que inventamos el hacha, cualquier tecnología se puede utilizar para el bien o para el mal. Uno de los elementos más preocupantes es obviamente su uso para fines militares, con la producción de soldados robóticos o el uso cada vez más extendido de drones, que de momento son manejados a distancia por seres humanos, pero que el futuro podrían tener capacidad incluso para “reconocer” un blanco. La ciberseguridad tiene cada vez una mayor connotación militar también. De hecho estamos asistiendo ya a ciberguerras invisibles en la que está en juego muchas veces nuestra capacidad para seguir adelante con nuestra vida cotidiana, conforme se vaya implantando el internet de las cosas y la IA se extienda a sectores vitales de nuestra economía, de la banca al suministro eléctrico.¿Qué nos puede decir de la privacidad de los ciudadanos, a la luz del reciente escándalo de Facebook y Cambridge Analytica? ¿No corremos el riesgo de ser manipulados por un puñado de corporaciones? ¿El Big Data es acaso el Gran Hermano?Afortunadamente, todo lo que ha pasado recientemente va a servirnos para despertar a tiempo. Creo que es un tema ante el que la opinión pública está ya muy sensibilizada, y los gigantes tecnológicos nos pueden seguir escondiendo la cabeza o hacer como si cosa no fuera con ellos. En este sentido, creo que la Unión Europea ha marcado el horizonte con la Regulación General de Protección de Datos (GDPR), que entrará en vigor en mayo. Es un primer paso para defender los derechos de los ciudadanos y poner a las compañías en su sitio. Pero harán falta dar más pasos: hoy por hoy, los usuarios de internet estamos prácticamente desprotegidos y dejando rastros en cada paso que damos. La extracción, manejo y gestión de datos es el gran negocio del siglo XXI.Usted advierte que la amenaza primordial de la IA es el “desempleo tecnológico”. Algunos estudios hablan de un 40% de empleos automatizados en las próximas dos décadas. ¿Nos quitará el trabajo un robot?En este terreno, la gente tiene razones sobradas para estar preocupada. Lo que está ocurriendo con la revolución tecnológica es comparable con la Revolución Industrial, sólo que en esta ocasión me temo que se van destruir más empleos de los que se construyan. Todos los trabajos rutinarios o mecánicos están amenazados. La parte más rutinaria de los abogados o de los médicos será también desempeñada por máquinas, que estarán incluso mejor capacitadas para hacer diagnósticos. Ningún sector quedará indemne de la inteligencia artificial, y el efecto a medio plazo debería precuparnos.

 

Muchos trabajos van a desaparecer, y los que surjan van a ser altamente especializados, como el análisis de datos. Los profesionales van a tener que adaptarse a la nueva situación, y el sistema educativo va a necesitar también un severo ajuste. Creo que deberíamos tener ya un profundo debate sobre cómo adaptar la sociedad a la nueva situación. Tengo, eso sí, la esperanza de que seamos sensatos a la hora de ceder el testigo a las máquinas, y que no sólo primen factores económicos. Hay trabajos que siempre harán mejor los humanos, y muchos otros en los que precisamente se valorará el contacto humano, frente al tratamiento impersonal de la máquina.

 

 ”Los usuarios de internet estamos desprotegidos y dejamos rastros en cada paso que damos. La extracción, manejo y gestión de datos es el gran negocio del siglo XXI”

 

 

Resultado de imagen de Internet y los datos para el negocio

 

 

 

 

¿Cómo afectará la IA a nuestra vida diaria a corto plazo?
Ningún aspecto de nuestra vida va a escapar a la IA. Todos los sectores van a resultar afectados de una u otra manera. Basta que con que alguien con suficiente imaginación identifique el problema y escriba el programa. Muchos de los cambios que veremos serán a mejor, pero todos los avances tecnológicos tienen consecuencias no previstas. Internet nos ha hecho la vida más fácil sin salir de casa, pero se lo está poniendo muy difícil a los comercios a pie de calle.
¿Y cuándo veremos coches sin conductor circulando por las calles?
No soy muy amiga de hacer previsiones a corto o medio plazo, entre otras cosas porque siempre hay elementos imprevisibles que cambian por completo el escenario. La tecnología está ahí, pero hay muchos otros factores que conviene tener en cuenta. El más importante de ellos, el factor humano. El imperativo ético para la implantación de tecnologías de IA debería ser ese: poner a los seres humano primero.
La Inteligencia Artificial Amigable, acuñada por Eliezer Yudkowsky, va por ese camino…
La FAI (por sus siglas en inglés) propone efectivamente “un efecto positivo sobre la humanidad”, pero va más allá de las cuestiones éticas y reclama también principios como la transparencia, para garantizar que las tecnologías sigan siendo “amigables” ante posibles cambios. Es una noción interesante que refleja el interés creciente que hay entre los expertos por poner los valores humanos al frente de la IA.
Usted ha levantado también la voz contra el uso y abuso de robots de compañía…
Es uno de los asuntos que más me preocupa, es cierto. Se están comercializando ya los “acompañantes computerizados” para ancianos, los “robots niñera” e incluso robots sexuales… Mi tesis es ésta: no podemos intentar solucionar un problema esencialmente humano, como el de la soledad o el aislamiento social, usando una máquina como sustituta.

El cuidado de los mayores, por ejemplo, requiere sobre todo atención humana ¿Y qué estamos haciendo? Recortando los gastos sociales y poniendo en la calle a trabajadores irremplazables. El robot no puede ser un cuidador. Puede en todo caso dar la alarma si una persona se pone enferma, puede controlar que se tome las pastillas o puede incluso entretenerla, pero nunca cuidar a una persona, ni mantener una conversación para la que se requiere empatía e inteligencia emocional.

 

 

 

 

 

 

Stephen Hawking definía la inteligencia como “la capacidad para adaptarse a a los cambios”. ¿Se quedo corto en la definición?Definir la inteligencia es una misión casi imposible. ¿La habilidad para lograr nuestros objetivos y satisfacer nuestras necesidades? Esa definición tampoco me vale. Al fin y al cabo el cerebro sigue encerrando muchos misterios que aún no hemos conseguido descifrar, y mucho menos emular. Y hay quienes sostienen que hemos tenido hasta ahora una visión demasiado “cerebral”… Durante mucho tiempo se circunscribió la inteligencia a su dimensión racional, pero ahora hablamos de inteligencia emocional y de inteligencia social, y en esos dos terrenos les queda aún un largo camino que recorrer a las máquinas.Usted identifica precisamente la emoción, la creatividad y el lenguaje como los tres talones de Aquiles de la Inteligencia Artificial Fuerte (IAF), que aspira a igualar o a exceder la inteligencia humana…Es cierto. Pero también lo es que, incluso en estos ámbitos que seguimos considerando “esencialmente humanos”, la IA ha llegado ya más lejos de lo que mucha gente cree. No solo en el terreno del lenguaje, que quizás es el más conocido, también en el de la creatividad y en sus tres variantes (combinatoria, exploratoria y transformacional). La emoción puede resultar lo más ajeno a la inteligencia emocional y, sin embargo, desde finales de los años 90 ha habido intentos de trasladar a una máquina los aspectos funcionales de la ansiedad, como el sistema Minder de Aaron Sloman, pensado para meterse en la piel de una enfermera humana y decidir las prioridades.

 

Resultado de imagen de Un robot nunca podrá ser sabio
¿Y qué me dice de la sabiduría? ¿Tendremos algún día máquinas “sabias”?
La sabiduría es algo que no tendrá una máquina en un futuro predecible. Sobre esto ha escrito mucho el filósofo Nicholas Maxwell, que distingue claramente entre sabiduría y conocimiento. La sabiduría va mucho más allá del conocimiento y comporta la experiencia, la sensatez y la prudencia, entre otras cualidades.
¿La sabiduría es algo que se adquiere con los años?
No lo sé. Lo que yo he intentado no perder es la curiosidad intelectual. Alguna vez he dicho que me considero “una mariposa intelectual”. Al fin y a cabo llegué hasta la inteligencia artificial después de haber tocado muchos palos. Mi primer interés fue la medicina, de ahí salté a la filosofía, después la psicología y las ciencias cognitivas. Todo este camino me permitió tener una visión bastante amplia de lo que es la IA.

 ”La inteligencia artificial no alcanzará la ‘sabiduría’ en un futuro predecible”

Usted es pionera con uno de los primeros libros sobre el tema en 1977…
Tanto como pionera no, pero sí fui una de las primeras mujeres en interesarse por el tema.
¿Cuál fue su experiencia en un mundo académico y científico dominado por los hombres?
Bastante surrealista a veces. Recuerdo que cuando leí mi primer paper sobre teoría explicativa del conocimiento, intentando indagar en el concepto de verdad, el jurado no me felicitó como suele ser habitual. El único comentario que me hicieron fue: “Como usted es una mujer, la verdad no le parece importante”… Yo no me dejé desalentar, pero el ambiente en el que nos movíamos era realmente opresivo, y más aún en terreno abonado para los hombres como el de la informática.
Resultado de imagen de Stephanie Shirley

La historia que lo dice todo es la de Stephanie Shirley, emprendedora y auténtica pionera de la tecnología de la información en este país. Todo el mundo la conoce como Steve Shirley, porque tuvo que masculinizar su nombrepara que la aceptaran en ofertas de trabajo.Al cabo de más de 50 años sigue arraigada en Brighton y vinculada a la Universidad de Sussex. ¿No cayó en la tentación de Oxford o Cambridge?Ofertas no me faltaron, pero he sido fiel a la Universidad de Sussex porque fue pionera con la creación de la Escuela de Ciencias Cognitivas e Informáticas (COGS, por sus siglas en inglés) y por su aproximación multidisciplinar, que creo que fue muy visionaria.

>_ “Cuando leí mi primer paper, el jurado me dijo: “Como usted es una mujer, la verdad no le parece importante”… Yo no me dejé desalentar, pero el ambiente en el que nos movíamos era realmente opresivo”

¿Qué consejo le daría a una mujer que decida explorar el mundo de la inteligencia artificial?
Que vaya a por ello, con deteminación y sin dudar. Y sin ponerse nunca en una situación de inferioridad o debilidad frente a los hombres, sobre todo en las entrevistas de trabajo.
¿Y qué opinan sus cuatro nietos de la abuela de la inteligencia artificial?
Mis nietos, una niña y tres niños, son nativos digitales y tienen una relación con las máquinas bastante más natural. Pero he de confesar que me preocupa su futuro. Creo que será la primera generación en mucho tiempo que vivirá en peores condiciones económicas que sus padres y enfrentada además a un mundo cargado de incertidumbre y de grandes retos, de la automatización al cambio climático, que es lo que más me preocupa… Por no hablar del Brexit. Es injusto que les estemos cerrando las puertas de Europa, como es absurdo que renunciemos a la financiación de la UE, que es esencial para la investigación en muchas universidades británicas.

¿La Inteligencia Artificial? ¡¡Un Peligro!!

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Por qué la inteligencia artificial aún no llega al nivel de «Terminator»

 

El automatismo de los sistemas lleva más de 50 años sin un consenso en lo referente a la regulación, mientras la nueva revolución industrial simplifica tareas en el mercado de trabajo

Por qué la inteligencia artificial aún no llega al nivel de «Terminator»

 

 

 

 

 

 

La ciencia ficción introdujo las posibilidades de las máquinas en un futuro no muy lejano, films como «Terminator» o «Robocop» mostraron las dos caras de los beneficios y los peligros tácitos de la robótica. Sin embargo, el debate desde hace años se encuentra en un vaivén y más cuando se tercia si se le da la posibilidad a un exoesqueleto de metal de tomar decisiones como un ser humano, revolucionando de esta manera el paradigma de la ética a través de la inteligencia artificial.

Resultado de imagen

Hace unos años, el científico Stephen Hawking alertó de la amenaza que podía representar la robótica, sobretodo cuando se le integra un sistema de inteligencia artificial e si esta no se moderaba: «Los robots son una amenaza para la humanidad. Los seres humanos que están limitados por la evolución biológica lenta, no podrían competir por la inteligencia artificial, y serían superados por ella».

Mark Zuckerberg, el fundador de Facebook, es uno de los precursores del desarrollo de este tipo de tecnología, además de ser parte de la postura contraria que alienta a los desarrolladores a no ser víctima del miedo. Por contra, Elon Musk -que ha fundado y dirige empresas como Tesla, SpaceX, Hyperloop One o Paypal, es quien lidera la versión moderada de implantar una serie de medidas reguladoras. Los dos tecnólogos tuvieron un enfrentamiento sobre las medidas delimitadoras en las que se debería desarrollar.

Resultado de imagen de La Inteligencia Artificial del futuro

     Si no sabemos manejar este espinoso asunto, las cosas se podrían poner feas para los humanos

Las opiniones generadas entorno a esta área han llegado a la formación de manifiestos y grupos contrarios a su desarrollo sin control, mientras que otros acreditan que ciertas posturas están fundamentadas en el terror. Lo cierto es que este verano saltó la voz de alarma cuando Facebook tuvo quedesactivar un experimento de inteligencia artificial, porque dos bots programados para aprender a negociar habían llegado a la conclusión de que era más fácil regatear con un idioma más simple extraído del inglés; es decir, inventaron su propio lenguaje inentendible para el ser humano.

Enrique Domínguez, director estratégico de InnoTech, aclara que en este tipo de experimentos ocurren desenlaces imprevisibles como parte de lo que supone la propia investigación. Por lo que, se debe matizar en el caso de estos dos bots que «no pensábamos que iban a reaccionar así», en lugar de «que no estaban programados para ello». Por lo tanto, «no se apagó porque se hubiera sucumbido al pánico, sino que ya se había cumplido el objetivo del experimento». Sin embargo, ambos bots no habían sido programados para que negociasen en un idioma entendible, porque al fin y al cabo las máquinas siguen sus normas establecidas en el código.

Imagen relacionada

          Todos los indicios nos dicen que, con facilidad, los “Seres” Artificiales nos superarán

«Esto que veíamos en la película de Terminator de una inteligencia que se haga consciente de que es inteligente y trate de asumir el control o imponerse sobre los demás, queda todavía muy lejos», recalca el Dr. en Inteligencia Artificial y profesor de la Universidad Europea Javier Sánchez. En la situación actual de la IA, «tenemos muchos sistemas que son especializados en labores concretas y las hacen muy bien, pero no hay un sistema que sea capaz de hacer muchas cosas muy bien hechas», añade además.

Sin embargo, la preocupación existe y discurre no en la tesitura de que un sistema funcione sin las pautas establecidas por un ser humano, sino por la falta de un consenso de la ética que deben seguir los sistemas inteligentes y el nivel de ciberseguridad para que los delincuentes no alteren su lógica marcada. «Sí que hay ciertos asuntos que hacen preocuparnos como lo relativo a la privacidad y la seguridad. Porque se está empezando a ver sistemas que están muy especializados en un área y eso puede suponer una amenaza», indica Sánchez. En este sentido, resuena a menudo las tres leyes de la robótica que estableció Isaac Asimov en su libro «Yo, robot» y que ha quedado plasmada a lo largo de la literatura de ciencia ficción.

Resultado de imagen de Imágenes de Yo Robot

    En ésta película pudimos ver la rebelión de los Robots que, bien podría ser un presagio de futuro

En primer lugar un robot no hará daño a un ser humano o, por inacción, permitir que un ser humano sufra daño, en el segundo caso un robot debe hacer o realizar las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley y por último un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

Dichas reglas son una buena manera de plantear la ética en la inteligencia artificial, pero «no responde realmente a los límites que deben tener la inteligencia artificial. La forma de expresarlo todavía no es tan pragmático como las reglas del libro «Yo, robot» de Isaac Asimov» cuenta a este diario Isabel Fernández, Managing Director de Accenture Analytics en el área de IA. Dentro de la postura Accenture, recalca Fernández que es primordial que la IA «nunca supere la inteligencia de un ser humano, por algo muy sencillo, porque en el momento en que lo supere no tendremos capacidad para controlarlo».

Sin regulación

 

 

Resultado de imagen de La Inteligencia Artificial del futuro

 

 

Si sabemos regular, mediante una Ley, hasta donde se puede llegar con la I.A., los avances podrían ser controlados pero, siempre estará el científico independiente de “geniales” ideas que de con todo al traste y no cumpla las Normas.

 

¿Por qué resultan tan difícil establecer un consenso internacional para el desarrollo de la inteligencia artificial? Esta cuestión es a menudo respondida por el caso de los vehículos sin conductor, «un coche autónomo que haría si tiene que decidir entre matar a sus ocupantes o cinco personas en un paso de peatones», expone Domínguez. Dentro de la cuestión ética también trae consigo el componente de la cultura, que no es universal.

En las distintas vertientes de la IA, se ha obtenido en ciertas áreas un nivel de especialización mucho mayor, por lo que el Dr. Sánchez opina que «si esto lo combinamos con máquinas con autonomía de tomar ciertas decisiones estratégicas y operar en dispositivos que en este caso sí que podrían ser armas, pues puede suponer un riesgo». Por lo que, ajeno a ese mundo apocalíptico de máquinas superiores, hay que centrar los esfuerzos en controles de calidad para garantizar cierto nivel de calidad.

Resultado de imagen de La Inteligencia Artificial del futuro

                   Esta escena es ya un hecho, los humanos juegan al ajedres con máquinas

La inteligencia artificial busca simular comportamientos que los seres humanos podemos interpretar como inteligentes, pero son los que toman decisiones de cierto calibre los que están en el foco de atención. IBM es una de las compañías punteras en lo referente a lo que llaman sistemas cognitivos, el software Watson que utilizan algunas empresas para sus sistemas se están empleando en casos reales como el diagnóstico de enfermedades. Cada Watson es distinto dependiendo del objetivo predispuesto al igual que la base de datos con la que está conectada, porque al fin y al cabo es una herramienta que lee muchos datos que una persona no podría abarcar, pero que despiertan dudas.

Por un lado, el director estratégico de InnoTech explica que «estos sistemas expertos a mí me preocupan desde el punto de vista de ciberseguridad, porque qué pasaría si alguien consigue atacarlos y modificar su comportamiento -bien sea alimentándolos de datos maliciosos para que cambian su manera de comportarse o de alguna manera transmutándolos para que de alguna manera cambien sus decisiones- ahí podríamos estar hablando de muertes de personas o incluso de colapsos de compañías a nivel económico».

Resultado de imagen de Los Robots están presentes en los quirófanos

Los Robots están presentes en los quirófanos y en otros ámbitos de nuestras vidas, el que poco a poco y de manera silenciosa se introduzcan en nuestra Sociedad, y, comiencen a pensar… ¡sólo es cosa de Tiempo!

Asimismo, el profesor de la UE señala que «si estás hablando de diagnósticos clínicos estás hablando de protección de datos. Parece una contradicción, pero algunas de las aplicaciones más interesantes y más complejas, algunas ya eran capaces de hacer diagnósticos hace años, de cómo iba a evolucionar una enfermedad y con tasas de aciertos muy altas».

Resultado de imagen de IBM y la Robótica

                            Se empieza como si de un juego se tratara y… ¿Cómo se acabará?

Algunas empresas, ante la falta de consenso, han elaborado sus propia pautas y las comparten con otros entornos, como en el caso de IBM. La compañía tecnológica ha compilado tres principios. En primer lugar, lo que llaman el diseño que se refiere a «la capacidad de amplificar una persona», explica Elisa Marín, directora de Innovación IBM España, «debido a la gran generación de conocimiento entorno a la era digital, toda la información es valiosa» de manera diferente para cada persona. En segundo lugar, el principio de credibilidad para que «generemos confianza a las personas de su utilización». Por último el principio de fiabilidad del comportamiento para que solucione un problema de un dominio específico.

Por otro lado, Marín también aclara que los programas Watson como son diferentes, también funcionan a partir de bases de datos distintas. Al estar concentrados y separados, se reduce el riesgo del problema que pueda haber con la información, así como los datos que se vayan generando vayan únicamente a «la entidad que aporta la solución». Por otro lado, también hay un Watson de computación cognitiva en las amenazas de seguridad.

Resultado de imagen de la Robótica una amenaza real

Sí, hoy muchos de los automóviles que circulan por nuestras carreteras han sido fabricado por robots, y, algunos, hasta los llevan dentro para que aparquen solos, o, incluso, se les marque el viaje que harán sin necesidad de conductor… ¡No me gusta nada!

En el caso de la postura Accenture, la compañía apuesta por lo que llama la Inteligencia Artificial Responsable porque creen «que es una fuerza transformadora de la sociedad que sí debe haber niveles de regulación, pero no porque tengamos miedo de lo que nos pueda traer la inteligencia artificial, porque estamos intentando que avance quitándonos tareas que pueden ser hechas por máquinas y dejándonos tareas que podemos aportar mucho más como humanos. Pero sí, tiene que estar regulada», defiende la Managing Director de Accenture Analytics.

¿Inteligencia Artificial? No, gracias

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen de Inteligencia artificial

Esta Inteligencia Artificial (IA) de Facebook ha tenido que ser desactivada.

Una sección de investigación de Facebook desarrolló una IA para mejorar los chatbots de Facebook. Para probarla, dejaron a dos máquinas de este tipo manteniendo una conversación libre entre sí. El resultado, el más inesperado de todos: crearon un nuevo idioma. Al principio pensaban que era un error, pero se pudo comprobar que sí, que se estaban comunicando en un lenguaje nuevo y desarrollado por ‘ellos’.

La Inteligencia Artificial de Google ha creado su propio sistema de cifrado

Un lenguaje que no entendamos podría llegar a ser peligroso

Lejos de ser un buen resultado, los investigadores al cargo de esta IA han decidido ‘apagarla’. Pero no por miedo ni porque temían que fuera el comienzo de una Inteligencia Artificial malévola. La razón era mucho más sencilla: si la IA decidiera comunicarse en su propio lenguaje, perderíamos el control sobre ella.

 

 

 

 

La razón para apagar la IA es muy simple: podría llegar un momento en el que se perdiera el control sobre ella

Es cierto que el lenguaje que habían creado era mucho más eficiente. No obstante, nunca podríamos llegar a comunicarnos, o al menos sería muy complicado. Los resultados de la conversación pueden resultar absurdos a simple vista, pero no lo son:

Resultado de imagen de La Inteligencia artificial del futuro

Bob: “I can i i everything else”

Alice: “balls have zero to me to me to me to me to me to me to me”

El hecho de repetir ‘to me’ tantas veces no quiere decir que se haya vuelto loca, sino que quiere, en este caso, 7 unidades. Este lenguaje es mucho más lógico que el nuestro (o, en este caso, que el inglés, que fue el lenguaje usado originalmente). Lo complicado, como decíamos, es entenderlo.

 

La IA de Google se ha inventado su propio idioma secreto

No es la primera vez que ocurre. Ya en el pasado Google también tuvo que recurrir a la misma solución tras presentarse el mismo problema. Como ya hecho Facebook, lo mejor es desactivarla y buscar una solución antes de que se pierda el control por completo.

Elon Musk: “La Inteligencia Artifical puede acabar con la humanidad”

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (1)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

Resultado de imagen de inteligencia artificial

Reportaaje de:  Elías Rodríguez García

Elon Musk cree que deberíamos tomar medidas para legislar la Inteligencia Artificial.

Elon Musk está siendo uno de los personajes del siglo XXI más importantes en cuanto a tecnología se refiere. Es el CEO de una de las compañías que está cambiando el transporte y además tiene otros proyectos importantes entre manos (Hyperloop y SpaceX). También es uno de los precursores de la polémica renta universal, además de otras teorías que deberíamos ir planteándonos dentro de muy poco.

Una de esas no tan locas ideas del empresario que quiere conquistar Martepara 2025 es comenzar a legislar el campo de la Inteligencia Artificial (IA). A pesar de que ha afirmado estar en contra de regulaciones estrictas, en el ámbito de la IA cree que es distinto. Así lo ha manifestado en una asambleaestadounidense donde intervenían dirigentes de diferentes naciones de USA.

La idealización de Elon Musk. ¿Es el nuevo Steve Jobs?

«En 20 años, no es que no vaya a haber gente al volante, es que directamente no habrá volante», lo que para Musk haría replantearnos seriamente las cosas.

Regular la Inteligencia Artificial antes de que sea tarde

La Inteligencia Artificial es el nuevo campo de desarrollo. Además, permitirá avances tecnológicos terriblemente grandes. No es dar marcha atrás, por supuesto, sino que habría que pisar el freno. Ha añadido que cuando queramos reaccionar y regular la IA, «será demasiado tarde» ¿Se referirá concretamente a que podría acabar con la raza humana? En efecto, añade que «se trata de un riesgo para la existencia de la civilización humana».

 

«Hasta que la gente no vea robots matando personas no se entenderá el peligro de la IA»

 

A pesar de que podría considerarse como un pensamiento muy extremista o apocalíptico, afirma que no se trata de nada algo etéreo. Hay que actuar y debe ser ya.

«[Refiriéndose a la IA] podrían comenzar una guerra publicando noticias falsas, robando cuentas de correo electrónico y enviando notas de prensa falsas, solo con manipular información».

Las próximas industrias que serán conquistadas por la Inteligencia Artificial

 

 

Por último, recuerda que los robots nunca se cansarán. Además de que harán nuestro trabajo mucho mejor. Esto supondrá toda una revolución en el sector industrial y en general también en el resto.

Otros intelectuales como Stephen Hawking están totalmente en contra del avance de la Inteligencia Artificial; como si de la invención de la bomba atómica se tratase. Para este otro «La inteligencia artificial podría significar el fin de la raza humana».

el futuro Incierto

Autor por Emilio Silvera    ~    Archivo Clasificado en I. A.    ~    Comentarios Comments (0)

RSS de la entrada Comentarios Trackback Suscribirse por correo a los comentarios

TECNOLOGÍA

Nick Bostrom, el filósofo que advierte de los riesgos de la superinteligencia artificial

Por Maruxa Ruiz del Árbol | 20-04-2017

 

Nick Bostrom

Nick Bostrom

Filósofo

Bautizado como “el filósofo del fin del mundo” por el New Yorker, Nick Bostrom no tiene aspecto de loco apocalíptico. Es más bien la imagen de la mesura y la reflexión, aunque sus ideas desaten polémicas cada vez que las expone y gane acérrimos enemigos con la misma facilidad con que consigue fervorosos defensores. Entre estos últimos se encuentran mentes tan brillantes como las de Stephen Hawking o visionarios de las nuevas tecnologías como Bill Gates o Elon Musk. Lo que ha llamado la atención de este filósofo sueco, director y fundador del Future of Humanity Institute en la universidad de Oxford, son sus desarrollos acerca de los peligros que acechan a nuestra especie detrás de la inteligencia artificial. Frente al optimismo ingenuo de quienes ven en las máquinas pensantes la solución a todos nuestros problemas, Bostrom advierte que debemos tener cautela. O, dicho en sus propias palabras, dejar de comportarnos como “niños pequeños jugando con una bomba”.

Resultado de imagen de inteligencia artificial

La posibilidad de que los ordenadores o los robots que estamos construyendo nos superen en inteligencia algún día no es descabellada. Lo que hasta hace muy poco era terreno de la ciencia ficción debe observarse ahora como un horizonte muy probable: “creo que si hay algo que puede cambiar fundamentalmente la naturaleza de la vida en la Tierra, eso es la transición hacia la era de la inteligencia de las máquinas. No tenemos otra opción que enfrentar este desafío. La superinteligencia de las máquinas es como un portal que la humanidad debe atravesar obligatoriamente, pero debemos asegurarnos de no chocar contra el muro cuando lo hagamos”. Aunque pudiera parecer lo contrario, el de Bostrom no es un mensaje desesperanzador ni predica -como si fuera una versión digital de los luditas que destrozaron las máquinas durante la primera revolución industrial- una guerra contra las nuevas tecnologías. De hecho su confianza en las posibilidades de la ciencia le llevó a fundar en 1998 la Asociación Mundial Transhumanista, que defiende potenciar las capacidades humanas a través de una hibridación con la tecnología.

Resultado de imagen de inteligencia artificial

En una entrevista con El País, Bostrom incidía en que su función es llamar a una reflexión profunda, no demonizar las máquinas: “hay muchas cosas que no van bien en este mundo: gente que se muere de hambre, gente a la que le pica un mosquito y contrae la malaria, gente que decae por el envejecimiento, desigualdades, injusticias, pobreza, y muchas son evitables. En general, creo que hay una carrera entre nuestra habilidad para hacer cosas, para hacer progresar rápidamente nuestra capacidades tecnológicas, y nuestra sabiduría, que va mucho más despacio. Necesitamos un cierto nivel de sabiduría y de colaboración para el momento en que alcancemos determinados hitos tecnológicos, para sobrevivir a esas transiciones”.

Resultado de imagen de inteligencia artificial

Como defiende en su libro Superinteligencia: Caminos, Peligros, Estrategias, publicado en 2014 (y que entró rápidamente en la lista de los más vendidos del New York Times Book Review) el verdadero reto no está tanto en la inteligencia que sean capaces de alcanzar las máquinas, sino en el desarrollo moral de nuestra especie. Al final, como ya postuló Jean-Paul Sartre, estamos condenados a ser libres. Y eso puede ser peligroso, pero también una excelente oportunidad para dar otro salto evolutivo. (http://www.nickbostrom.com)