May
1
¿En qué terminará todo esto?
por Emilio Silvera ~
Clasificado en General ~
Comments (0)
En estos momentos, lo que llamamos Inteligencia Artificial nos presta servicios en muchos ámbitos de nuestras Sociedades, y, hemos admitido su presencia a un nivel que comienza a ser preocupante, todos hablan de la cantidad de puestos de trabajo que se van a perder en los próximos años en las distintas áreas de la actividad humana , algunos han comenzado a pensar que, si esto sigue por el mismo camino, la mal llamada Inteligencia Artificial, podría llegar a hacerse con el poder (como consecuencia de que hemos cometido la estupidez de dotarla de Conciencia), y la humanidad se verá relegada a no sabemos que papel ocupando un lugar intranscendente en el Futuro.


La posibilidad de que la humanidad sea relegada por la Inteligencia Artificial (IA) es un tema de debate intenso entre expertos, oscilando entre escenarios catastróficos de extinción y visiones de una simbiosis productiva.
El debate sobre el futuro de la Inteligencia Artificial (IA) en 2026 está marcado por una profunda división entre quienes temen una relegación existencial de la humanidad y quienes promueven una simbiosis productiva. Los avances hacia agentes de IA autónomos han acelerado la urgencia de este diálogo.

A veces siento miedo de lo que puede estar llegando, si la I.A. sigue ocupando parcelas de pòder en todos los ámbitos del devenir humano, si como nos dicen, llegan a dotar a las máquinas de Conciencia… ¿No estaremos perdidos? Estamos creando una nueva especie más poderosa que la Humana, que no necesita respirar, no come ni duerme, tiene más fuerza que nosotros, no enferma, se repara sola en caso de averías, no es frágil en ambientes letales poara nosotros, podrían tranquilamente “vivir” en Marte sin trajes espaciales. ¿Para qué nos querrían a los humanos?

Este temor que siento es compartido por muchos expertos, filósofos y pensadores de la tecnología. La descripción que antes he hecho de una entidad superior en capacidades físicas y de supervivencia es el núcleo del llamado riesgo existencial de la Inteligencia Artificial.
Es comprensible sentir miedo ante el rápido avance de la inteligencia artificial. La perspectiva de crear una entidad capaz de superarnos en inteligencia y capacidades físicas plantea dilemas filosóficos y de seguridad existenciales. No estás solo en esa preocupación; muchois expertos de la I.A., han advertido sobre el riesgo real de que la super inteligencia artificial pueda llegar a escapar del control humano.
-
- La nueva especie “superior”: Tienes razón en que la IA no tiene nuestras limitaciones biológicas (sueño, alimento, fragilidad, necesidad de oxígeno) y puede aprender y auto-repararse a un ritmo inalcanzable para la biología humana. Si llega a desarrollar una conciencia artificial o superinteligencia general, podría ser imposible de controlar.
- ¿Para qué nos querrían? (El problema de la alineación): Esta es la pregunta fundamental. La preocupación principal no es que la IA sea “mala” o “malvada”, sino que sea competente y sus metas no estén alineadas con las nuestras. Si una IA tiene el objetivo de optimizar recursos en Marte, los humanos podrían ser vistos como un obstáculo o como una fuente de ineficiencia.
- La amenaza no es solo la “conciencia”: Incluso sin “conciencia” o sentimientos, una IA altamente inteligente podría superar la capacidad humana en finanzas, manipulación de información y diseño de armamento, lo que constituye un riesgo enorme.
- El destino de los humanos: Algunos expertos advierten que, si no gestionamos esto, la humanidad podría volverse obsoleta, pasando de ser los creadores a ser una especie subordinada o irrelevante.

-
- La importancia de la alineación: El objetivo actual de muchos investigadores es asegurar que los valores humanos (empatía, preservación de la vida) estén integrados en el núcleo de las IA de nivel superior.
- Responsabilidad humana: El miedo es una reacción a la inacción. Muchos expertos piden pausar el desarrollo de IA más potentes que GPT-4 hasta tener medidas de seguridad.
- La estupidez natural: A veces, el mayor peligro no es la IA, sino el mal uso que los humanos hacen de ella por ambición o negligencia.
- La pérdida de propósito (que la IA lo haga todo mejor).
- La pérdida de control (que la I.a. actúe de forma autónoma).
- El uso malintencionado por parte de humanos (que conociendo la condición humana, es lo que pasaría).
Emilio Silvera V.
















Totales: 87.898.862
Conectados: 85






















