Robots decidiendo atacar humanos – Advertencia de la ONU

Un informe extraído de undocs.org expuso lo siguiente:
“Los convoyes logísticos y las fuerzas afiliadas a Haftar en retirada fueron posteriormente perseguidos y atacados a distancia por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales como el STM Kargu-2 (véase el anexo 30) y otras municiones de merodeo. Los sistemas de armas autónomos letales se programaron para atacar objetivos sin requerir la conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de “disparar, olvidar y encontrar”. Los vehículos aéreos de combate no tripulados y la pequeña capacidad de inteligencia, vigilancia y reconocimiento de drones con que cuentan las fuerzas afiliadas a Haftar fueron neutralizados mediante interferencia electrónica gracias al sistema de guerra electrónica Koral.”
En dicho informe se observa que un dron de fabricación turca realizó la primera matanza autónoma del mundo en Libia, contra objetivos humanos. Literalmente es una inteligencia artificial decidiendo (con toda la concepción filosófico que gira en torno a dicho concepto) cuando accionar su carga letal contra seres humanos desprotegidos.
Según trascendió en Bles, Clare Conboy de Stop Killer Robots, un conjunto de organizaciones no gubernamentales que buscan prohibir de manera preventiva las armas autónomas letales, dijo durante la semana de las conversaciones en la ONU, que la velocidad con la que avanza la tecnología “realmente está comenzando a superar el ritmo de las conversaciones diplomáticas”. El sitio oficial stopkillerrobots.org da un mensaje muy interesante:
«Desde hogares inteligentes y publicidad dirigida hasta el uso de perros robot por parte de la policía, las tecnologías de inteligencia artificial y la toma de decisiones automatizada ahora juegan un papel importante en nuestras vidas… Muchas tecnologías con diversos grados de autonomía ya se están implementando ampliamente sin detenerse a considerar las consecuencias de normalizar su uso. ¿Por qué tenemos que hablar de esto? Porque las máquinas no nos ven como personas, sólo como otra pieza de código para procesar y analizar»

Lo que parecía un capítulo de ficción extraído de Black Mirror, Terminator, Matrix o Westworld, de hecho, es más real de lo que parece. Tal como reveló el informe de la ONU, un dron de fabricación turca realizó la primera matanza autónoma del mundo en Libia, contra objetivos humanos.
Antonio Guterres, secretario general de la ONU, el pasado lunes 13 de diciembre durante una convención en Ginebra, planteó la necesidad de nuevas reglas que regulen el uso de armas autónomas, que según los reportes están siendo desarrollados por China, Rusia y Estados Unidos. “Animo a la Conferencia de Revisión a acordar un plan ambicioso para el futuro para establecer restricciones sobre el uso de ciertos tipos de armas autónomas”, dijo Guterres. La ONU, después de 5 días de conversaciones, no llegó a un acuerdo para la prohibición de los “robots asesinos” a pesar del activismo de Clare Conboy de Stop Killer Robots quien sostuvo que la velocidad con la que avanza la tecnología “realmente está comenzando a superar el ritmo de las conversaciones diplomáticas”; ella aseguró que esa era “una oportunidad histórica” para que los países tomen medidas “para salvaguardar a la humanidad contra la autonomía en el uso de la fuerza”.
Según los expertos, las máquinas que toman sus propias decisiones tienen errores impredecibles que surgen de fallas en los códigos algorítmicos, los cuales pueden llevar a consecuencias catastróficas, incluso a escala armagedonica si llegan a estar armadas con ojivas biológicas, químicas o incluso nucleares. “Es un mundo en el que el tipo de errores algorítmicos inevitables que afectan incluso a gigantes tecnológicos como Amazon y Google ahora pueden llevar a la eliminación de ciudades enteras”, advierte el profesor James Dawes de Macalester College. Quizás sea momento de empezar a quienes promueven las ideas BioConservadoras dado que la fe ciega del modernismo en la técnica separada de la moral ya ha dado suficientes frutos en el Siglo XX para que uno tenga un legítimo escepticismo a estas invenciones.

La “discrecionalidad” en los ataques de drones autónomos son una realidad que ya ha costado vidas inocentes en Libia. Más complejo se vuelve el mundo militar cuando se lee el titular en la noticia de The Sun: “China desarrolla un robot ‘Sea Hunter’, un buque de guerra ‘capaz de disparar torpedos’ en una base naval ultrasecreta, sugieren fotos de satélite”. China tiene en su poder desde hace una década un robot submarino diseñado para rastrear y destruir barcos enemigos de forma autónoma. La nación bajo el poder del Partido Comunista representa una amenaza real a nivel global, ello sin considerar el ya establecido poder económico hegemónico que posee gracias al ecologismo.
La preocupación de los expertos también viene dada también por el menor costo que que representaría una guerra con este tipo de armamentos siendo que las armas robóticas asesinas significan menos soldados en la línea de fuego. The Sun indicó que, en abril, “un funcionario del Pentágono confirmó que están considerando si algún día será necesario eliminar a los humanos de la cadena de mando en situaciones en las que no puedan responder con la suficiente rapidez contra los robots enemigos”.
Tal como se observa, el avance de la técnica representa un riesgo real para la humanidad. Hoy no es una ficción que existen maquinarias con plena autonomía para atacar a discresionalidad a los seres humanos, y, si se considera que el hombre creador puede errar, nada impide que su creación erre y, por qué no, se rebele. La prudencia de los BioConservadores hoy resulta más que necesaria si desea conservar una sociedad donde la técnica no reemplace la dirección moral del Hombre.