Verdad, Inspiración, Esperanza

La administración Biden rechaza los llamamientos para prohibir los ‘robots asesinos’

Published: 15 de diciembre de 2021
SHANGHAI, CHINA - 18 DE JUNIO: Un robot se ve en exhibición en el Pabellón de Inteligencia Artificial del Parque del Futuro de Zhangjiang durante una gira de medios organizada por el estado el 18 de junio de 2021 en Shanghai, China. (Imagen: Andrea Verdelli / Getty Images)

Mientras los activistas de los derechos humanos, respaldados por decenas de países, piden la prohibición total del uso de armas autónomas letales o «robots asesinos» antes de las conversaciones de alto nivel que se celebran esta semana en la Organización de las Naciones Unidas (ONU), el gobierno de Biden ha rechazado la idea de una prohibición y ha propuesto en cambio el establecimiento de un «código de conducta» para su uso.

El 13 de diciembre, el secretario general de la ONU, Antonio Guterres, pidió nuevas reglas que aborden el uso de armas autónomas durante la apertura de la Convención sobre ciertas armas convencionales, a la que asisten 125 partes esta semana, incluidos Estados Unidos, China e Israel.

“Animo a la Conferencia de Revisión a acordar un ambicioso plan para el futuro para establecer restricciones al uso de ciertos tipos de armas autónomas”, dijo Guterres en la apertura de las conversaciones.

Este es el octavo año que la ONU ha mantenido conversaciones para discutir los límites de las armas autónomas letales (LAWS), que son robots totalmente controlados por máquinas que dependen de la inteligencia artificial (IA) y el reconocimiento facial y operan con poca o ninguna intervención humana. 

Las conversaciones de este año son particularmente tensas después de que un informe de marzo indicara que el primer ataque con aviones no tripulados autónomos puede haber ocurrido ya en Libia. 

Varias partes que participan en las conversaciones están pidiendo una prohibición total de LAWS, incluido el gobierno de Austria, la organización internacional de defensa de los derechos humanos Amnistía Internacional y Stop Killer Robots, un grupo de defensa que cuenta con más de 180 organizaciones miembros.

El lunes se presentó una petición para que los países comiencen a negociar un tratado internacional para abordar la tecnología y su uso. 

Clare Conboy de Stop Killer Robots dijo a Reuters : “El ritmo de la tecnología realmente está comenzando a superar el ritmo de las conversaciones diplomáticas. Esta es una oportunidad histórica para que los estados tomen medidas para salvaguardar a la humanidad contra la autonomía en el uso de la fuerza”.

Detener a los robots asesinos 

Según el sitio web de la organización, Stop Killer Robots cree que «la tecnología debe usarse para empoderar a todas las personas, no para reducirnos a estereotipos, etiquetas, objetos o simplemente patrones de 1 y 0».

La organización afirma que las máquinas “no nos ven como personas” y argumenta que los robots asesinos no simplemente aparecen, sino que se crean y, por lo tanto, en última instancia, están bajo el control humano. 

Los avances en inteligencia artificial y aprendizaje automático están eliminando el factor humano de las acciones de los robots y ahora representan una amenaza para los derechos humanos en todo el mundo, dice la organización de defensa. 

La tecnología robótica ha avanzado a un ritmo vertiginoso. Elon Musk tuiteó en noviembre de 2017 «En unos pocos años, ese bot se moverá tan rápido que necesitarás una luz estroboscópica para verlo», al comentar sobre la última demostración de Boston Dynamics de su tecnología.

Si bien la predicción de Musk aún no se ha hecho realidad, los desarrolladores de robótica de todo el mundo, aparentemente semanalmente, publican nuevos avances que provocan tanto una sensación de asombro como de terror. 

Engineered Arts Ltd, una empresa de robótica e inteligencia artificial con sede en el Reino Unido que produce robots de entretenimiento, publicó este mes un video asombroso de su último diseño humanoide.

Engineered Arts afirma que su nuevo robot, Ameca, «es el robot con forma humana más avanzado del mundo que representa la vanguardia de la tecnología robótica humana», y que está «diseñado específicamente como una plataforma para el desarrollo de tecnologías robóticas futuras».

Si bien los avances de este tipo aturden a las multitudes, es la tecnología subyacente la que demuestra que podría ser explotada por los militares o los malos actores.

Amnistía Internacional tuiteó el 14 de diciembre: “Una vez se pensó que solo estaban en las películas, los robots asesinos ya no son un problema para el futuro. Se están desarrollando drones y otras armas avanzadas con la capacidad de elegir y atacar a sus propios objetivos, sin control humano».

Los militares están invirtiendo fuertemente en armas autónomas

Los militares de todo el mundo han invertido miles de millones en el desarrollo de robots autónomos. Solo EE. UU. invirtió US$ 18 mil millones en armas autónomas entre 2016 y 2020.

Quizás el problema emergente más alarmante no son las máquinas autónomas de alta gama capaces de generar violencia, sino las tecnologías de gama baja que son fácilmente accesibles y simples de operar que abren la puerta a los malos actores con recursos limitados para desatar violencia arbitraria sobre poblaciones civiles desprevenidas. 

Es casi seguro que los robots asesinos que son baratos, efectivos y casi imposibles de contener serán utilizados por personas fuera del control del gobierno, incluidos los terroristas nacionales e internacionales, para promover sus agendas. 

El Kargu-2, fabricado y distribuido por el contratista de defensa turco STM, es un dron cuadricóptero barato que funciona como dron y como bomba. Fácil de fabricar, el dron utiliza inteligencia artificial para encontrar y rastrear objetivos y se sospechaba que se utilizó durante la guerra civil libia para atacar a personas.

En marzo de 2020, un Kargu-2 atacó de forma autónoma a una persona durante un conflicto entre las fuerzas del gobierno libio y una facción militar disidente, liderada por Khalifa Haftar del Ejército Nacional Libio, informó el Daily Star.   

Según un informe de New Scientist, «los sistemas de armas autónomas letales se programaron para atacar objetivos sin requerir conectividad de datos entre el operador y la munición: en efecto, una verdadera capacidad de ‘disparar, olvidar y encontrar'».

En las conversaciones de esta semana, los diplomáticos creen que es poco probable que se llegue a un acuerdo sobre el uso de robots asesinos y esperan que los países se vean obligados a trasladar las conversaciones a otro foro, ya sea dentro o fuera de las Naciones Unidas.