¿Cómo prohibir los robots asesinos “antes de que sea demasiado tarde”?

Inteligencia Artificial

¿Cómo prohibir los robots asesinos “antes de que sea demasiado tarde”?

Amnistía Internacional reclama la prohibición de los sistemas de armas autónomos. “Aún no es tarde para cambiar de rumbo”.

Inteligencia artificial

Cortocircuito, Terminator, Wall-E, Transformers… Todas ellas son películas de robots, algunos adorables y simpáticos, otros más duros. No hay más que recordar a Arnold Schwarzenegger. La idea de “robots asesinos” empieza a ser una realidad ante los progresos tecnológicos, advierten colectivos como Amnistía Internacional, que llama a los países a acordar una nueva legislación internacional para prohibir los sistemas de armas autónomos.

“Los robots asesinos ya no son cosa de ciencia ficción. Desde los drones dirigidos por inteligencia artificial hasta las armas automáticas que pueden elegir su propio objetivo, los avances tecnológicos en armamento ganan terreno rápidamente al derecho internacional”, asegura Rasha Abdul Rahim, investigadora/asesora sobre Inteligencia Artificial y Derechos Humanos de Amnistía Internacional.

Según alerta, “nos deslizamos hacia un futuro en el que los seres humanos podrían verse eliminados de la toma de decisiones sobre el uso de la fuerza”. De ahí que aproveche la reunión que tiene lugar estos días en Ginebra sobre sistemas de armas autónomos letales para reclamar que los Estados aborden los “desafíos éticos, humanitarios, de derechos humanos y de seguridad planteados por los sistemas de armas totalmente autónomos”.

“Aún no es tarde para cambiar de rumbo. La prohibición de los sistemas de armas totalmente autónomos podría impedir algunos escenarios realmente distópicos, como una nueva carrera de armas de alta tecnología entre superpotencias mundiales que provocaría que las armas autónomas proliferaran ampliamente”, señala la investigadora de Amnistía.

En el último encuentro de la Convención sobre Ciertas Armas Convencionales antes de la mencionada cita en Ginebra las naciones destacaron la importancia de mantener el control humano sobre los sistemas de armamento y el uso de la fuerza y se abogó por nueva legislación internacional sobre sistemas de armas autónomos letales. En concreto, 26 de estos Estados, entre ellos Austria, Brasil y Egipto, pidieron una prohibición total. Otros se opusieron firmemente.

Ante esta división Amnistía Internacional llama a la reflexión. “El uso de armas totalmente autónomas para hacer cumplir la ley, sin control humano efectivo y significativo, sería incompatible con el derecho internacional”, sostiene, “y podría dar lugar a muertes y lesiones causadas de manera ilegítima y a otras violaciones de derechos humanos”. Por ello insisten en que hay que tomar “medidas concretas para detener la proliferación de estas peligrosas armas tanto en las calles como en el campo de batalla antes de que sea demasiado tarde”.

“Hasta ahora”, continúa en un comunicado, “la probabilidad de que las armas autónomas se utilicen en operaciones policiales, con todos los riesgos que ello comporta, no se ha tenido muy en cuenta. Pero existen ya drones capaces de disparar dardos de electrochoque, gas lacrimógeno y proyectiles de pimienta”. Y cita un ejemplo: “Israel ha utilizado recientemente drones semiautónomos para lanzar gas lacrimógeno contra manifestantes en Gaza, y es probable que volvamos a ver emplear este tipo de tecnología a organismos encargados de hacer cumplir ley en el futuro”, asegura Rasha Abdul Rahim.

Amnistía no está sola en esta campaña contra lo “robots asesinos”. Hace ahora un año un grupo de 116 expertos en inteligencia artificial liderados por el fundador de Tesla, Elon Musk, remitía una carta a Naciones Unidas en la que hablaban de una “tercera revolución de la guerra” después de la pólvora y las armas nucleares. En esta misiva pedían al organismo que incluyera a estas ‘máquinas’ dentro de la lista de armas prohibidas.

Más información