Inteligencia Artificial

La ONU alerta del riesgo de integrar inteligencia artificial en sistemas nucleares

Expertos advierten de que la incorporación de inteligencia artificial generativa en los sistemas de mando nuclear podría acelerar decisiones militares, aumentar los ciberataques y debilitar la estabilidad estratégica mundial.

Inteligencia Artificial
Inteligencia Artificial

La posible integración de inteligencia artificial (IA) en los sistemas de mando, control y comunicaciones nucleares (NC3) está generando una creciente preocupación entre expertos y organismos internacionales. Diversos analistas alertan de que esta tecnología podría introducir riesgos sin precedentes para la seguridad global si se utiliza en decisiones militares de alto nivel.

El debate sobre el uso de la IA en el ámbito nuclear ha ganado fuerza en los últimos meses ante el rápido desarrollo de la inteligencia artificial generativa y su posible aplicación en sistemas de defensa. Informes recientes advierten de que esta tecnología podría modificar profundamente el funcionamiento de los sistemas de disuasión nuclear que han regido el equilibrio estratégico durante décadas.

Expertos alertan de que la inteligencia artificial aplicada al mando nuclear podría reducir el tiempo de reacción humana en crisis militares

La inteligencia artificial entra en el debate sobre el control nuclear

Según el Boletín de Científicos Atómicos, el sistema de mando y control de armas nucleares es una arquitectura extremadamente compleja diseñada para evitar errores y garantizar la fiabilidad incluso en situaciones de alta presión.

Sin embargo, el uso creciente de tecnologías de aprendizaje automático en entornos donde se procesan grandes cantidades de datos ha llevado a considerar su integración en estos sistemas.

Los especialistas advierten de que la incorporación de una tecnología que evoluciona con rapidez plantea cuestiones fundamentales sobre la fiabilidad de los sistemas, la calidad de los datos y la responsabilidad en la toma de decisiones.

Los expertos advierten de que los sistemas de inteligencia artificial pueden tomar decisiones a velocidades imposibles de supervisar por humanos

El riesgo de decisiones a la “velocidad de las máquinas”

El exjefe de Verificación y Política de Seguridad del Organismo Internacional de Energía Atómica (OIEA), Tariq Rauf, subraya que uno de los principales riesgos es la compresión de los tiempos de decisión hasta la denominada “velocidad de las máquinas”.

Históricamente, la estrategia nuclear ha dependido del juicio deliberado de los responsables políticos y militares, que deben analizar información incompleta o ambigua antes de responder a una posible amenaza.

Los sistemas de inteligencia artificial generativa (IAG), en cambio, están diseñados para procesar datos y generar respuestas en cuestión de segundos, una velocidad que ningún ser humano puede igualar.

Rauf advierte de que en una crisis esto puede generar una paradoja peligrosa: la rapidez que hace atractiva a la IA también puede reducir drásticamente la capacidad de supervisión humana.

Un error de interpretación en sensores o datos podría desencadenar una escalada nuclear en cuestión de segundos

Calidad de los datos y fiabilidad del sistema

Otro de los problemas identificados es la dependencia de los sistemas de inteligencia artificial de los datos con los que son entrenados.

En entornos nucleares, los expertos señalan que existen desafíos específicos: los eventos de alto riesgo son extremadamente raros, los datos históricos son limitados y los adversarios pueden introducir deliberadamente información falsa o manipulada.

Un sistema de inteligencia artificial que interprete incorrectamente datos alterados podría desencadenar una respuesta militar basada en información errónea.

Además, muchos modelos de aprendizaje automático presentan el conocido problema de la “caja negra”, lo que significa que ni siquiera sus desarrolladores pueden explicar con precisión cómo se genera una determinada decisión.

Los expertos advierten de que la falta de transparencia en los algoritmos complica la responsabilidad en caso de error

El debate sobre el control humano en las decisiones nucleares

Investigadores del Instituto Internacional de Estudios para la Paz de Estocolmo (SIPRI) señalan que los Estados que poseen armas nucleares coinciden en la necesidad de mantener el control humano en la toma de decisiones nucleares.

No obstante, todavía no existe consenso internacional sobre cómo definir o aplicar ese control humano cuando intervienen sistemas automatizados basados en inteligencia artificial.

La definición de mecanismos claros que garanticen esa supervisión se perfila como uno de los primeros pasos para minimizar los riesgos.

Gobernanza global de la inteligencia artificial

Durante la Cumbre sobre el Impacto de la Inteligencia Artificial celebrada en Nueva Delhi, el secretario general de la ONU, António Guterres, subrayó que el futuro de la IA no puede ser decidido únicamente por un pequeño grupo de países o empresas tecnológicas.

La Asamblea General de Naciones Unidas ha impulsado dos iniciativas para abordar este reto:

Iniciativa Objetivo
Panel Científico Internacional sobre IA Analizar los riesgos y oportunidades de la inteligencia artificial
Diálogo Global sobre Gobernanza de la IA Incluir a todos los países en el debate sobre regulación y control

Guterres afirmó que la inteligencia artificial debe desarrollarse con el objetivo de mejorar la vida de las personas y proteger el planeta, y pidió garantizar que todos los países tengan voz en su gobernanza.

Nuevos riesgos de ciberseguridad y responsabilidad

Los expertos también advierten de que los sistemas nucleares basados en inteligencia artificial podrían ampliar la superficie de ataque para ciberataques sofisticados.

Ataques informáticos diseñados para manipular datos o engañar a los algoritmos podrían alterar el funcionamiento de los sistemas de mando y control.

Además, la incorporación de sistemas automatizados plantea interrogantes sobre la responsabilidad en caso de errores catastróficos. Si una decisión basada en IA provoca una escalada militar, no está claro quién asumiría la responsabilidad: el desarrollador del software, los mandos militares o el gobierno que desplegó el sistema.

La cooperación internacional como vía para reducir los riesgos

Ante estos desafíos, algunos expertos defienden la necesidad de acuerdos internacionales que establezcan límites al uso de inteligencia artificial en sistemas nucleares.

Entre las propuestas se incluyen medidas de confianza, normas técnicas compartidas y acuerdos multilaterales que limiten el grado de autonomía de los sistemas basados en inteligencia artificial.

Según Rauf, la historia del control de armas demuestra que incluso los países rivales pueden acordar reglas cuando está en juego la supervivencia global.

Más información

La pérdida de confianza en la divisa estadounidense impulsa compras de oro por parte de los bancos centrales y dispara el precio del metal a máximos históricos.
Expertos en ciberseguridad alertan del aumento de ataques como deepfakes íntimos, sextorsión o estafas románticas, impulsados por herramientas de inteligencia artificial.
La moneda helvética se fortalece frente al euro y al dólar en plena tensión geopolítica, lo que lleva al Banco Nacional de Suiza a plantear posibles intervenciones para frenar su apreciación.

Lo más Visto