La violencia digital contra las mujeres crece con la inteligencia artificial

Expertos en ciberseguridad alertan del aumento de ataques como deepfakes íntimos, sextorsión o estafas románticas, impulsados por herramientas de inteligencia artificial.

Movil y ordenador
Dispositos

La violencia digital contra las mujeres está aumentando con la expansión de la inteligencia artificial (IA). Expertos en ciberseguridad advierten de un crecimiento de ataques como deepfakes íntimos, sextorsión o fraude romántico, que combinan extorsión, manipulación emocional y daño reputacional.

La violencia hacia las mujeres no solo se manifiesta en el ámbito físico o social, sino también en el entorno digital. Con motivo del Día Internacional de la Mujer, que se celebra cada 8 de marzo, especialistas de Panda Security han advertido de un incremento de los ciberataques dirigidos específicamente contra mujeres, muchos de ellos potenciados por herramientas de inteligencia artificial.

El aumento de la actividad en redes sociales, aplicaciones de citas y servicios de mensajería ha abierto nuevas vías para que los ciberdelincuentes desarrollen ataques que combinan fraude, acoso y manipulación psicológica, generando nuevas formas de violencia digital.

El 12,2% de las mujeres en España ha sufrido acoso digital en algún momento, según datos del Ministerio de Igualdad

Aumento del acoso digital contra mujeres

Aunque los problemas de seguridad online afectan tanto a hombres como a mujeres, existen determinados ataques donde las mujeres resultan afectadas de forma desproporcionada. Según la Macroencuesta de Violencia contra la Mujer 2024, publicada en 2025 por el Ministerio de Igualdad, el 12,2% de las mujeres encuestadas ha sufrido acoso digital en algún momento.

Además, el 0,8% de las mujeres encuestadas ha sido víctima de la difusión de fotos o vídeos de contenido sexual, ya sean reales o manipulados, sin su consentimiento.

Indicador sobre violencia digital Porcentaje
Mujeres que han sufrido acoso digital 12,2%
Mujeres afectadas por difusión de contenido íntimo sin consentimiento 0,8%

Los expertos advierten de que la inteligencia artificial está amplificando los ataques digitales al facilitar la creación de contenido falso o manipulado

Deepfakes íntimos y sextorsión impulsados por IA

Uno de los fenómenos que más se está extendiendo es el uso de deepfakes íntimos, vídeos o imágenes manipulados con inteligencia artificial que simulan contenido sexual utilizando el rostro o la identidad de una persona.

Según el director de Operaciones Globales de Consumo de Panda Security, Hervé Lambert, este tipo de material suele emplearse como herramienta de chantaje, acoso o daño reputacional, con el objetivo de intimidar o controlar a la víctima.

La sextorsión también ha evolucionado con el uso de inteligencia artificial. Tradicionalmente, los ciberdelincuentes obtenían material íntimo mediante engaños, por ejemplo en aplicaciones de citas. Sin embargo, ahora pueden fabricar imágenes falsas a partir de fotografías públicas, lo que aumenta la presión psicológica sobre las víctimas.

Los expertos recomiendan limitar la difusión de imágenes íntimas, utilizar contraseñas seguras y autenticación en dos factores, y desconfiar de perfiles que intenten llevar rápidamente las conversaciones al terreno íntimo.

Las estafas románticas y el clonaje de voz son otras amenazas que utilizan inteligencia artificial para manipular emocionalmente a las víctimas

Estafas románticas, clonaje de voz y phishing

Otra modalidad de ataque es el fraude romántico, en el que los delincuentes crean perfiles falsos en redes sociales o aplicaciones de citas para establecer relaciones ficticias con sus víctimas. Tras semanas o meses de interacción, solicitan dinero aprovechando la confianza creada.

La inteligencia artificial está permitiendo a los estafadores adaptar sus mensajes a la personalidad de cada víctima, lo que aumenta la eficacia de estos engaños.

También se están extendiendo otras amenazas como el clonaje de voz, que permite suplantar identidades para pedir dinero urgente mediante llamadas, o el phishing hiperpersonalizado, en el que los delincuentes imitan comunicaciones legítimas de empresas o entidades financieras para robar datos personales.

Principales ataques digitales detectados Descripción
Deepfakes íntimos Vídeos o imágenes sexuales manipulados con IA
Sextorsión Chantaje con contenido íntimo real o falso
Fraude romántico Relaciones falsas para obtener dinero
Clonaje de voz Suplantación de identidad mediante audio generado por IA
Phishing personalizado Mensajes fraudulentos que imitan comunicaciones legítimas

El brigading, el doxing y el uso de stalkerware representan nuevas formas de acoso digital vinculadas a dinámicas de control

Brigading, doxing y espionaje digital

Entre las formas de violencia digital también aparecen prácticas como el brigading, que consiste en ataques coordinados de múltiples cuentas contra una persona en internet para desacreditarla o intimidarla.

Otra práctica es el doxing, que implica recopilar y publicar datos personales —como dirección o lugar de trabajo— con el objetivo de facilitar el acoso.

Por último, los expertos alertan del uso de stalkerware, programas espía instalados en teléfonos móviles para acceder a mensajes, ubicación o fotografías sin consentimiento. Estas herramientas se utilizan en ocasiones dentro de situaciones de control o violencia de género.

Ante cualquiera de estos ataques, los especialistas recomiendan no ceder a chantajes, guardar pruebas y denunciar los hechos tanto en las plataformas digitales afectadas como ante las autoridades competentes.

Más información

La pérdida de confianza en la divisa estadounidense impulsa compras de oro por parte de los bancos centrales y dispara el precio del metal a máximos históricos.
Expertos en ciberseguridad alertan del aumento de ataques como deepfakes íntimos, sextorsión o estafas románticas, impulsados por herramientas de inteligencia artificial.
La moneda helvética se fortalece frente al euro y al dólar en plena tensión geopolítica, lo que lleva al Banco Nacional de Suiza a plantear posibles intervenciones para frenar su apreciación.

Lo más Visto