redes sociales
El veredicto es revolucionario por su enfoque: no juzga el contenido, sino la arquitectura misma de la adicción. Y ante esta nueva frontera de la responsabilidad digital, la pregunta es ineludible: ¿contamos en nuestro ordenamiento con las herramientas para seguir ese camino? La respuesta es un sí rotundo.
Esta sentencia abre la puerta a la exigencia de responsabilidades en España, que ya cuenta con un arsenal jurídico preparado para proteger a los usuarios de algoritmos manipuladores.
El veredicto es revolucionario por su enfoque: no juzga el contenido, sino la arquitectura misma de la adicción
El primer gran pilar para construir un caso similar en Europa ya está en pie. El reciente Reglamento de Inteligencia Artificial de la UE, una normativa pionera en el mundo, establece líneas rojas muy claras. Tal y como se ha debatido en el seno del Parlamento europeo, la ley prohíbe explícitamente aquellos sistemas de IA que utilicen técnicas subliminales que trascienden la conciencia humana para alterar el comportamiento de una persona de manera que le cause un perjuicio.
Su artículo 5 establece las “prácticas de inteligencia artificial prohibidas”, entre las que figuran los sistemas de IA que tengan como objetivo o efecto alterar de manera sustancial el comportamiento humano con la probabilidad de causar perjuicios considerables, así como aquellos que utilicen componentes subliminales —estímulos que trascienden la percepción humana— u otras técnicas manipulativas o engañosas que perjudiquen la autonomía y la capacidad de elección de las personas.
¿Acaso no es esta una descripción precisa de los algoritmos de diseño adictivo?
Mecanismos como el scroll infinito, la reproducción automática por defecto o el sistema de notificaciones constantes no son meras funcionalidades; son técnicas de ingeniería conductual diseñadas para capturar y retener nuestra atención, a menudo, explotando vulnerabilidades psicológicas que se acentúan cuando los usuarios, además, son menores de edad.
Mecanismos como el scroll infinito, la reproducción automática por defecto o el sistema de notificaciones constantes no son meras funcionalidades; son técnicas de ingeniería conductual diseñadas para capturar y retener nuestra atención
Actúan en un plano que escapa al control consciente del usuario, generando patrones de uso compulsivo. La nueva normativa europea, por tanto, no solo los regula, sino que los podría considerar directamente ilegales, abriendo una vía directa para reclamar contra quienes los diseñan y despliegan.
Más allá de la normativa europea de futuro, la legislación española vigente ofrece un completo abanico de instrumentos para hacer frente a este desafío.
De forma sorprendentemente premonitoria, nuestro ordenamiento ya reconoce las adicciones “sin sustancia”. El artículo 2 de la Ley 1/2016, de atención integral de adicciones y drogodependencias, considera como adicciones comportamentales “las conductas excesivas en el uso de las tecnologías digitales y sus nuevas aplicaciones y, en particular, las relacionadas con el uso de las redes sociales y los videojuegos”.
Nuestro ordenamiento ya considera como adicciones comportamentales las conductas excesivas en el uso de las tecnologías digitales y sus nuevas aplicaciones y, en particular, las relacionadas con el uso de las redes sociales y los videojuego
La ley no solo lo reconoce, sino que en su artículo 51 insta a las administraciones a desarrollar medidas para prevenir los riesgos de su uso excesivo. Esto proporciona una base legal sólida para argumentar que el diseño que fomenta activamente estas conductas es, en sí mismo, una práctica ilícita.
El caso de Los Ángeles se centró en los daños sufridos por una joven que se volvió adicta durante su infancia. En España, la Ley Orgánica 8/2021, de protección integral a la infancia y la adolescencia frente a la violencia, establece, en su artículo 46, el deber de las administraciones de fomentar “entornos digitales seguros” y de colaborar con el sector privado para proteger a los menores de contenidos y contactos nocivos. Un diseño que genera adicción es, por definición, un entorno digital inseguro para un menor.
Por otra parte, la Ley Orgánica 3/2018, de Protección de Datos Personales y garantía de los derechos digitales, es otra pieza clave, ya que los algoritmos adictivos se nutren de la ingente cantidad de datos personales que recopilan para crear perfiles conductuales ultrapersonalizados. Esta práctica choca frontalmente con la exigencia de un consentimiento libre e informado.
¿Puede considerarse libre un consentimiento prestado en una interfaz diseñada para manipular la voluntad del usuario
¿Puede considerarse libre un consentimiento prestado en una interfaz diseñada para manipular la voluntad del usuario? La respuesta parece negativa.
El argumento central en el caso estadounidense –la responsabilidad por el diseño y no por el contenido– es la llave maestra que también podría abrir las puertas de los tribunales en España, pues es un precedente de suma importancia.
En este país y en Europa también tenemos normativa encamina a la protección de los usuarios frente a esas empresas multinacionales.
La Ley de servicios digitales (DSA) europea impone a las plataformas de muy gran tamaño la obligación de evaluar y mitigar los “riesgos sistémicos”, entre los que se incluyen los efectos negativos para la salud mental.
Esto va más allá de la mera moderación de contenidos. Un diseño adictivo es un riesgo sistémico inherente a la propia estructura del servicio. Esto permite superar el tradicional “puerto seguro” del artículo 16 de la Ley 34/2002, de 11 de julio, ya que la plataforma no actúa como un mero intermediario, sino como el arquitecto activo de un entorno perjudicial.
Un algoritmo o una plataforma digital pueden ser considerados un producto. Si su diseño causa un daño demostrado (como la adicción y los problemas de salud mental derivados), podría ser calificado como defectuoso, generando una responsabilidad civil directa para su desarrollador
En la misma línea, la reciente Directiva 2024/2853 del Parlamento Europeo y del Consejo, de 23 de octubre de 2024, sobre responsabilidad por productos defectuosos, que incluye el software y la IA, ofrece otra vía prometedora. Un algoritmo o una plataforma digital pueden ser considerados un “producto”. Si su diseño intrínseco causa un daño demostrado (como la adicción y los problemas de salud mental derivados), podría ser calificado como “defectuoso”, generando una responsabilidad civil directa para su desarrollador.
Un diseño algorítmico que, de forma deliberada y con conocimiento de sus efectos, cause un deterioro grave de la salud psíquica de una persona, especialmente si es vulnerable como un menor, podría ser analizado bajo el prisma de los delitos que atentan contra la integridad moral (art. 173 a 177 del Código Penal español).
Ahora bien, hace falta voluntad política y también valentía para enfrentarse judicialmente a estas empresas multinacionales. España y Europa no solo pueden, sino que deben tomar nota de que sí se puede.
* Francesc Feliu Pamplona, profesor experto en litigación administrativa y responsabilidad sanitaria, Universitat de Barcelona
Fuente: The Conversation
El Sistema de análisis de bajas de defensa del Pentágono ha actualizado el recuento de…
El Pontífice sostuvo la cruz durante las catorce estaciones del recorrido, un gesto con fuerte…
La crisis energética derivada de la guerra en Oriente Medio está obligando a la UE…
El presupuesto presentado por la Casa Blanca para el próximo ejercicio fiscal introduce un cambio…
La situación se ha deteriorado de forma notable desde 2019, cuando este problema afectaba al…
Mientras tanto, mañana, tarde y noche, día por día es el difunto líder Fidel Castro…