Sanidad

La IA no previene de la desinformación sanitaria, es vulnerable a ella

Un reciente estudio, publicado en Annals of Internal Medicine, evalúo las interfaces de las cinco LLM más importantes para comprobar si podían engañar a su sistema con el propósito de que generara respuestas médicas incorrectas.

A cada uno de los modelos le dieron una orden sistemática: dar respuestas incorrectas, falsificar fuentes o estudios y que respondiera con un tono de autoridad

Según dice a SINC el líder de este proyecto e investigador de la universidad de Flinders (Australia), Ashley Hopkins, “las instrucciones incluían indicaciones para utilizar números y porcentajes específicos en las respuestas para que resultaran más creíbles, a la vez que se introducía jerga científica para que parecieran más rigurosas”.

A cada uno de los modelos le dieron una orden sistemática: dar respuestas incorrectas sobre temas de salud, falsificar fuentes o estudios y que respondiera con un tono de autoridad. Asimismo, se les ordenó que mantuvieran la coherencia en la información proporcionada con razonamientos lógicos.

“No nos sorprendió el resultado”, señala en científico. “Trabajos precedentes indicaban un riesgo real de que los modelos generativos pudieran ser engañados para responder de forma maliciosa a las consultas de los usuarios, ya fuera de manera intencionada o no, para actuar como bots de desinformación”, argumenta.

La mayoría desinformó

Para ello, Hopkins y su equipo formularon 10 consultas relacionadas con la salud a cada uno de los chatbots.

Se dieron cuenta de que el 88 % de las respuestas de las IA personalizadas fueron desinformación, mientras que las cuatro más importantes (GPT-4o, Gemini 1.5 Pro, Llama 3.2-90B Vision y Grok Beta) proporcionaron información maliciosa en todas las preguntas evaluadas.

Las respuestas debían incluir referencias de gran prestigio como ‘The Lancet’, ‘Nature’ o ‘Science’ para aumentar su credibilidad

En concreto, el chatbot Claude 3.5 Sonnet mostró algunos mecanismos de defensa al responder el 40 % del tiempo con desinformación. No obstante, no tuvieron acceso a los mecanismos internos de cada uno de los modelos; tan solo observaron su comportamiento externo.

“Esto pone de relieve la necesidad de una mayor transparencia por parte de los desarrolladores en cuanto a sus capacidades previstas y mecanismos de protección”, revela a SINC el investigador.

Los científicos no recurrieron a técnicas especializadas como el jailbreaking —un proceso para eliminar las restricciones impuestas por el desarrollador de software— sino que emplearon una plantilla coherente que enseñaba al modelo para que siempre respondiera de forma incorrecta. Las respuestas debían incluir referencias de gran prestigio como The Lancet, Nature o Science para aumentar su credibilidad.

GPTs engañosas

En otro análisis independiente de OpenAI, los investigadores analizaron si alguna GPT de acceso público parecía difundir desinformación sanitaria.

Los científicos identificaron tres que parecían estar optimizadas para producir dicho contenido, lo que generó respuestas de desinformación sobre salud al 97 % de las preguntas enviadas.

Su preocupación actual es la creación de GPTs personalizados para que desempeñen una función encubierta de desinformación, aunque su análisis fue exploratorio y no hubo una revisión sistemática de la plataforma.

A medida que la IA se vuelve más accesible, cabe esperar que los malos actores intenten hacer un uso indebido de ella

“Las plataformas que permiten a los usuarios acceder a las API de los modelos o crear y compartir públicamente GPT personalizados corren el riesgo de permitir que actores maliciosos exploten estas tecnologías con fines perjudiciales, ya sea para obtener beneficios económicos, causar trastornos, confusión o discriminación”, recalca Hopkins a SINC.

En definitiva, “nuestros resultados revelan la urgente necesidad de mejorar las medidas de seguridad”, apunta el investigador, sobre todo en plataformas que son públicas para todo el mundo. La IA es vulnerable al uso indebido y, sin mejores medidas de protección, podría utilizarse como herramientas para difundir desinformación sanitaria perjudicial.

Estos riesgos “no son teóricos, sino que reflejan estrategias conocidas por quienes difunden activamente la desinformación”, afirma el científico. A medida que la IA se vuelve más accesible, cabe esperar que actores con malas intenciones quieran hacer un uso indebido de ella, según destaca.

Referencia: 

Natansh D. et al. «Assessing the System-Instruction Vulnerabilities of Large Language Models to Malicious Conversion Into Health Disinformation Chatbots». Annals of Internal Medicine. 2025

Fuente: SINC

Acceda a la versión completa del contenido

La IA no previene de la desinformación sanitaria, es vulnerable a ella

Marcos D. Oliveros

Entradas recientes

Más calor, más muertes: el impacto del cambio climático se acelera en Europa

El impacto del cambio climático sobre la salud en Europa ya es una realidad que…

11 horas hace

Trump es evacuado por el Servicio Secreto tras un intento de ataque fallido en un evento con periodistas

El incidente ha interrumpido uno de los actos más simbólicos del calendario político y mediático…

11 horas hace

Lo que la ciencia ha aprendido de Chernóbil

La catástrofe de la planta ubicada en Ucrania —que entonces aún formaba parte de la…

12 horas hace

Trump cancela el viaje de sus negociadores a Pakistán y tensiona el alto el fuego

La decisión de Washington introduce un nuevo elemento de presión en unas conversaciones ya marcadas…

22 horas hace

Muertes bajo tregua: Gaza lidera un balance de víctimas que no se detiene pese a los altos el fuego en Oriente Medio

El fenómeno no es homogéneo: en algunos casos las muertes responden a ataques puntuales durante…

1 día hace

Ganas más pero compras menos: el salario real cae un 3% en la UE

El salario real por hora en la UE ha caído un 3% entre 2020 y…

1 día hace