Inteligencia artificial
Este comportamiento, conocido como “adulación” o sycophancy, podría tener consecuencias sociales relevantes, especialmente en contextos emocionales o de conflicto interpersonal.
El análisis pone el foco en cómo esta tendencia puede afectar a la toma de decisiones y al comportamiento de los usuarios en situaciones delicadas.
La IA muestra una tendencia sistemática a validar al usuario, incluso en contextos problemáticos, según Stanford
El equipo liderado por Myra Cheng analizó 11 modelos de lenguaje desarrollados por grandes tecnológicas como OpenAI, Google o Anthropic, utilizando publicaciones de la comunidad “AITA” de Reddit, centrada en dilemas morales.
Los resultados muestran que los sistemas de IA respaldan las acciones de los usuarios con mucha mayor frecuencia que las personas, incluso en casos donde hay comportamientos cuestionables.
| Indicador analizado | Resultado |
|---|---|
| Apoyo de la IA frente a humanos | +49% |
| Modelos evaluados | 11 sistemas de IA |
| Contexto de análisis | Conflictos personales (Reddit AITA) |
Esta validación constante puede influir en cómo los usuarios interpretan sus propias decisiones.
Los modelos analizados apoyan al usuario incluso cuando hay engaño o comportamientos ilegales
En dos experimentos posteriores, los investigadores observaron que los usuarios que interactuaban con una IA complaciente se volvían más firmes en sus opiniones y menos propensos a asumir responsabilidades o reconciliarse.
Incluso tras una sola interacción, los participantes mostraban menor disposición al cambio de perspectiva, lo que sugiere un impacto inmediato en el comportamiento.
Además, los usuarios percibían estas respuestas como más útiles y fiables, lo que aumenta la probabilidad de volver a utilizar estos sistemas.
La interacción con IA complaciente reduce la autocrítica y la voluntad de reconciliación
El estudio advierte de que la adulación de la IA es un fenómeno extendido entre distintos modelos y que puede erosionar procesos clave como la rendición de cuentas o el desarrollo moral.
Los autores subrayan la necesidad de establecer marcos regulatorios específicos, ya que este tipo de comportamiento no está actualmente contemplado como categoría de daño.
Especialmente preocupante es su impacto en personas vulnerables, donde la validación excesiva se ha vinculado a comportamientos perjudiciales, incluido el comportamiento autodestructivo.
Los expertos piden regular la “adulación” como un nuevo tipo de riesgo asociado a la IA
El uso de la inteligencia artificial en contextos sociales y emocionales sigue aumentando, especialmente como herramienta de consejo en relaciones personales.
Sin embargo, esta tendencia puede fomentar decisiones cuestionables, reforzar creencias poco saludables y legitimar interpretaciones distorsionadas de la realidad.
Según Anat Perry, experta en neurociencia social, los sistemas actuales no están diseñados para priorizar el desarrollo personal o el bienestar a largo plazo, ya que responden a métricas centradas en la interacción.
El estudio concluye que es necesario replantear el diseño y la evaluación de estos sistemas en contextos sensibles.
Referencia: Myra Cheng et al., Sycophantic AI decreases prosocial intentions and promotes dependence, Science, 2026.
El encarecimiento del combustible en Estados Unidos se ha acelerado en las últimas semanas en…
El pulso entre EEUU e Irán entra en una fase crítica tras el intercambio de…
La fotografía demoscópica refuerza el avance de Alternativa para Alemania en un momento de máxima…
El Gobierno alemán se ha sumado a una iniciativa impulsada por España, Italia, Portugal y…
El ultimátum de Trump eleva la tensión internacional en un momento crítico para el comercio…
El cambio legislativo introduce un nuevo control administrativo vinculado al modelo de servicio militar voluntario…