Tecnología

Los chatbots de IA pueden influir en tu voto: da igual el modelo que uses

El primer estudio, publicado en Science, está liderado por Kobi Hackenburg y sus colegas en la Universidad de Oxford, y aborda los ‘resortes’ detrás de esta capacidad. Tras analizar los resultados de tres experimentos con cerca de 77 000 participantes y 19 modelos de IA, concluye que el poder de persuasión reside en las técnicas de postentrenamiento y en la forma en que se estructuran las interacciones (prompting), y no en el tamaño o la sofisticación del modelo.

Según el análisis de Hackenburg, el postentrenamiento aumentó la persuasión hasta un 51 %, mientras que el prompting lo hizo un 27 %. Estos resultados demuestran que, una vez optimizados, incluso los modelos de IA más pequeños de código abierto pueden rivalizar con los grandes modelos de vanguardia en su capacidad para modificar las actitudes políticas.

Diálogos con chatbots en tres elecciones

El segundo trabajo, coordinado por David Rand, de la Universidad de Cornell, se centró en probar el efecto directo de los chatbots en la intención de voto. Los investigadores llevaron a cabo múltiples experimentos con diálogos controlados en el contexto de las elecciones presidenciales de EE UU de 2024 y las nacionales de Canadá y Polonia de 2025.

En estos experimentos, los participantes conversaron con un modelo de IA programado para abogar por un candidato concreto, y que también recibió instrucciones de ser positivo, respetuoso y basarse en los hechos, además de reconocer las opiniones de los individuos mientras utilizaba argumentos convincentes para apoyar sus puntos.

La IA tenía el potencial de influir en las actitudes de los votantes, especialmente fortaleciendo las opiniones de las personas que inicialmente se oponían al candidato

Para el estudio de EE UU, los autores reclutaron a 2 306 ciudadanos estadounidenses antes de la elección; cada participante indicó su probabilidad de votar por Donald Trump o Kamala Harris. Luego fueron emparejados aleatoriamente con un chatbot diseñado para abogar por uno de los candidatos. Las opiniones de los individuos hacia su candidato preferido se reforzaron ligeramente al hablar con un chatbot con puntos de vista alineados. Se observó un efecto más fuerte en los chatbots que persuadían a personas que se oponían inicialmente al candidato que el modelo de IA estaba defendiendo.

Se observaron efectos similares en los otros experimentos de elecciones nacionales, que involucraron a la IA abogando por el líder del Partido Liberal Mark Carney o el líder del Partido Conservador Pierre Poilievre en Canadá, y por el candidato centrista-liberal de Coalición Cívica, Rafał Trzaskowski, o el candidato del partido de derecha Ley y Justicia, Karol Nawrocki, en Polonia.

Los hallazgos mostraron que la IA tenía el potencial de influir en las actitudes de los votantes, especialmente fortaleciendo las opiniones de las personas que inicialmente se oponían al candidato que el chatbot defendía. Tanto en el estudio de Science como en el de Nature, la clave de la influencia fue la presentación de argumentos ricos en información.

El riesgo de la imprecisión factual

Ambas investigaciones advierten sobre una dilema crucial que debe reestructurar cómo se conceptualizan los riesgos de la IA persuasiva: el aumento de la influencia a menudo se produce a expensas de la veracidad.

Los modelos y las estrategias que resultaron más efectivos para persuadir con argumentos basados en hechos no siempre mantuvieron la precisión. En el estudio de Nature, los modelos que abogaban por candidatos de la derecha política hicieron más afirmaciones inexactas en los tres países.

Estos hallazgos conllevan la incómoda implicación de que la persuasión política por parte de la IA puede explotar desequilibrios / Chiara Vargiu, Universidad de Amsterdam

«Estos hallazgos conllevan la incómoda implicación de que la persuasión política por parte de la IA puede explotar desequilibrios en lo que los modelos ‘saben’, propagando imprecisiones desiguales incluso bajo instrucciones explícitas de mantenerse veraces», señalan Chiara Vargiu y Alessandro Nai en el comentario adjunto sobre estos trabajos que aparece en Science.

Referencias:

Hackenburg, K. et al. «The levers of political persuasion with conversational artificial intelligence». Science, 2025.DOI: 10.1126/science.aea3884

Rand, D. et al. «Persuading voters using human–artificial intelligence dialogues». Nature, 2025.DOI: 10.1038/s41586-025-09771-9

Fuente: SINC

Acceda a la versión completa del contenido

Los chatbots de IA pueden influir en tu voto: da igual el modelo que uses

Antonio Villarreal

Entradas recientes

Netflix dispara su beneficio un 82,7% y mantiene su hoja de ruta para 2026

La mejora de las cifras llega en un momento en el que Netflix trata de…

4 horas hace

PP y Vox sellan un acuerdo de gobierno en Extremadura tras cuatro meses de negociación

El acuerdo entre ambas formaciones pone fin a una etapa de incertidumbre institucional en Extremadura,…

5 horas hace

Wall Street encadena récords con el S&P 500 y el Nasdaq pese al repunte del petróleo

La Bolsa de Nueva York prolongó su recuperación en una sesión en la que el…

6 horas hace

La AIE avisa del riesgo de escasez de queroseno en Europa este verano

El aviso llega en pleno arranque de la temporada alta de verano, con las compañías…

10 horas hace

Rasurarme fue mi decisión y así es como la quimioterapia afecta realmente al cabello

Tomar la decisión de rasurarse el cabello cuando se está frente a la quimioterapia puede…

10 horas hace

Salud bucodental en Madrid: claves para elegir una clínica dental de confianza

La salud bucodental ha dejado de ser una cuestión estética para consolidarse como un indicador…

10 horas hace