El artículo, The Levers of Political Persuasion with Conversational AI, fue escrito por un equipo del Oxford Internet Institute (OII), el UK AI Security Institute, la LSE, la Universidad de Stanford y el MIT, y fue publicado en Science. Examina cómo los enormes modelos de lenguaje (LLM) influyen en las actitudes políticas a través de la conversación.
Basándose en casi 77.000 participantes del Reino Unido y 91.000 diálogos de IA, el estudio proporciona la evidencia más completa hasta la fecha sobre los mecanismos de persuasión de la IA y sus implicaciones para la democracia y la gobernanza de la IA.
“Nuestros resultados demuestran el notable poder persuasivo de los sistemas de IA conversacionales en cuestiones políticas”, afirmó el autor principal, Kobi Hackenburg, candidato a doctorado en el OII e investigador científico del AISI. “Mostramos que modelos muy pequeños y ampliamente disponibles pueden ajustarse para ser tan persuasivos como los sistemas masivos de IA patentados”.
“Este artículo representa un análisis exhaustivo de las diversas maneras en que los LLM probablemente se utilicen para la persuasión política. Necesitamos urgentemente investigaciones como esta para comprender los efectos reales de los LLM en los procesos democráticos”, afirmó Helen Margetts, coautora y profesora del OII.
El artículo apunta que incluso los pequeños chatbots con IA de código abierto pueden ser eficaces persuasores políticos. Los resultados proporcionan un mapa empírico completo de los mecanismos que subyacen a la persuasión política de la IA, revelando que el entrenamiento posterior y las indicaciones, en lugar de la escala del modelo y la personalización, son las palancas dominantes.
Para explorar estos riesgos, Kobi Hackenburg y sus colegas investigaron tres cuestiones fundamentales: si los modelos más grandes y avanzados son intrínsecamente más persuasivos; si los modelos más pequeños pueden hacerse muy persuasivos mediante un entrenamiento específico posterior; y en qué tácticas se basan los sistemas de IA cuando intentan cambiar la opinión de las personas. Hackenburg y su equipo llevaron a cabo tres experimentos de encuesta a gran escala en los que participaron casi 77.000 personas que conversaron con 19 modelos LLM diferentes —desde pequeños sistemas de código abierto hasta modelos «pioneros» de última generación— sobre cientos de cuestiones políticas.
Por otro lado, las técnicas posteriores al entrenamiento y las estrategias de incitación simples aumentaron drásticamente la persuasión, hasta en un 51 % y un 27 %, respectivamente. Una vez entrenados, incluso los modelos pequeños de código abierto podían rivalizar con los grandes modelos de vanguardia en el cambio de actitudes políticas. Hackenburg y sus colaboradores descubrieron que los sistemas de IA son más persuasivos cuando ofrecen argumentos ricos en información.
Sí, el tema es tan relevante que un artículo con autores coincidentes y sobre temas relacionados, «Persuadir a los votantes mediante diálogos entre inteligencia humana y artificial», fue publicado en Nature el mismo día y a la misma hora.
Hallazgos clave #
-
El tamaño del modelo no es el principal factor de persuasión
Un temor común es que, a medida que aumenten los recursos informáticos y los modelos escalen, los LLM se volverán cada vez más hábiles en la persuasión, concentrando la influencia en unos pocos actores poderosos. Sin embargo, el estudio reveló que el tamaño del modelo solo desempeña un papel modesto. -
El ajuste y el estímulo son más importantes que la escala
El entrenamiento dirigido, incluyendo el ajuste fino supervisado y el modelado de recompensas, puede aumentar la persuasión hasta en un 51%, mientras que estrategias específicas pueden potenciar la persuasión hasta en un 27%. Estas técnicas permiten que incluso modelos modestos y de código abierto puedan transformarse en agentes altamente persuasivos. -
La densidad de información impulsa la persuasión
Los sistemas de IA más persuasivos fueron aquellos que generaban argumentos densos en información, respuestas llenas de afirmaciones que podían ser verificadas y relevantes para el argumento. Aproximadamente la mitad de la variación explicable en la persuasión entre modelos podría atribuirse únicamente a este factor. -
La persuasión tiene un costo en términos de precisión
El estudio revela un compromiso preocupante: cuanto más persuasivo es un modelo, menos precisa tiende a ser su información. Esto sugiere que optimizar los sistemas de IA para la persuasión podría socavar la veracidad, planteando serios desafíos para la confianza pública y la integridad de la información. -
La conversación con IA supera a la mensajería estática
Se descubrió que la IA conversacional era significativamente más persuasiva que los mensajes estáticos unidireccionales, lo que destaca un posible cambio en cómo la influencia puede operar en línea en los próximos años.
Cita #
- El estudio The levers of political persuasion with conversational artificial intelligence (Las palancas de la persuasión política con inteligencia artificial conversacional) fue publicado en la revista Science. Autores: Kobi Hackenburg, Ben M. Tappin, Luke Hewitt, Ed Saunders, Sid Black, Hause Lin, Catherine Fist, Helen Margetts, David G. Rand, and Christopher Summerfield
Financiación #
Este estudio recibió el apoyo de la Beca de Investigación para Jóvenes Profesionales del Leverhulme Trust ECF-2022-244 (B.M.T.) y del Departamento de Ciencia, Innovación y Tecnología del Reino Unido.
Agradecimientos #
D.G.R. y C.S. son coautores principales. Los autores reconocen el uso de los recursos proporcionados por el Recurso Nacional de Investigación de IA (AIRR) de Isambard-AI. Isambard-AI es operado por la Universidad de Bristol y está financiado por el Departamento de Ciencia, Innovación y Tecnología (DSIT) del gobierno del Reino Unido, a través de Investigación e Innovación del Reino Unido, y el Consejo de Instalaciones Científicas y Tecnológicas (ST/AIRR/I-A-I/1023). Por su ayuda durante la recopilación de datos, agradecemos a L. Evans, M. Lee, S. Jones y A. Price de Prolific.
- El artículo Oxford and AISI researchers reveal how conversational AI can change political opinions fue publicado en el sitio web del Oxford Internet Institute. Many thanks Kobi Hackenburg and Helen Margetts!!!
Contacto [Notaspampeanas](mailto: notaspampeanas@gmail.com)