Ir al contenido
  1. Artículos/

Un estudio revela las 'palancas' que impulsan la persuasión política de los chatbots de IA

·6 mins·
Notaspampeanas
Ciencias Psicológicas Inteligencia Artificial Política Ciencias Sociales
Notaspampeanas
Autor
Notaspampeanas
Notaspampeanas
Tabla de contenido

Un nuevo estudio conjunto del Oxford Internet Institute (OII), la Universidad de Oxford y el AI Security Institute (AISI) ofrece información sin precedentes sobre cómo la IA conversacional puede ejercer influencia sobre las creencias políticas de las personas y qué las hace efectivas.

Imagen en Pixabay
Imagen en Pixabay

El artículo, The Levers of Political Persuasion with Conversational AI, fue escrito por un equipo del Oxford Internet Institute (OII), el UK AI Security Institute, la LSE, la Universidad de Stanford y el MIT, y fue publicado en Science. Examina cómo los enormes modelos de lenguaje (LLM) influyen en las actitudes políticas a través de la conversación.

Basándose en casi 77.000 participantes del Reino Unido y 91.000 diálogos de IA, el estudio proporciona la evidencia más completa hasta la fecha sobre los mecanismos de persuasión de la IA y sus implicaciones para la democracia y la gobernanza de la IA.

“Nuestros resultados demuestran el notable poder persuasivo de los sistemas de IA conversacionales en cuestiones políticas”, afirmó el autor principal, Kobi Hackenburg, candidato a doctorado en el OII e investigador científico del AISI. “Mostramos que modelos muy pequeños y ampliamente disponibles pueden ajustarse para ser tan persuasivos como los sistemas masivos de IA patentados”.

“Este artículo representa un análisis exhaustivo de las diversas maneras en que los LLM probablemente se utilicen para la persuasión política. Necesitamos urgentemente investigaciones como esta para comprender los efectos reales de los LLM en los procesos democráticos”, afirmó Helen Margetts, coautora y profesora del OII.

El artículo apunta que incluso los pequeños chatbots con IA de código abierto pueden ser eficaces persuasores políticos. Los resultados proporcionan un mapa empírico completo de los mecanismos que subyacen a la persuasión política de la IA, revelando que el entrenamiento posterior y las indicaciones, en lugar de la escala del modelo y la personalización, son las palancas dominantes.

También revela pruebas de una compensación entre persuasión y precisión, lo que redefine la forma en que los responsables políticos y los investigadores deben conceptualizar los riesgos de la IA persuasiva. Existe una creciente preocupación entre muchos de que los avances en IA, en particular los modelos de lenguaje conversacional (LLM), puedan pronto otorgar a las máquinas un poder de persuasión significativo sobre las creencias humanas a una escala sin precedentes. Sin embargo, se desconoce en gran medida lo persuasivos que son realmente estos sistemas y los mecanismos subyacentes que los hacen tan persuasivos.

Para explorar estos riesgos, Kobi Hackenburg y sus colegas investigaron tres cuestiones fundamentales: si los modelos más grandes y avanzados son intrínsecamente más persuasivos; si los modelos más pequeños pueden hacerse muy persuasivos mediante un entrenamiento específico posterior; y en qué tácticas se basan los sistemas de IA cuando intentan cambiar la opinión de las personas. Hackenburg y su equipo llevaron a cabo tres experimentos de encuesta a gran escala en los que participaron casi 77.000 personas que conversaron con 19 modelos LLM diferentes —desde pequeños sistemas de código abierto hasta modelos «pioneros» de última generación— sobre cientos de cuestiones políticas.

También probaron múltiples estrategias de incitación, varios métodos posteriores al entrenamiento y evaluaron cómo cada «palanca» afectaba al impacto persuasivo y a la precisión factual. Según los resultados, el tamaño del modelo y la personalización (proporcionar al LLM información sobre el usuario) produjeron efectos pequeños, pero medibles, en la persuasión.

Por otro lado, las técnicas posteriores al entrenamiento y las estrategias de incitación simples aumentaron drásticamente la persuasión, hasta en un 51 % y un 27 %, respectivamente. Una vez entrenados, incluso los modelos pequeños de código abierto podían rivalizar con los grandes modelos de vanguardia en el cambio de actitudes políticas. Hackenburg y sus colaboradores descubrieron que los sistemas de IA son más persuasivos cuando ofrecen argumentos ricos en información.

Aproximadamente la mitad de la variación en los efectos de persuasión entre los distintos modelos y métodos podía atribuirse a este único factor. Sin embargo, los autores también descubrieron una notable contrapartida: los modelos y las estrategias de incitación que eran eficaces para aumentar la persuasión a menudo lo hacían a expensas de la veracidad, lo que demuestra que la optimización de un modelo de IA para influir puede degradar inadvertidamente la precisión. En un artículo de Perspective, Lisa Argyle analiza este estudio y su estudio complementario, publicado en Nature, con mayor detalle.

Sí, el tema es tan relevante que un artículo con autores coincidentes y sobre temas relacionados, «Persuadir a los votantes mediante diálogos entre inteligencia humana y artificial», fue publicado en Nature el mismo día y a la misma hora.

Hallazgos clave
#

  • El tamaño del modelo no es el principal factor de persuasión
    Un temor común es que, a medida que aumenten los recursos informáticos y los modelos escalen, los LLM se volverán cada vez más hábiles en la persuasión, concentrando la influencia en unos pocos actores poderosos. Sin embargo, el estudio reveló que el tamaño del modelo solo desempeña un papel modesto.

  • El ajuste y el estímulo son más importantes que la escala
    El entrenamiento dirigido, incluyendo el ajuste fino supervisado y el modelado de recompensas, puede aumentar la persuasión hasta en un 51%, mientras que estrategias específicas pueden potenciar la persuasión hasta en un 27%. Estas técnicas permiten que incluso modelos modestos y de código abierto puedan transformarse en agentes altamente persuasivos.

  • La densidad de información impulsa la persuasión
    Los sistemas de IA más persuasivos fueron aquellos que generaban argumentos densos en información, respuestas llenas de afirmaciones que podían ser verificadas y relevantes para el argumento. Aproximadamente la mitad de la variación explicable en la persuasión entre modelos podría atribuirse únicamente a este factor.

  • La persuasión tiene un costo en términos de precisión
    El estudio revela un compromiso preocupante: cuanto más persuasivo es un modelo, menos precisa tiende a ser su información. Esto sugiere que optimizar los sistemas de IA para la persuasión podría socavar la veracidad, planteando serios desafíos para la confianza pública y la integridad de la información.

  • La conversación con IA supera a la mensajería estática
    Se descubrió que la IA conversacional era significativamente más persuasiva que los mensajes estáticos unidireccionales, lo que destaca un posible cambio en cómo la influencia puede operar en línea en los próximos años.

Los autores señalan que, si bien son persuasivos en entornos controlados, sus impactos en el mundo real pueden verse limitados por la voluntad de los usuarios de participar en conversaciones sostenidas y esforzadas sobre temas políticos.

Cita
#

  • El estudio The levers of political persuasion with conversational artificial intelligence (Las palancas de la persuasión política con inteligencia artificial conversacional) fue publicado en la revista Science. Autores: Kobi Hackenburg, Ben M. Tappin, Luke Hewitt, Ed Saunders, Sid Black, Hause Lin, Catherine Fist, Helen Margetts, David G. Rand, and Christopher Summerfield

Financiación
#

Este estudio recibió el apoyo de la Beca de Investigación para Jóvenes Profesionales del Leverhulme Trust ECF-2022-244 (B.M.T.) y del Departamento de Ciencia, Innovación y Tecnología del Reino Unido.

Agradecimientos
#

D.G.R. y C.S. son coautores principales. Los autores reconocen el uso de los recursos proporcionados por el Recurso Nacional de Investigación de IA (AIRR) de Isambard-AI. Isambard-AI es operado por la Universidad de Bristol y está financiado por el Departamento de Ciencia, Innovación y Tecnología (DSIT) del gobierno del Reino Unido, a través de Investigación e Innovación del Reino Unido, y el Consejo de Instalaciones Científicas y Tecnológicas (ST/AIRR/I-A-I/1023). Por su ayuda durante la recopilación de datos, agradecemos a L. Evans, M. Lee, S. Jones y A. Price de Prolific.


Contacto [Notaspampeanas](mailto: notaspampeanas@gmail.com)


Relacionados

Theia y la Tierra eran vecinas y confluyeron en la formación de la Luna
·7 mins
Notaspampeanas
Ciencias Planetarias Geoquímica
Agenda Cultural Pampeana: noviembre cierra con diversidad de propuestas
·7 mins
Notaspampeanas
La Pampa Agenda Cultural
¿Por qué algunos volcanes no explotan?
·6 mins
Notaspampeanas
Volcanes Vulcanología ETH De Zúrich
El cometa interestelar 3I-ATLAS es más brillante de lo previsto
·4 mins
Notaspampeanas
NASA 3I-ATLAS Cometa Interestelar
Chandra + AI: Un futuro de descubrimiento
·2 mins
Notaspampeanas
Observatorio De Rayos X Chandra Inteligencia Artificial Astronomía
La Pampa: Actividades integrales para concientizar sobre la Diabetes
·4 mins
Notaspampeanas
La Pampa Día Mundial De La Diabetes Salud