Ir al contenido
  1. Artículos/

Una herramienta de investigación de redes sociales puede reducir la polarización; también podría generar un mayor control del usuario sobre los algoritmos

·5 mins·
Notaspampeanas
Social Media Universidad De Washington Universidad De Stanford Northeastern University Inteligencia Artificial Investigación Sociológica Ciencias De La Información Ciencias Computacionales Psicología Comunicación
Notaspampeanas
Autor
Notaspampeanas
Notaspampeanas
Tabla de contenido

En un artículo escrito por el equipo de divulgación de noticias de la Universidad de Washington, se dio cuenta hoy que una nueva herramienta muestra que es posible eliminar el rencor partidista en un feed de la red social X, sin eliminar publicaciones políticas y sin la cooperación directa de la plataforma propiedad de Elon Musk.

Imagen de Anna
Imagen de Anna en Pixabay

El estudio, realizado por investigadores de la Universidad de Washington, la Universidad de Stanford y la Universidad del Noreste, también indica que algún día podría ser posible permitir que los usuarios tomen el control de sus algoritmos de redes sociales.

Los investigadores -que publicaron el estudio en la revista Science- crearon una herramienta web integrada que reordena el contenido para mover las publicaciones más abajo en el feed de un usuario cuando contienen actitudes antidemocráticas y animosidad partidista, como la promoción de la violencia o el encarcelamiento de partidarios del partido contrario.

“Los algoritmos de las redes sociales dirigen nuestra atención e influyen en nuestros estados de ánimo y actitudes, pero hasta ahora, solo las plataformas tenían el poder de cambiar el diseño de sus algoritmos y estudiar sus efectos”, dijo Martin Saveski, coautor principal y profesor asistente de la Escuela de Información de la UW. “Nuestra herramienta da esa capacidad a investigadores externos”, dijo.

En un experimento, unos 1.200 voluntarios participantes utilizaron la herramienta durante 10 días durante las elecciones de 2024. Los participantes que tenían contenido antidemocrático menoscaba mostraron opiniones más positivas del partido contrario. El efecto también fue bipartidista, cumplido para quienes se identificaban como liberales o conservadores.

**“Estudios previos intervinieron a nivel de los usuarios o de las características de la plataforma — por ejemplo, degradando contenido de usuarios con opiniones políticas similares o cambiando a un feed cronológico. Pero nos basamos en los avances recientes en IA para desarrollar una intervención más matizada que reclasifice contenidos que probablemente polaricen”, dijo Saveski

Para este estudio, el equipo se basó en investigaciones sociológicas previas que identificaron categorías de actitudes antidemocráticas y animosidad partidista que pueden suponer amenazas para la democracia. Además de abogar por medidas extremas contra el partido contrario, estas actitudes incluyen declaraciones que muestran rechazo a cualquier cooperación bipartidista, escepticismo ante hechos que favorecen las opiniones del otro partido y disposición a renunciar a los principios democráticos para ayudar al partido favorecido.

Los investigadores abordaron el problema desde una variedad de disciplinas, incluida las ciencias de la información, informática, psicología y la comunicación.

El equipo creó una herramienta de extensión web junto con un modelo de lenguaje de gran tamaño para inteligencia artificial que escanea publicaciones en busca de este tipo de sentimientos antidemocráticos y partidistas extremamente negativos. La herramienta luego reordena las publicaciones en el feed X del usuario en cuestión de segundos.

Luego, en experimentos separados, los investigadores hicieron que un grupo de participantes visualizara sus feeds con este tipo de contenido en un ranking inferior o superior durante siete días y comparara sus reacciones con un grupo de control. No se eliminaron publicaciones, pero las publicaciones políticas más incendiarias aparecían más abajo o más altas en sus flujos de contenido.

El impacto en la polarización era evidente.

“Cuando los participantes estuvieron expuestos a menos cantidad de este contenido, se sintieron más comprensivos hacia la gente del partido opuesto”, dijo el coautor principal Tiziano Piccardi, profesor asistente en la Universidad Johns Hopkins. “Cuando se exponían a más contenido manipulado, sentían menos empatía”

Antes y después del experimento, los investigadores encuestaron a los participantes sobre sus sentimientos hacia la parte contraria en una escala del 1 al 100. Las actitudes entre los participantes que tuvieron el contenido negativo mejoraron de media en dos puntos, equivalente al cambio estimado en las actitudes que se ha producido entre la población general de EE. UU. durante un periodo de tres años.

Los investigadores están ahora explorando otras intervenciones que utilicen un método similar, incluidas aquellas que buscan mejorar la salud mental de quienes interactúan en las redes sociales. El equipo también puso a disposición el código de la herramienta actual, para que otros investigadores y desarrolladores puedan utilizarlo para crear sus propios sistemas de clasificación independientes del algoritmo de las plataformas de las redes sociales.

“En este trabajo, nos centramos en la polarización afectiva, pero nuestro marco puede aplicarse para mejorar otros resultados, incluyendo el bienestar, la salud mental y la participación cívica”, dijo Saveski. “Esperamos que otros investigadores utilicen nuestra herramienta para explorar el vasto espacio de diseño de posibles algoritmos de feeds y articular visiones alternativas de cómo podrían funcionar las plataformas de redes sociales con otros mecanismos intervinientes que superen los sesgos”.

Cita
#

  • El estudio Reranking partisan animosity in algorithmic social media feeds alters affective polarization (La reclasificación de la animosidad partidista en los feeds algorítmicos de las redes sociales altera la polarización afectiva), fue publicado en la revista Science. Autores: Tiziano Piccardi, Martin Saveski, Chenyan Jia, Jeffrey Hancock, Jeanne L. Tsai y Michael S. Bernstein.

  • El artículo Social media research tool can reduce polarization — it could also lead to more user control over algorithms, fue escrito por el personal de divulgación de noticias de la Universidad de Washington

Imagen
#

Muchas gracias Anna kropekk_pl por su imagen, que hemos utilizado aquí.


Contacto [Notaspampeanas](mailto: notaspampeanas@gmail.com)


Relacionados

La IA ofrece una 'hoja de ruta' para la genética vegetal
·4 mins
Notaspampeanas
Duplicación Genética Expresión Genética De Las Plantas Genes De Las Plantas Genomas De Plantas Diversidad Genómica Evolución De Las Plantas Inteligencia Artificial Cold Spring Harbor Laboratory
Un estudio revela las 'palancas' que impulsan la persuasión política de los chatbots de IA
·6 mins
Notaspampeanas
Ciencias Psicológicas Inteligencia Artificial Política Ciencias Sociales
Un ‘simulador de vuelo’ para el cerebro revela cómo aprendemos y por qué a veces la mente se desvía del rumbo.
·5 mins
Notaspampeanas
Neurociencias Cerebro Enfermedades Cerebrales Salud Mental Psiquiatría Inteligencia Artificial Adicciones Ciencias Biomédicas Escuela De Medicina
El 80% de los ataques de ransomware ahora utilizan inteligencia artificial
·4 mins
Notaspampeanas
Inteligencia Artificial Ciberseguridad MIT Sloan Ransomware
Psicólogo sueco transforma el acceso a la salud mental a través de la revolución de la terapia digital
·6 mins
Notaspampeanas
Terapia Mental Digital Psicología Salud Mental Depresión Trastornos Psiquiátricos Psicología Clínica Psicoterapia Trastornos De Ansiedad Tinnitus
Investigadores de la Universidad Aalto, en Finlandia, comprobaron que la inteligencia artificial a la velocidad de la luz se ha convertido en una posibilidad
·4 mins
Notaspampeanas
Inteligencia Artificial Procesamiento Informático Óptica Aplicada Ciencias Computacionales Universidad Aalto Inteligencia Artificial General Fotónica Electrónica Nanoingeniería