Pequeñas recompensas hacen que las personas vean la verdad en información políticamente desfavorable

La pregunta de por qué tantas personas están dispuestas a compartir información errónea en línea es una gran preocupación para los científicos del comportamiento. Es fácil pensar que la parcialidad impulsa todo: las personas solo compartirán cosas que hacen que su lado se vea bien o que sus oponentes se vean mal. Pero la realidad es un poco más complicada. Los estudios han demostrado que muchas personas no verifican cuidadosamente la precisión de los enlaces, y que la parcialidad puede ser secundaria a la prisa por obtener muchos Me gusta en las redes sociales. Dado eso, no está claro qué impulsa a los usuarios a dejar de compartir cosas que, después de una pequeña verificación, resultarían ser falsas. Entonces, un equipo de investigadores intentó lo obvio: le daremos dinero si se detiene y califica la precisión de una historia. El trabajo muestra que los pagos pequeños e incluso las recompensas mínimas aumentan la precisión de la evaluación de las historias por parte de las personas. Casi todo el efecto proviene de personas que reconocen historias que no reconocen su postura política como objetivamente correcta. Si bien el efectivo aumentó más la precisión de los conservadores, quedaron tan rezagados con respecto a los liberales en la evaluación de la precisión que la brecha sigue siendo sustancial.

dinero por precisión

Los conceptos básicos de los nuevos experimentos son bastante simples: reúna a algunas personas, pregúnteles cuáles son sus inclinaciones políticas y luego muéstreles una serie de titulares tal como aparecerían en un sitio de redes sociales como Facebook. Los titulares se calificaron según su precisión (es decir, si eran verdaderos o falsos) y si eran más liberales o conservadores. De acuerdo con experimentos anteriores, los participantes tenían más probabilidades de calificar los titulares que favorecían sus inclinaciones políticas como verdaderos. Como resultado, la mayor parte de la información errónea clasificada como verdadera surgió porque a la gente le gustó cómo se alineaba con sus inclinaciones políticas. Si bien esto es cierto en ambos lados del espectro político, los conservadores fueron significativamente más propensos a calificar la información errónea como verdadera, un efecto observado con tanta frecuencia que los investigadores citan siete estudios diferentes que lo habían demostrado previamente. En sí mismo, este tipo de replicación es útil, pero no muy interesante. Lo interesante vino cuando los investigadores empezaron a variar este procedimiento. Y la variación más simple fue una en la que pagaban a los participantes un dólar por cada historia que identificaban correctamente como verdadera. En noticias que no sorprenderán a nadie, la gente mejoró en detectar exactamente cuándo las historias no eran ciertas. En números brutos, los participantes recibieron un promedio de 10,4 calificaciones de precisión (de 16) directamente en la condición de control, pero más de 11 de 16 directamente en lo que respecta al pago. Este efecto también fue evidente cuando, en lugar de recibir un pago, se les dijo a los participantes que los investigadores les darían una calificación de precisión después de que se completara el experimento. Lo más sorprendente de este experimento fue que casi toda la mejora se produjo cuando se pidió a las personas que calificaran la precisión de las declaraciones que favorecían a sus oponentes políticos. En otras palabras, la recompensa resultó en que las personas discernieran mejor la verdad en declaraciones que, por razones políticas, preferirían creer que eran falsas.

Una brecha más pequeña, pero aún una brecha

Ocurrió lo contrario cuando se pospuso el experimento y se pidió a la gente que identificara historias que sus aliados políticos disfrutarían. Aquí la precisión cayó. Esto sugiere que el estado de ánimo de los participantes desempeñó un papel importante, ya que el incentivo para centrarse en la política hizo que se centraran menos en la precisión. Sorprendentemente, el efecto fue aproximadamente del mismo tamaño que una recompensa monetaria. Los investigadores también crearon una condición en la que a los usuarios no se les decía la fuente del titular, por lo que no podían saber si procedía de medios partidarios del partido. Esto no cambió los resultados significativamente. Como se mencionó anteriormente, a los conservadores generalmente les va peor que a los liberales aquí, con el conservador promedio obteniendo 9.3 correctos de 16 y el liberal típico obteniendo 10.9. Ambos grupos ven aumentar su precisión cuando hay incentivos, pero el impacto es mayor en los conservadores, aumentando su precisión a un promedio de 10.1 de 16. Pero si bien esto es significativamente mejor que sin incentivos, no es tan bueno como lo hacen los liberales cuando hay no es incentivo. Entonces, si bien parece que algunos de los problemas con los conservadores que comparten información errónea se derivan de la falta de motivación para hacer las cosas bien, eso solo explica parte del efecto. El equipo de investigación sugiere que, si bien es poco probable que un sistema de pago sea escalable, el hecho de que una calificación de precisión tuviera el mismo impacto podría significar que apunta a una forma en que las redes sociales pueden reducir la información errónea que difunden sus usuarios. Pero eso parece ingenuo. Los verificadores de hechos se promovieron originalmente para frenar la desinformación. Pero de acuerdo con estos hallazgos, tendieron a calificar más de las publicaciones compartidas por los conservadores como información errónea y finalmente fueron etiquetados como parciales. Del mismo modo, los intentos de frenar la difusión de información errónea en las redes sociales han llevado a que los líderes de esas redes sean acusados ​​​​de censurar a los conservadores en las audiencias del Congreso. Incluso si funciona en estos experimentos, es probable que cualquier intento de implementar un sistema similar en el mundo real sea muy impopular en algunos círculos. Nature Human Behaviour, 2023. DOI: 10.1038/s41562-023-01540-w (Acerca de los DOI).

Deja una respuesta

Tu dirección de correo electrónico no será publicada.