Cámaras de eco, burbuja de los filtros, bots de Twitter... La investigación ha puesto en campos diversos conceptos para comprender la epidemia de bulos y noticias falsas en internet, muy especialmente en las redes sociales durante la última campaña electoral americana.

«Estamos trabajando sobre la desinformación a todos los niveles: modelizamos la difusión de los bulos inspirándonos en la epidemiología. Los datos los recogemos del flujo de información de las redes sociales», explica Giovanni Luca Ciampiglia, investigador del Instituto de Ciencia de las Redes de la Universidad de Indiana, el centro de referencia sobre el estudio cuantitativo del tema.

En primer lugar, ¿quién establece que una noticia es verdad o mentira? Según Ciampiglia, hay casos extremos de información generada solo para producir clics, que es parecida al spam: «Nadie se queja de que un algoritmo clasifique como falso un correo enviado por un supuesto príncipe de Nigeria», bromea. Sin embargo, en la mayoría de los casos es cuestión de puntos de vista. «No hay interés real, ni tan solo de Facebook, en desarrollar tecnología que reconozca automáticamente una patraña. Es trabajo de los periodistas», explica Ciampiglia. Su grupo ha desarrollado Hoaxy, un buscador de bulos que aprovecha las páginas de fact-checking, sitios periodísticos dedicados a contrastar noticias y afirmaciones.

Tuits sin personas detrás

Los investigadores se enfrentan a una verdadera industria de manipulación de la red. «Monitoreamos Twitter durante un mes antes de las elecciones: aproximadamente el 20% del contenido en tuits no venía de personas reales, sino de bots», explica Emilio Ferrara, investigador de la Universidad de California del Sur. Los bots son programas que generan contenidos automáticamente.

Según el análisis de Ferrara, los usuarios retuitean con la misma frecuencia tuits de bots y de humanos, mientras replican más a los humanos que a los bots. El 20% de las noticias falsas (siempre según los sitios de fact-checking) fueron compartidas por bots. No obstante, Ferrara matiza su papel. «En un trabajo sobre campañas de antivacunas, vimos que la mayoría de los bulos eran compartidos por humanos», explica.

Preocupa más el fenómeno de la cámara de eco: el proceso de polarización por el cual cada usuario sigue solo a aquellos que piensan como él. «No hay una definición clara, pero hay algunas evidencias», explica Ciampiglia. Por ejemplo, el equipo de la Universidad de Indiana en Estados Unidos es capaz de predecir las inclinaciones políticas de un usuario de Twitter a partir de a quién sigue.

Ciampiglia apunta además a los algoritmos de las redes sociales. Estos priorizan informaciones que nos puedan interesar: por ejemplo, nos presentan primero noticias parecidas a las que abrimos en ocasiones anteriores, dejando al fondo de la página noticias de la clase que solemos ignorar.

Esto facilita la visita si se trata de escoger zapatos pero puede sesgar el acceso a la información: es la llamada burbuja de los filtros.

La confianza en los amigos, combinada con la «economía de la atención» (por ejemplo, tuitear contenidos sin leerlos) y el «sesgo de confirmación» (creerse a pies juntillas lo que confirma nuestros prejucios), acaban de adobar el pastel.