Cámaras de eco, burbuja de los filtros, bots de twitter… la investigación ha puesto en campo diversos conceptos para comprender la epidemia de bulos y noticias falsas en Internet, muy especialmente en las redes sociales durante la última campaña electoral americana.

“Estamos trabajando sobre la desinformación a todos los niveles: modelizamos la difusión de los bulos inspirándonos en laepidemiología. Los datos los recogemos del flujo de información de las redes sociales”, explica Giovanni Luca Ciampiglia, investigador del Instituto de Ciencia de las Redes de la Universidad de Indiana, el centro de referencia sobre el estudio cuantitativo del tema.

En primer lugar, ¿quién establece que una noticia es verdad o mentira? Según Ciampiglia, hay casos extremos de información generada sólo para producir clicks, que es parecida al spam: “nadie tiene problema porque un algoritmo clasifica como falso un correo enviado por un supuesto príncipe de Nigeria”, bromea.

CONTRASTAR NOTÍCIAS

Sin embargo, en la mayoría de los casos es cuestión de puntos de vista. “No hay interés real, ni tan sólo de Facebook, en desarrollar tecnología que reconozca automáticamente una patraña. Es trabajo de los periodistas”, explica Ciampiglia. Su grupo ha desarrollado Hoaxy, un buscador de bulos que aprovecha las páginas de fact-checking, sitios periodísticos dedicados a contrastar noticias y afirmaciones.

Los investigadores se enfrentan a una verdadera industria de manipulación de la red. “Monitoreamos Twitter durante un mes antes de las elecciones: aproximadamente un 20% del contenido en tweets no venía de personas reales sino de bots”, explica Emilio Ferrara, investigador de la Universidad de Calofornia del Sur. Los bots son programas que generan contenidos automáticamente.

Según el análisis de Ferrara los usuarios retuitean con la misma frecuencia tweets de bots y de humanos, mientras replican más a los humanos que a los bots. El 20% de las noticias falsas (siempre según los sitios de fact-checking) fueron compartidas por bots. No obstante, Ferrara matiza su papel. “En un trabajo sobre campañas de anti-vacunas, vimos que la mayoría de los bulos eran compartidos por humanos”, explica.

Preocupa más el fenómeno de la “cámara de eco”: el proceso de polarización por el cual cada usuario sigue sólo aquellos que piensan como él. “No hay una definición clara, pero hay algunas evidencias”, explica Ciampiglia. Por ejemplo, el equipo de la Universidad de Indiana es capaz de predecir las inclinaciones políticas de un usuario de Twitter, sencillamente a partir de a quien sigue.

ALGORITMOS Y BURBUJA

Ciampiglia apunta además a los algoritmos de las redes sociales. Estos priorizan informaciones que nos puedan interesar: por ejemplo, nos presentan primero noticias parecidas a las que abrimos en ocasiones anteriores, dejando al fondo de la página noticias de la clase que solemos ignorar. Esto facilita la visIta si se trata de escoger zapatos pero puede sesgar el acceso a la información: es la llamada “burbuja de los filtros”.

La confianza en los amigos, combinada con la “economía de la atención” (por ejemplo, tuitear contenidos sin leerlos) y con el “sesgo de confirmación” (creerse a pies juntillas lo que confirma nuestros prejucios), acaban de adobar el pastel.