Las dos mayores empresas de Internet acaban de anunciar más controles automáticos y humanos para luchar contra los grupos terroristas en las redes. Facebook se comprometió el pasado viernes a través de un artículo en su blog corporativo a detectar y borrar los mensajes que promuevan el terrorismo de signo islamista en todas sus plataformas, esto es Facebook, Instagram y Whatsapp. Y Google ha publicado este lunes otra declaración con el mismo signo también en uno de sus blogs para toda su red, que incluye Youtube. Es la respuesta de ambos gigantes a las críticas sobre su “tolerancia” respecto al uso de Internet para difundir la violencia.

El uso de la inteligencia artificial en fotos y vídeos es la principal herramienta que se comprometen a utilizar, porque no depende de las denuncias de otros usuarios y les permite agilizar los tiempos de respuesta. En este sentido, Google va algo más allá de Facebook e implanta una tecnología que es capaz de distinguir entre “un vídeo informativo de la BBC” y la “uno que exalte la violencia” si son subidos en distintos contextos y por distintos usuarios”. Facebook afirma que lo hace manualmente, pero si detecta que el vídeo ya ha sido subido antes y borrado, impide que se vuelva a publicar de nuevo. Forma parte de los “hashes” o huellas digitales para el contenido que comparten con otras empresas, como Twitter o Microsoft.

Según Google, el sistema hasta ahora ha funcionado en el 50% del contenido sobre terrorismo borrado en los últimos meses, pero ahora prometen dedicar más ingenieros a desarrollar este área de investigación y esta temática. En Youtube, donde ya funcionaba el sistema de denuncias, afirman que van a incorporar más filtros a partir de recomendaciones de grupos que trabajan contra el terrorismo y van a vetar que pueda ponerse publicidad en vídeos que estén en la frontera de la exaltación y promuevan el odio sea de tipo religioso o supremacista. La compañía ha tenido muchos problemas con sus principales anunciantes (en su mayoría grandes marcas de consumo) que les reclamaron que no querían aparecer junto a ciertos contenidos. Hasta 250 empresas dejaron de anunciarse.

DENUNCIAS Y PROPAGANDA

Facebook, en cambio, se centra más en la comprensión del lenguaje escrito y afirma que destina 150 personas para un total de 30 idiomas para determinar los casos en que “la propia propaganda de Estado Islámico se usa para combatirla”. La empresa está desarrollando un algoritmo para detectar patrones lingüísticos y frases características del entorno del terrorismo islámico que admite que está aún en “una fase de desarrollo inicial”, aunque cuentan con la ayuda de varios grupos de estudio.

Pero la lucha de los gigantes de internet pretende ser también preventiva. Google se compromete a advertir a los otros usuarios de que el contenido no puede incluir anuncios, recibir comentarios o ser recomendado, lo que hará, según explican, “que aparezca menos en los resultados de búsqueda, tenga menos adscripciones y sea más difícil de encontrar”. También Facebook se compromete a limitar los grupos y la viralización del contenido proterrorista.

“Creemos que esto favorece el correcto equilibrio entre la libertad de expresión y el acceso a la información sin promover puntos de vista extremadamente ofensivos”. A su juicio, “los extremistas no solo buscan atacar y erosionar nuestra seguridad, sino también nuestros valores, las cosas que hacen nuestra sociedad abierta y libre”, sostiene Google, en su artículo, que ha publicado también como anuncio en el 'Financial Times'.