"Nosotros cumplimos con nuestro trabajo para garantizar la integridad de las elecciones. Y luego, el 6 de enero, el presidente Donald Trump dio un discurso en el que rechazó los resultados y pidió a la gente que luchase". Con estas palabras, el director ejecutivo de Facebook, Mark Zuckerberg, ha negado la responsabilidad de la red social que fundó en 2004 en el ataque contra el Capitolio y la ha defendido de las pruebas que la señalan como parte responsable en la propagación de desinformación.

En el último año Estados Unidos ha vivido una oleada de bulos y manipulaciones en distintos campos, desde la difusión de ideas racistas y negacionistas de la pandemia del covid-19 a las conspiraciones de fraude lanzadas por Trump que culminaron en la insurrección ultraderechista contra el Congreso. El impacto de ese fenómeno ha reunido este jueves a tres de las personas más poderosas del mundo, los responsables de Facebook, Google y Twitter, para comparecer virtualmente ante la Subcomisión de Energía y Comercio de la Cámara de Representantes. Durante más de cuatro horas, congresistas de distinto signo ideológico han arremetido con dureza contra esas compañías. Los demócratas las han acusado de permitir la difusión de conspiraciones, la organización de grupos supremacistas, la supresión de voto para las minorías raciales y la propagación de falsedades sobre fraude electoral. Aunque los grupos supremacistas que asaltaron el Capitolio se organizaron a través de Facebook, Zuckerberg se ha negado a responder con claridad su responsabilidad en lo ocurrido. El mismo camino ha seguido Sundar Pichai, director ejecutivo de Alphabet, matriz de Google y propietaria de Youtube. Jack Dorsey, consejero delegado de Twitter, ha aceptado con matices el rol de su plataforma en el ataque.Dorsey ha vuelto a ser objeto de las críticas de los congresistas republicanos, que han asegurado que existe una censura de las opiniones conservadoras. Twitter bloqueó la cuenta de Trump por temor a una mayor incitación a la violencia. Más tarde, Youtube siguió esos pasos y Facebook está pendiente de si su junta de supervisión dictamina una suspensión permanente.

Aún así, la sección 230 de la Ley de Decencia en las Comunicaciones -base fundamental de Internet- establece que esas plataformas tienen derecho a eliminar contenido no ilegal cuando vulnera sus políticas internas. Republicanos y demócratas coinciden, con divergencias, en modificar esa ley para responsabilizar más a las plataformas.

Mayor regulación

La creciente presión política y la acumulación de escándalos abren la puerta a una nueva era de mayor regulación. "La autorregulación no ha funcionado, no ha frenado la desinformación", ha remarcado la congresista demócrata Jan Schakowsky. "Su propio modelo de negocio se ha convertido en el problema y el tiempo de la autorregulación ha terminado. Es hora de legislar para haceros responsables", añadió el también demócrata Frank Pallone. Facebook, Google y Twitter se han mostrado abiertas a algunas modificaciones de la ley que les da inmunidad.

Demócratas y republicanos coinciden en que esos gigantes tecnológicos ostentan demasiados poderes, sin embargo divergen en su respuesta. Mientras los primeros exigen una mayor regulación para moderar los contenidos y los algoritmos que incentivan a la radicalización de los usuarios, los segundos abogan en gran parte por reducir esa moderación.

Diversas investigaciones académicas y periodísticas han revelado que los algoritmos de recomendación de plataformas como Youtube y Facebook amplifican los mensajes extremistas así como la desinformación sobre el origen del coronavirus y el impacto de sus vacunas. Las compañías han tomado medidas para eliminar las cuentas que difunden esos mensajes, pero aún así muchos siguen aún en línea y siendo monetizados por sus autores incluso cuatro meses después de los comicios presidenciales.