Facebook desactivó entre enero y marzo 2.200 millones de cuentas falsas

En cuanto al llamado "discurso de odio", la empresa se felicitó por haber incrementado la cantidad de contenidos retirados hasta los 4 millones en los primeros tres meses de 2019

Logo de Facebook. JULIEN DE LA ROSA
photo_camera Logo de Facebook. JULIEN DE LA ROSA

La red social más usada del mundo, Facebook, informó este jueves de que desactivó entre enero y marzo de este año 2.200 millones de cuentas falsas, en su mayoría gestionadas por robots, una cifra tan elevada que prácticamente iguala el número total de usuarios de la plataforma a nivel mundial.

La empresa que dirige Mark Zuckerberg publicó este jueves la tercera edición de su informe sobre el cumplimiento de las normas comunitarias, en el que explica los avances llevados a cabo por la compañía en materia de lucha contra las cuentas y las informaciones falsas, las actividades ilegales y los contenidos que considera no adecuados.

"La cantidad de cuentas que eliminamos se incrementó por los ataques automáticos llevados a cabo por actores malignos que buscan crear grandes volúmenes de cuentas al mismo tiempo", indicó al presentar el informe el vicepresidente de Facebook para Integridad, Guy Rosen.

El directivo detalló que se desactivaron 1.200 millones de estas cuentas en el último trimestre de 2018 y 2.190 millones en el primero de 2019, lo que representa una cifra muy cercana a los 2.380 millones de usuarios activos mensuales legítimos que tiene Facebook, según los últimos datos disponibles.

En cuanto al llamado "discurso de odio" dirigido a grupos sociales específicos, la empresa de Menlo Park (California, EEUU) se felicitó por haber incrementado la cantidad de contenidos retirados de los 3,3 millones con que cerró el último trimestre de 2018 a los 4 millones en los primeros tres meses de 2019.

La firma explicó que de estos 4 millones de "mensajes de odio" publicados, un 65,4 % fueron retirados tras ser detectados por los sistemas de inteligencia artificial de la propia compañía antes de que nadie los denunciase, mientras que el resto fueron eliminados al recibir denuncias por parte de otros usuarios.

"Las distintas culturas del mundo entienden la libertad de expresión de formas distintas. Es imposible construir un único sistema de moderación que funcione en todo el mundo", dijo en una rueda de prensa tras presentar los resultados el cofundador y consejero delegado de la empresa, Mark Zuckerberg.

La compañía se encuentra en el punto de mira con respecto a cómo gestiona la publicación de contenidos falsos, de carácter sexual, de odio o violentos por parte de usuarios después de los ataques terroristas en dos mezquitas y varios hoteles en Nueva Zelanda el pasado marzo, que se cobraron la vida de 51 personas y que fueron retransmitidos en directo por Facebook Live.

Comentarios