Facebook reporta progresos en la lucha contra el discurso de odio

0
370

Facebook ha reportado por primera vez cifras completas sobre su vigilancia de contenido polémico, alegando que “tomó medidas” en el primer trimestre de este año contra aproximadamente 2.5 millones de publicaciones en su plataforma que incluían discursos de odio.

El grupo estadounidense de medios sociales dijo que esa cifra aumentó en un 56 por ciento en comparación con los 1.6 millones de publicaciones contra las que tomó medidas en el cuarto trimestre de 2017.

Sin embargo, Facebook dijo que le era más difícil a su inteligencia artificial detectar contenido que contuviera discurso de odio antes de que los usuarios lo vieran que identificar otros contenidos prohibidos, como la pornografía infantil, la propaganda terrorista y el correo no deseado.

“La tecnología no lo va a resolver todo, pero vamos a progresar”, dijo Guy Rosen, jefe del equipo de la compañía a cargo de las medidas para controlar los estándares de la comunidad, en una entrevista al Financial Times antes de la publicación el martes de su Informe de Cumplimiento de Normas Comunitarias.

El “anuncio de transparencia” de Facebook se produjo en momentos en que la compañía enfrenta crecientes críticas en todo el mundo, especialmente en el sudeste de Asia, por su papel de guardián de los medios y árbitro del debate público.

En Myanmar, grupos de la sociedad civil criticaron el mes pasado a la compañía por responder con demasiada lentitud a mensajes incendiarios enviados a la mayoría budista y la minoría musulmana antes del aniversario del año pasado de los ataques del 11 de septiembre en EEUU. En respuesta, Mark Zuckerberg, director ejecutivo de Facebook, prometió que la compañía respondería a los reportes de discurso de odio en el plazo de un día.

Activistas en Vietnam acusaron a Facebook de cooperar con las autoridades comunistas para eliminar contenido o cuentas que, de hecho, eran válidas. La compañía dijo que tenía “un proceso de solicitud del gobierno claro y coherente”, pero que en algunos casos eliminó contenido porque violaba las leyes de un país a pesar de que no violaba los estándares de la comunidad.

El anuncio del martes se produjo tras la publicación por parte de Facebook de sus directrices para los moderadores de contenido y la introducción de un proceso de apelación, de modo que los usuarios inconformes con la eliminación de una publicación puedan someter la decisión a reconsideración.

Hasta ahora, los usuarios pueden apelar las decisiones tomadas sobre el discurso de odio, la desnudez y la violencia gráfica.

Facebook ha tenido más éxito en el uso de la tecnología para acabar con publicaciones relacionadas con la pornografía infantil o el terrorismo, porque trabaja con otras compañías de tecnología para crear una base de datos que coincida con el contenido problemático que ya se ha subido. No existe una base de datos semejante para el discurso de odio, y sería mucho más difícil de crear.

Dejar respuesta