22 noviembre 2024

FACEBOOK MUESTRA COMO REVISA LO QUE SUBIMOS


Quiere que se sepa cómo decide qué se publica.

Miércoles 5 de junio de 2019.

Con la intención de transparentar de qué manera toman ciertas decisiones complejas, como definir qué se publica y qué no, Facebook mostró sus ideas, contraponiéndose con lo que hasta ahora era su estilo: mantener estas determinaciones en secreto estricto. Sin embargo, los escándalos del año pasado, cuando estalló el caso “Cambridge Analytica”, obligaron a la empresa a modificar su tradicional modo de operar.

“Siento que estoy haciendo algo bueno, que estoy contribuyendo a hacer cosas positivas. Y a establecer un nivel de convivencia digital que te permita seguir disfrutando de las redes sociales”, confiesa un joven ítalo-venezolano, cuya identidad permanece anónima por cuestiones de resguardo, quien revela que le toca evaluar todo tipo de imágenes, desde una esvástica tatuada en la piel, el texto de una ironía mal interpretada, un meme sobre Macri, que se vea el pecho al aire de una mujer en la panorámica de una manifestación frente al Congreso Nacional, un anuncio encubierto de venta de drogas o cualquier otro contenido reportado, en estos casos desde la Argentina, por algún usuario de la red social.

Esta sección de “controladores” trabaja las 24 horas y aplica Normas Comunitarias, que son un compendio de reglas que definen lo que se puede y no se puede postear en Facebook, además de regular temas como desnudez, bullying, abuso sexual infantil, discursos de odio, venta de drogas o de armas, propaganda terrorista, spam y violencia.

Son 20 centros repartidos en todo el mundo donde se revisan estos contenidos, con 15.000 miembros que administra la censura online para cuidar la libertad de expresión y, al mismo tiempo, proteger, a los 2300 millones de usuarios que se conectan mensualmente a Facebook.