22 noviembre 2024

Mensajes de odio: FACEBOOK CAMBIA SUS MÉTODOS

Lunes 17 de septiembre de 2018.

Con el objetivo de reducir el discurso de odio que parece estar anclado en Facebook, la red social anunció la expansión de sus herramientas de inteligencia artificial de traducción para detectar textos conflictivos, incluso en idiomas poco difundidos.

Si bien en el último año las políticas de moderación de contenido de la plataforma fueron objeto de importantes esfuerzos por parte de los programadores (esto incluye las noticias falsas), aún queda por hacer. Especialmente en la detección de mensajes de este tipo, lo que se complica en países que no hablan inglés. Si los moderadores no entienden el idioma de una publicación, es imposible que detecten el discurso de odio.

Ya había pasado con páginas de organizaciones terroristas árabes y la cuestión se planteó nuevamente el mes pasado, después de que Facebook expulsara por primera vez a un político de alto nivel por su discurso de odio.

“Llevamos a cabo casi 6 mil millones de traducciones al día. Y con los métodos tradicionales, llevaría años traducir profesionalmente el contenido publicado en un solo día”, justificó Facebook a través de un comunicado.