La compañia entrena a su IA con imágenes para detectar la combinación de desnudos con textos despectivos hacia otra persona.
Lunes 18 de marzo de 2019.
El término "pornovenganza" es una de las traducciones más habituales de lo que los anglosajones llaman "revenge porn"; esto es, la difusión no autorizada a través de medios tecnológicos de fotografías o vídeos de carácter íntimo, normalmente por parte de antiguas parejas de la persona que protagoniza el material, con el objeto de dañar su reputación.
Y, por desgracia, desde que casi todo el mundo cuenta con teléfonos móviles equipados con cámara y conexión a Internet, la 'pornovenganza' se ha convertido en un problema grave cuyos efectos exceden con mucho el ámbito de las redes sociales.
Por eso Facebook ha querido atajar la presencia de esta clase de material en su plataforma (y en Instagram), antes de que pueda convertirse en la causa de una nueva crisis de reputación para ellos, y ha anunciado la puesta en marcha de tecnología destinada a la búsqueda y eliminación de material multimedia íntimo publicado sin autorización.
Hoy en día, ninguna imagen es revisada por los moderadores de contenido si antes un usuario de la red social no ha reportado dicho contenido como 'inapropiado'. Pero confiar en este método significaba resignarse a no tomar medidas hasta que después de que la difusión del material hubiera comenzado.
Es posible, eso sí, que la víctima remita preventivamente a Facebook las imágenes en cuestión para que el servicio pueda identificar cualquier carga no autorizada: se crea un código digital de la imagen para poder identificar copias del mismo material, al tiempo que se elimina el material original de sus servidores... pero el historial de agujeros de seguridad de Facebook proporciona poca seguridad, y no es una vía muy usada.
De modo que, para contrarrestar la imagen que la red social fundada por Zuckerberg tiene de quedarse corta a la hora de retirar material sensible -en unos casos- o de pasarse eliminando obras de arte por incurrir en desnudos -en otros-, ahora han decidido poner en marcha una nueva herramienta basada en machine learning, diseñada para buscar e identificar material de pornovenganza de manera automática, con el fin de que pueda ser sometido a revisión humana.
La compañía ha entrenado su IA alimentándola con imágenes que Facebook anteriormente confirmadas de pornovenganza, siendo capaz de detectar la combinación de desnudez (total o parcial) con textos despectivos que podrían intentar hacer daño a otra persona.
Desde Facebook afirman confiar en aumentar el número de detecciones de este tipo de material, pero también reconocen que no lo identificará en todos los casos y animan a seguir usando las vías de denuncia ya vigentes.