Facebook trabaja junto al National Center for Missing and Exploited Children (NCMEC)

La IA de Facebook detecta 8,7 millones de publicaciones de explotación de menores en los últimos tres meses

Noticia

Facebook ha detectado y eliminado en los últimos tres meses 8,7 millones de publicaciones en la red social por tratarse de contenido que mostraba a niños desnudos o relacionados con la explotación infantil.

fw1-facebook-video-fa-0829_8818748_20181025161354

Facebook ha detectado y eliminado en los últimos tres meses 8,7 millones de publicaciones en la red social por tratarse de contenido que mostraba a niños desnudos o relacionados con la explotación infantil.

La compañía emplea un nuevo sistema de inteligencia artificial (IA) y aprendizaje automático para detectar "de forma proactiva" la desnudez infantil y contenido explotador de menores desconocidos cuando se sube a la red social.

Con este sistema, que complementa a la tecnología de coincidencia de fotos, ha eliminado, "solo en el último trimestre", 8,7 millones de publicaciones, el 99 por ciento de ellas antes de que fueran denunciadas por terceros, como ha informado la compañía en un comunicado.

Facebook trabaja junto al National Center for Missing and Exploited Children (NCMEC) que, a su vez, colabora con la distintas Policías de todo el mundo para ayudar a las víctimas. También trabaja con otras organizaciones no gubernamentales y empresas para evitar la explotación sexual de menores en Internet.