Facebook | Red social incrementa detección automática de mensajes de odio

167
Facebook | Esto pasará con tu perfil ahora que se llama Meta

Cuando la red social comenzó a compartir sus métricas sobre discurso de odio, solo 23.6% del contenido que se eliminó fue detectado proactivamente por los sistemas y algoritmos, pues la mayoría del contenido erradicado fue detectado por los propios usuarios. Ahora, este número se ha incrementado hasta llegar al 97%, según el reciente «Informe de Cumplimiento de las Normas Comunitarias».

Facebook reveló que la prevalencia del discurso de odio en la plataforma es de cerca de 0.05% del contenido visto, o cerca de cinco vistas de cada 10,000, una disminución de casi 50% en los últimos tres trimestres. La red social considera que la implementación de nuevas herramientas tecnológicas y funciones han contribuido a este decrecimiento en las cifras.

¿Cómo se usa la tecnología para detectar faltas a las normas de comunidad?

En ese sentido, la red social indicó que se emplea la tecnología para reducir la prevalencia del contenido de odio en diversas formas: detección previa, supervisión y eliminación, en caso viole las políticas y términos de uso. Además, señaló que esto ayuda a reducir la distribución del contenido posiblemente infractor.

En 2016, por ejemplo, la moderación de contenido dependía principalmente de los reportes de usuarios, revela la compañía. Ahora, la tecnología permite identificar proactivamente contenido infractor antes de que las personas lo reporten.

Facebook se defiende acusaciones

Tras las recientes controversias por la forma en cómo funcionan los algoritmos y funciones tecnológicas de Facebook, la red social afirmó que éstas son usadas para mejorar la convivencia de los usuarios dentro de la red social, pues «no quieren ver contenido de odio en sus plataformas», según el comunicado.

«Los datos tomados de documentos filtrados están siendo usados para afirmar que la tecnología que usamos para combatir el discurso de odio es inadecuada y que deliberadamente interpretamos erróneamente nuestro progreso. Esto no es cierto. Estos documentos demuestran cómo trabajamos: identificamos problemas, pensamos en soluciones y luego nos concentramos en arreglarlos», sostienen.

Asimismo, Facebook puntualizó que «la prevalencia es la métrica más importante a utilizar porque muestra cuánto discurso de odio se ve realmente en Facebook». Por ello, invitó a no fijarse únicamente en la cantidad de contenido eliminado, pues la consideran una manera incorrecta de medir las acciones contra el discurso de odio.

Otras de las medidas abarca la disminución de la distribución del contenido que, si bien no es plenamente detectable como discurso de odio, sí parece asemejarse a este. Por esta razón, aunque no se elimina, si se evita recomendar Grupos, Páginas o personas que comúnmente publican contenido que probablemente violan las políticas de la red social.

Fuente: Andina