Description: Content moderators and employees at Facebook demand better working conditions, as automated content moderation system allegedly failed to achieve sufficient performance and exposed human reviewers to psychologically hazardous content such as graphic violence and child abuse.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por Facebook, perjudicó a Facebook content moderators.
Estadísticas de incidentes
ID
215
Cantidad de informes
1
Fecha del Incidente
2020-04-01
Editores
Khoa Lam
Informes del Incidente
Cronología de Informes
foxglove.org.uk · 2020
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
noviembre 2020
Mark Zuckerberg, Sheryl Sandberg, Anne Heraty (CEO, CPL/Covalen), Julie Sweet (CEO, Accenture)
Por correo electrónico y publicación en los canales de Workplace de Facebook
Carta abierta de moderadores de contenido sobre: pand…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.