Description: A Microsoft engineer reported that Copilot Designer, an AI image generator, creates content depicting sex, violence, bias, and more. Despite raising concerns and suggesting improvements, the tool remains public, prompting a letter to the FTC.
Entidades
Ver todas las entidadesPresunto: un sistema de IA desarrollado e implementado por Microsoft, perjudicó a General public y minors.
Estadísticas de incidentes
Informes del Incidente
Cronología de Informes
businessinsider.com · 2024
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
translated-es-A Microsoft employee is asking the US government to look into the safety of one of his employer's generative AI tools after learning it has the capacity to produce seemingly inappropriate images.
On Wednesday, Shane Jones, a p…
Variantes
Una "Variante" es un incidente que comparte los mismos factores causales, produce daños similares e involucra los mismos sistemas inteligentes que un incidente de IA conocido. En lugar de indexar las variantes como incidentes completamente separados, enumeramos las variaciones de los incidentes bajo el primer incidente similar enviado a la base de datos. A diferencia de otros tipos de envío a la base de datos de incidentes, no se requiere que las variantes tengan informes como evidencia externa a la base de datos de incidentes. Obtenga más información del trabajo de investigación.
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents