Description: A suite of AI-powered digital surveillance systems involving facial recognition and analysis of biometric data were deployed by the Chinese government in Xinjiang to monitor and discriminate local Uyghur and other Turkic Muslims.
Entités
Voir toutes les entitésPrésumé : Un système d'IA développé et mis en œuvre par Chinese government, endommagé Uyghur people and Turkic Muslim ethnic groups.
Statistiques d'incidents
ID
249
Nombre de rapports
2
Date de l'incident
2016-10-01
Editeurs
Khoa Lam
Rapports d'incidents
Chronologie du rapport
hrw.org · 2019
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Depuis fin 2016, le gouvernement chinois a soumis les 13 millions d'Ouïghours et d'autres musulmans turcs du Xinjiang à des détentions arbitraires massives, à un endoctrinement politique forcé, à des restrictions de mouvement et à une oppre…
hrw.org · 2020
- Afficher le rapport d'origine à sa source
- Voir le rapport sur l'Archive d'Internet
Nous avions l'habitude de nous inquiéter des robots d'intelligence artificielle de type Terminator dominant la race humaine, mais ce vers quoi nous nous dirigeons est plutôt le contraire : les humains sont transformés en automates avec peu …
Variantes
Une "Variante" est un incident qui partage les mêmes facteurs de causalité, produit des dommages similaires et implique les mêmes systèmes intelligents qu'un incident d'IA connu. Plutôt que d'indexer les variantes comme des incidents entièrement distincts, nous listons les variations d'incidents sous le premier incident similaire soumis à la base de données. Contrairement aux autres types de soumission à la base de données des incidents, les variantes ne sont pas tenues d'avoir des rapports en preuve externes à la base de données des incidents. En savoir plus sur le document de recherche.