Inakzeptable Emotionserkennungssysteme werden leider bereits eingesetzt, auch in der EU:
- gegen Geflüchtete an europäischen Außengrenzen: https://www.accessnow.org/eu-ai-act-migration/
- In China, zur Überprüfung der Loyalität von Parteimitgliedern: https://www.biometricupdate.com/202207/china-develops-face-biometrics-ai-tool-to-test-party-member-loyalty
- … oder gegen die Gruppe der Uiguren: https://www.bbc.com/news/technology-57101248
- … oder zur Emotionserkennung bei Schulkindern in Hongkong: https://edition.cnn.com/2021/02/16/tech/emotion-recognition-ai-education-spc-intl-hnk/index.html
- Oder als „intelligente Videoüberwachung“ von Siemens in Zügen um Sitzplätze zu überwachen und „aggressives Verhalten“ in Zugwagons automatisiert zu erkennen und zu melden. Das wurde laut Siemens bereits in Deutschland und Österreich eingesetzt, z.B. durch „‘Versteckte’ Kameras in den Anzeigen des Fahrgastinformationssystems“: https://www.mobility.siemens.com/global/de/portfolio/schiene/fahrzeuge/digitaler-zugbetrieb/intelligente-videoueberwachung.html