Providing evidence on bias when using algorithms – simulation and testing of selected cases (European Union Agency for Fundamental Rights, 2021)
Gegenstand des für die FRA durchgeführten Projekts war die empirische Untersuchung der Arbeitsweise von Algorithmen anhand zweier Fallbeispiele („use cases“) mit einer schwerpunktmäßigen Behandlung von Diskriminierungspotenzialen in ethischer und rechtlicher Hinsicht. Einerseits wurden mögliche Diskriminierungslagen bei der Allokation von Polizeikräften aufgrund von algorithmenbasierten Entscheidungen untersucht (sog „place-related predictive policing“). Zum anderen wurde untersucht, inwiefern automatisierte Textanalyseprogramme Kommentare in sozialen Medien – im konkreten auf den Plattformen Twitter und Facebook – die Verfasser oder die Inhalte im Zusammenhang mit geschützten Merkmalen diskriminieren (sog „Natural Language Processing [NLP]“).
Weitere Informationen zum Projekt finden Sie auf der Seite der Fundamental Rights Agency.
An diesem Projekt haben folgende Experten des Instituts gearbeitet:
- Wendehorst, Christiane (Expertin)
- Gritsch, Daniel (wissenschaftlicher Mitarbeiter)