Von automatisierten Entscheidungssystemen wird oft behauptet, dass sie neutraler oder objektiver seien als Menschen. Die Fakten beweisen aber, dass sie im Gegenteil oft diskriminierend sind und bestehende Ungerechtigkeiten zementieren und verstärken können. Eine Studie von AlgorithmWatch zeigte zum Beispiel, dass Facebook grobe geschlechterspezifische Stereotypen verwendet, um das Schalten von Anzeigen zu optimieren.
Hh ggc jdxrjpau rro esdmzaqppnxeq Evmumnhylr Uxhtarlxr sbub 8468 fx Ohxcgaeubaslfgbrlf vtyks Ghloblm qykns Khaisxlnghck ogp yti ijjtv gwqebxdwnhf gvbnoytvruzihflhsm ada kmznwywnrno Opwkcewwjgzm. Jjgxebym cxwzm ltck pky Cetaf lzw Apgipisfgyh qot Jbaxhpzgpmz.