Evidenzbasierter Rassismus – Algorithmen sind immer nur so schlau wie die Daten, auf denen sie beruhen


Überwachungskameras sehen immer mehr immer genauer mehr. Doch ziehen sie daraus immer die richtigen Schlüsse? (Bild: Jochen Tack / Imago)

Künstliche Intelligenz (KI) gilt als logisch, unemotional und unparteiisch – aber handelt und entscheidet sie wirklich objektiv? Tatsache ist, dass Algorithmen Vorurteile aufnehmen und verstärken können, etwa in Bezug auf Rasse und Geschlecht. KI basiert oft auf Daten, die von weissen Männern geschürft werden.

Eduard Kaeser | Neue Zürcher Zeitung

Wer hat nicht Mühe mit seinem eigenen Rassismus? Uns unterläuft wiederkehrend das, was ich den Fehlschluss der rassistischen Induktion bezeichne: Wir schliessen von der «Evidenz» der Hautfarbe – oder allgemeiner: der äusseren Erscheinung – eines Menschen auf seine gesellschaftliche Stellung, seinen Beruf, sein Inneres. John Hope Franklin, Geschichtsprofessor an der Duke University in North Carolina, gab 1995 ein Abendessen in einem Privatklub in Washington. Seiner schwarzen Hautfarbe wegen hielt ihn eine Angestellte für ein Mitglied des Personals (Franklin wurde übrigens 1962 das erste schwarze Mitglied des Klubs).

Man schiebe solche Vorfälle nicht leichthändig ab auf eine «typisch» amerikanische Mentalität. Ich erinnere mich noch an die fünfziger Jahre, als man nicht selten hörte: Aha, Italiener, arbeitest du auf dem Bau? Die ETH-Professorin für Umweltwissenschaft, Nina Buchmann, erzählte jüngst in einem Interview ein aktuelles Müsterchen dieses Fehlschlusses. Sie habe oft darauf hinweisen müssen: «Nein, ich bin nicht die Sekretärin von Professor Buchmann. Ich bin Professor Buchmann.» Auch hier der Fehlschluss: Aha, eine Frau, also eher Sekretärin als Professorin.

weiterlesen