/Künstliche Intelligenz: Glückwunsch, Sie haben die KI überzeugt!

Künstliche Intelligenz: Glückwunsch, Sie haben die KI überzeugt!

Richter
urteilen vormittags
anders als nachmittags
, Arbeitgeber trauen Jobkandidatinnen
weniger zu als Jobkandidaten, von den Nachteilen
derjenigen mit migrantisch klingenden Namen
 ganz
zu schweigen. Menschen fällen oft keine besonders fairen Urteile. Warum also
nicht die Computer heranziehen, wenn es um Fragen der Fairness geht? Justitia,
die Göttin der Gerechtigkeit, wird oft mit Augenbinde dargestellt, weil sie urteilen
soll, ohne die Person anzuschauen. Was läge näher, als ihre Entscheidungen der
kalten Vernunft der Technik zu überlassen? Und könnte man damit nicht auch all
die Ungerechtigkeiten beseitigen, die die Arbeitswelt durchziehen? 

Fairness durch Algorithmen – das klingt zu
schön, um wahr zu sein. Leider ist es das auch. Es hat sich längst
herumgesprochen, dass auch Algorithmen diskriminieren können. Ein Fall, der
traurige Berühmtheit erlangt hat, kommt aus dem Bereich der Strafjustiz:
Wie Journalisten
von Pro
Publica
 entdeckten
,
machte ein Computerprogramm, das Rückfallwahrscheinlichkeiten errechnen und damit
Bewährungsentscheidungen unterstützen sollte, für weiße und schwarze Angeklagte
unterschiedliche Arten von Fehlern: bei Weißen lag es öfters zu deren Gunsten
falsch, bei Schwarzen zu deren Ungunsten. Auch im Arbeitsmarkt können
Algorithmen bestehende Diskriminierungen fortschreiben. So wurde vor einigen
Jahren bekannt, dass Google Anzeigen für hochbezahlte Führungsjobs öfters
Männern als Frauen zeigte
. Also alles (so ungerecht) wie früher,
nur diesmal digital?

Das wäre ein vorschnelles Urteil – denn
man kann zwischen Diagnose und Entscheidung eine
klare Linie ziehen. Daten, die über Bewerberinnen und Bewerber, Schwarze und
Weiße, Menschen mit und ohne Migrationshintergrund gesammelt werden, können
vieles, das vorher schwer nachweisbar war, aufzeigen: die leaking pipelines
zum Beispiel, wenn der Anteil benachteiligter Gruppen umso geringer wird, je
höher es die Karriereleiter hinaufgeht. Oder auch die Klischees und Vorurteile,
die mit bestimmten Merkmalen wie Ethnie und Geschlecht verbunden werden. In
ihrem Buch Algorithms of Oppression diskutiert Safiya Umoja
Noble, wie Google eine Zeitlang bei Suchen nach “black girls” an erster Stelle
pornografische Inhalte zeigte – die waren für zahlende Werbekunden offenbar
relevanter als die schädlichen Effekte, die solche Stereotypisierungen auf die
Betroffenen haben. Bei der Diagnose von Ungerechtigkeiten
können Big Data und Algorithmen eine große Hilfe sein – und sei es nur, um
das, was benachteiligte Gruppen sowieso wissen, auf eine Art und Weise zu
dokumentieren, die man nicht mehr als anekdotische Einzelfälle abtun
kann. 

Nicht jedes Datenmuster sollte fortgeschrieben werden

In allen möglichen Datensätzen, mit denen
algorithmische Entscheidungssysteme heute arbeiten, stecken die
Ungerechtigkeiten von Jahrzehnten, ja Jahrhunderten. Sie sichtbar zu machen,
vielleicht sogar zu quantifizieren, kann sehr sinnvoll sein. Algorithmen
dagegen auf der Basis derartiger Datensätze Entscheidungen treffen
zu lassen, ist höchst problematisch (von allen Datenschutz-Fragen abgesehen!).
Denn nicht jedes Muster, das die Algorithmen in den Daten entdecken, ist es
wert, fortgeschrieben zu werden. Werden künstliche Intelligenzen beispielsweise
dafür verwendet, die Merkmale von Angestellten zu eruieren, die besonders
effizient arbeiten, dann ist nicht klar, was genau alles eingeht, und ob es
berechtigt ist, diese Merkmale auch bei zukünftigen Bewerbern als Kriterium
anzulegen. Wenn ein Algorithmus findet, dass gute Angestellte oft Brillenträger
sind – soll man dann nur noch Leute mit schlechten Augen einstellen? Und was,
wenn bestimmte Leute effizienter erscheinen, weil sie besonders geschickt
darin sind, sich mit fremden Federn zu schmücken und Erfolge für sich zu
verbuchen, die eigentlich aufs Team gehen? 

Bei der Verwendung von algorithmischen
Systemen für die Bewerberauswahl – eine vor allem in den USA schon übliche
Praxis, die Cathy O’Neil in ihrem extrem lesenswerten Buch Angriff der
Algorithmen 
diskutiert – stellt sich außerdem das Problem, dass die
Daten der abgelehnten Bewerber und deren zukünftige berufliche Erfolge oder
Misserfolge, in die Datensätze einer Firma nicht eingehen. Das ist, als ob man
zu Forschungszwecken Bäumchen pflanzt und sehen will, welche sich gut entwickeln
– dann aber nur bei einem Bruchteil der Tranche verfolgt, was aus ihnen wird.
Ob eine unfaire Diskriminierung bestimmter Bewerbergruppen erfolgt, die gar
nicht erst zu einem persönlichen Bewerbungsgespräch eingeladen werden, bleibt
dann unsichtbar. 

Wenn die Leute die Jobs dann haben, könnte
man wenigstens ihre Leistungen gerechter erfassen, als das – zumindest gefühlt
– oft der Fall ist? Datensammeln in der Arbeitswelt verspricht Fairness durch
individualisierte Bewertungen. Aber ist es wirklich wünschenswert, dass von den
Tastenanschlägen bis zur Toilettenpause alles mitgeschnitten wird, was den
lieben langen Tag im Büro oder in der Werkstatt passiert? Nicht nur
Datenschützern wird bei dieser Vorstellung übel, es ist auch höchst fraglich,
was man damit wirklich messen würde. Vermutlich würden gewiefte Angestellte
schnell verstehen, wie sie die Algorithmen austricksen können. Das wiederum
würde die Daten verzerren und möglicherweise andere dazu drängen, ebenfalls der
digitalen Optimierung hinterherzulaufen, anstatt ihre eigentliche Arbeit zu
machen. Respektvolle, auf Vertrauen basierende Zusammenarbeit sieht anders aus.
Hinzu kommt: nicht alle Beiträge zu Teamleistungen lassen sich gleichermaßen
gut durch gesammelte Daten erfassen. Was ist mit der Person, die weniger E-Mails
schreibt, dafür aber mit ihrem Sinn für Humor die Stimmung und Motivation
aufrechterhält? Daumenregeln, die verhindern, dass jemand sich auf dem Rücken
anderer ausruht, sind vermutlich oft die bessere Lösung als falsch verstandene
Präzision. 

Wir sind soziale Tiere, keine Datenpunkte

Größere Fairness durch algorithmische
Entscheidungen, das ist also ein Versprechen, dem man mit extremer Vorsicht
begegnen muss. Die Frage danach, was eigentlich fair ist, können
uns die Computer sowieso nicht abnehmen. Wie unterschiedliche Beiträge in einem
Team bewertet werden, wie das Ineinandergreifen unterschiedlicher Tätigkeiten
einzelnen Individuen zugerechnet werden soll, all das kann kein Algorithmus
beantworten. Es kann durchaus sein, dass an vielen Stellen die fairste Lösung
ist, Leistungen nicht individuell zuzuschreiben, also die
Augenbinde der Justitia auch hier ernst zu nehmen – einfach,
weil es für den Begriff individueller Leistung keine Grundlage gibt, wenn es
das Team ist, das gemeinsam arbeitet. Menschen arbeiten oft dann besonders
erfolgreich, wenn komplementäre Fähigkeiten aufeinandertreffen. Und weil diese
Fähigkeiten so unterschiedlich sind, können sie erst im Zusammenhang mit
jeweils anderen Fähigkeiten anderer Menschen ihr Potenzial entfalten. Wir sind
auch in der Arbeitswelt mehr als die Summe von Datenpunkten – wir sind soziale
Tiere!

Hits: 29