/Digitalisierung: Nein, Ethik kann man nicht programmieren

Digitalisierung: Nein, Ethik kann man nicht programmieren

Welche sozialen und politischen Konsequenzen haben automatisierte Entscheidungen von Computern? Wie beeinflussen sie unser alltägliches Leben? Und was passiert, wenn Maschinen diskriminieren? Diskutiert man über die Digitalisierung, geht es immer auch um diese Fragen.

Die Antworten darauf sind kompliziert, dementsprechend kontrovers sind die laufenden Debatten, müssen es auch sein: Schließlich drehen sie sich darum, wie wir die Gegenwart und Zukunft dieser Gesellschaft gestalten. Doch viele Debatten kranken an falschen Vorstellungen und Annahmen über die Struktur und Eigenschaften des Digitalen. Dabei fallen sechs zentrale Irrtümer auf, die sich immer wieder in Argumenten finden. Zentral, weil sie sich nicht nur innerhalb einer speziellen gesellschaftlichen Gruppe finden, sondern sich quer durch nahezu alle beteiligten Fraktionen ziehen. Politikerinnen und Politiker, Technologieskeptiker und -skeptikerinnen, Journalistinnen und Journalisten, die Wissenschaft, die Liste ließe sich beliebig fortsetzen.

Die zentralen Irrtümer zu identifizieren und sie sich bewusst zu machen, ist heute notwendiger denn je: Die Bundesregierung hat gerade ein Förderprogramm für künstliche Intelligenz beschlossen, nach der Einführung der EU-Datenschutz-Grundverordnung im Mai zeichnen sich langsam die ersten – nicht immer geplanten – Folgen ab. Gleichzeitig vergeht keine Woche, in der Menschen nicht auf die eine oder andere Form Algorithmen anprangern und in den Himmel loben. Leider oft, ohne wirklich klar zu benennen, was genau ein Algorithmus ist und was so ein Softwareartefakt eigentlich kann.

Weder Politik noch die breite Öffentlichkeit können einen am Wohl der Menschen und der Gemeinschaft ausgerichteten Einsatz neuer Technologien gestalten, wenn Argumente weiterhin auf Treibsand stehen. Das Adressieren der folgenden Irrtümer schafft hoffentlich ein solideres Fundament für die Debatten der kommenden Jahre.

Irrtum 1: Die Anwendung von Ethik kann man in Computerprogrammen formulieren

Softwaresysteme finden sich zunehmend in Kontexten wieder, in denen von ihnen ethisches oder auch moralisches Verhalten gefordert wird: Selbstfahrende Autos müssen künftig entscheiden, ob sie eher einen Erwachsenen umfahren oder ein Kind. Eine Software soll in Österreich künftig automatisch bewerten, welche Chancen Arbeitssuchende auf eine Stelle haben. Die Diskussion dreht sich dabei häufig um die Frage, wie man Ethik in diese Systeme hineinprogrammieren kann, wie also gewünschtes Verhalten zu automatisieren ist.

Grundsätzlich meint die Operationalisierung von Ethik die Übersetzung abstrakter Regeln und Modelle guten Verhaltens in berechenbare, deterministische und objektive Regelsysteme. Diese können Menschen dann unabhängig überprüfen und ausprogrammieren, um sicherzustellen, dass sich der betreffende Roboter oder das betreffende Softwaresystem ethisch verhält.

Leider ist das ein Mythos. Aktuelle Ansätze scheitern und produzieren entweder Systeme, die in der realen Welt schlicht nicht funktionieren, oder viel schlimmer: zutiefst diskriminierende Ergebnisse. Am renommierten Massachusetts Institute of Technology (MIT) wollten Wissenschaftlerinnen und Wissenschaftler beispielsweise mithilfe der Plattform Moral Machine wichtige ethische Entscheidungen aushandeln – etwa, wie sich ein Auto auf der Straße zu verhalten habe. Doch das führte unter anderem zu dem Ergebnis, das Auto solle lieber Kriminelle überfahren als Hunde (wie auch immer das Auto eine Verurteilung soll feststellen können).

Die Vorstellung, dass sich Ethik in einfache Regeln gießen lässt, mag in Videospielen funktionieren. In der realen Welt sind ethische Entscheidungsprozesse aber komplexe soziale und psychologische Vorgänge, die trotz identischer ethischer Regeln je nach sozialem, politischem, religiösem oder kulturellem Hintergrund der entscheidenden Person zu ganz unterschiedlichen Ergebnissen führen können.

Um die Regeln einer Ethikmaschine zu programmieren, müsste man sie aller sozialer Unschärfe und Menschlichkeit berauben. Nur wäre das vermutlich stark diskriminierend, weil genau eine Wertvorstellung als normal definiert würde – die derer, die solche Systeme entwickeln.

Und man würde das Problem auch völlig unzulässig vereinfachen: Warum sollten Entscheidungen basierend auf einem viel zu simplen Modell zu annehmbaren ethischen Entscheidungen in dieser heterogenen Welt führen? Ethische Entscheidungen sind viel komplexer, als man das in Softwaresystemen abbilden könnte. Darum kann die Automatisierung einer Ethik nur scheitern.

Hits: 41