/Künstliche Intelligenz: Eine Frage der Ethik

Künstliche Intelligenz: Eine Frage der Ethik

Schon heute entscheiden Algorithmen, welche
Werbung jemand auf Facebook eingeblendet bekommt oder welche Preise auf Amazon
erscheinen. Durch künstliche Intelligenz können Systeme auch in
Bewerbungsprozessen eine Vorauswahl
treffen, Kundenanfragen kategorisieren oder
bestimmen, welche Person einen Kredit erhält und welche nicht.

Das muss erst einmal nicht schlecht
sein, weil solche Technologien Menschen unterstützen und sie schneller Entscheidungen
treffen können. Im schlimmsten Fall können die Systeme den Alltag von Bürgerinnen
und Bürgern allerdings massiv beeinträchtigen, etwa wenn Regierungen künstliche Intelligenz zur vollständigen Überwachung und Kontrolle ihrer Bürger verwenden (wie es China
mit dem Social-Credit-System plant
) oder wenn Entscheidungen auf Basis von fehlerhaften
Daten getroffen werden.

Wie also könnte ein ethischer Umgang mit
künstlicher Intelligenz aussehen? Über diese Frage haben 52 Expertinnen und Experten
im Auftrag der EU-Kommission monatelang diskutiert. Am Montag haben sie entsprechende Richtlinien vorgestellt.
In dem knapp 40-seitigen Papier fordern sie eine vertrauenswürdige künstliche Intelligenz, deren Funktionsweise nicht gegen Gesetze verstößt, in der ethische Prinzipien berücksichtigt sind und die auf einem robusten technischen und gesellschaftlichen Rahmen beruht.

Checkliste für künstliche Intelligenz

Mit ihren ethischen Richtlinien will sich
die EU-Kommission von China und den USA absetzen. Die beiden Nationen liefern sich derzeit einen Wettstreit, wer die weltweite Führungsrolle in der Entwicklung und beim Einsatz künstlicher Intelligenz einnimmt. Auch die Europäische Union sieht enormes Potenzial in der Technologie. Europa müsse präsent sein in dem Feld der künstlichen Intelligenz, sagte Roberto Viola, Generaldirektor der
Generaldirektion Kommunikationsnetze, Inhalte und Technologien, vor der Veröffentlichung
der Richtlinien in Berlin. Man müsse sich aber der Vorteile, der
Risiken und der Herausforderungen bewusst sein, so Viola. Während in China die Technologie
eher vom Staat kontrolliert sei und in den USA eher von Unternehmen getrieben werde,
wolle man in der EU eine künstliche Intelligenz, die die Rechte und Bedürfnisse
des Menschen berücksichtige. “Wir haben versucht, unsere Richtlinien so integrativ
wie möglich zu gestalten”, sagte der Generaldirektor.

In dieser Aussage spiegelt sich die schwierige Abwägung der Europäischen Union wider: Sie will einerseits der Industrie ermöglichen, künstliche Intelligenz zu entwickeln, und sie dabei auch finanziell unterstützen, um nicht wieder einmal eine wichtige technologische Neuerung zu verpassen. Andererseits sollen sich die Unternehmen an bestimmte Regeln halten, sodass die Interessen von Privatpersonen abgedeckt sind und auch die Interessen der Zivilgesellschaft gewahrt bleiben. Im Prinzip erhoffen sich die Politikerinnen und Politiker eine ähnliche Wirkung, wie sie sie durch die Datenschutz-Grundverordnung (DSGVO) erzielt haben: dass andere Länder nach Europa schauen und die dort geltenden Regelungen als Maßstab dient (auch wenn das Interesse zumindest bei der DSGVO bisher vor allem theoretisch ist). “Europa steht für eine Marke, und die heißt Vertrauen”, sagte Viola.

Unternehmen, Organisationen oder Länder, die künstliche intelligente Systeme entwickeln, sollen dem jetzt veröffentlichten Papier zufolge daher vier Grundprinzipien einhalten: Künstliche Intelligenz soll die menschliche Autonomie respektieren, gesellschaftlichen Schaden vermeiden, fair agieren und erklärbar bleiben. Diese allgemeinen Prinzipien konkretisieren die Expertinnen und Experten in weiteren Anforderungen für eine auf den Menschen fokussierte künstliche Intelligenz. So sollen Personen etwa das Recht darauf haben, dass eine Entscheidung nicht völlig automatisiert getroffen wird, wenn diese sie benachteiligt. Bei der Kreditvergabe könnte das zum Beispiel bedeuten, dass ein Kunde ein Recht darauf behält, mit einer Bankmitarbeiterin zu sprechen, wenn sein Kredit abgelehnt wird.

Auch sollen die Systeme Menschen nicht diskriminieren und dazu präventiv so entwickelt werden, dass man die Gefahr unbeabsichtigter Folgen minimiert. Ein Unternehmen müsste vor dem Einsatz dann beispielsweise testen, ob die künstliche Intelligenz bestimmte Personengruppen benachteiligt oder abwertet. Wie wichtig das sein kann, verdeutlicht ein Beispiel von Google: Der Bilderalgorithmus der Suchmaschine erkannte schwarze Menschen nicht als Menschen, sondern ordnete sie als Gorillas ein.  

Für die Umsetzung empfehlen die EU-Experten daher unter anderem, Systeme vor dem Einsatz zu testen und die Vollständigkeit der Daten zu berücksichtigen. Diskriminierungen wie im Fall von Google könnten etwa durch diverse Datensätze verringert werden, in dem ein Unternehmen ein System beispielsweise mit Fotos von Menschen weltweit trainiert. Die Expertinnen raten zusätzlich zu weiteren Maßnahmen: So kann ein diverses Team bei der Vermeidung solcher Fehler hilfreich sein, genauso ein gesellschaftlicher Dialog oder Weiterbildung sowohl von Mitarbeitern als auch von Bürgerinnen.

Hits: 34