KI-Ethik – Asimov lässt grüßen

Isaac Asimov gilt als einer der wichtigsten Science-Fiction-Autoren aller Zeiten. Mit seinen Robotergesetzen entwarf er bereits in den 40er Jahren wesentliche Regeln, nach denen eine künstliche Intelligenz handeln sollte. Heute sind solche Überlegungen keine Fantasie mehr – sondern beschäftigen Forscher, Juristen und Regierungen weltweit.

Dieser Artikel ist Teil 2 der dreiteiligen Serie „KI: Was uns heute bewegt“

In seinen zahlreichen Romanen ging Isaac Asimov immer wieder der Frage nach, wie sich eine künstlich geschaffene, intelligente Existenz tatsächlich verhalten würde. Bekannt wurden seine Werke aber nicht nur wegen ihrer Qualitäten als moderne Fantasy, sondern weil sie philosophische, ethische Fragen aufwarfen, die auch heute noch Bestand haben. Oder vielleicht: heute mehr denn je.

Es waren drei einfache Regeln, die Asimov seinen Robotern mitgab: Sie durften kein menschliches Wesen verletzen oder eine Verletzung durch Untätigkeit zulassen. Sie mussten menschlichen Befehlen gehorchen, solange dadurch niemand verletzt wurde. Und sie mussten sich selbst schützen, sofern sie nicht einen gegenteiligen Befehl erhielten. Scheinbar klar definierte Regeln, die aber – so zeigten die Asimov’schen Geschichten – immer wieder zu Konflikten führten.

Gesucht: KI ohne Vorurteile

Heute versuchen Wissenschaftlicher, Softwareentwickler, Juristen und interessierte Bürger, genau solche Regeln aufzustellen. Sie suchen nach einem Wertekanon, der für alle künftig entwickelten künstlichen Intelligenzen gelten soll. Doch diesen zu definieren, ist nicht nur schwierig. Es ist vielleicht sogar unmöglich.

Tatsächlich gibt es schon heute viele Beispiele, in denen unregulierte Software Entscheidungen trifft, die Menschen bevorteilen oder benachteiligen. Da ermittelt etwa ein Algorithmus die vermeintliche Kreditwürdigkeit einer Person unter anderem auf Basis ihrer Kontakte in sozialen Netzwerken; Erhebungen zufolge wirkt sich das gar nicht gut aus für Minderheiten. Da werden Frauen bei der Jobsuche im Web andere Werbeanzeigen angezeigt als Männern – nämlich solche mit geringerem Gehalt. Und da schaltet eine automatische Drohne neben Terroristen auch Unschuldige aus.

Wie lassen sich Effekte wie diese vermeiden? Kann man einen Algorithmus so entwickeln, dass er von Menschen nachvollziehbare Antworten liefert – selbst, wenn seine Entscheidungsfindungsprozesse extrem komplex sind? Und lässt sich eine KI eigentlich für vermeintliche Fehler zur Rechenschaft ziehen?

Fairness durch Nachvollziehbarkeit

Mit solchen Fragen beschäftigt sich Dr. Sandra Wachter am Oxford Internet Institute. Auf der CEBIT 2018 plädierte sie für die sogenannte „kontrafaktische Erklärbarkeit“, nach der jede KI ihre Resultate nachprüfbar machen sollte. Es gehe nicht darum, jeden Herleitungsschritt zu erklären, sondern eine auf das Wesentliche reduzierte Antwort zu liefern. Ein Beispiel: Sie stellen einen Kreditantrag, erhalten aber eine Absage. In der kontrafaktischen Erklärung steht explizit, warum: „Ihr Antrag wurde abgelehnt, weil Ihr Jahreseinkommen $46.000 Dollar beträgt. Ihr Kredit kann erst ab einem Einkommen in Höhe von mindestens $52.000 Dollar bewilligt werden.“

Was simpel klingt, erfordert einiges an Fachwissen aus diversen Disziplinen. Denn natürlich bezieht der Algorithmus weit mehr Faktoren als nur das Einkommen in seine Entscheidung mit ein. Was also sind die wesentlichen Begründungen, die ein Mensch wissen sollte, damit er die Entscheidung nachvollziehen, vielleicht anfechten oder seine Erfahrungen zumindest für sein künftiges Vorgehen nutzen kann? Die kontrafaktischen Erklärungen, so Wachter, kämen ohne ein tieferes Verständnis des Algorithmus aus, und würden auch keine wirtschaftlichen Interna preisgeben oder persönlichen Rechte beschneiden.

Für welche Werte steht der Mensch?

Dass KI-Entscheidungen nachvollziehbar sein sollten, darüber sind sich wohl die meisten Fachleute und Laien einig. Aber sind wir eigentlich in der Lage, eine KI zu erschaffen, die moralisch und ethisch „richtig“ handelt? Prof. Dr. Christian Bauckhage, wissenschaftlicher Direktor des Fraunhofer Instituts IAIS, dreht die Frage um.

„Was wir definitiv können ist, eine ‚böse‘ KI zu entwickeln. Eine, die Cyberverbrechen begeht, die Krieg führt. Vielleicht sollten wir uns lieber einigen, was eine KI nicht dürfen sollte.“

Dr. Christian Bauckhage, Wissenschaftlicher Direktor, Fraunhofer IAIS

Klingt ganz nach Asimov.

Das große Problem bei der Entwicklung einer „guten“ KI ist nämlich, dass jede Kultur, jede Gesellschaft „gut“ anders definiert. Man brauche nur einen Blick auf die heutige Politik werfen, gibt Bauckhage zu bedenken. Ob sich eine Weltgesellschaft auf gemeinsame Werte einigen kann, ist fraglich – schon allein, weil sich Moralvorstellungen in der Geschichte der Menschheit immer wieder erheblich verändert haben.

Und dann wäre da noch die Frage nach der Verantwortung: Wem trauen wir zu, einen KI-Wertekanon zu definieren? Wem vertrauen wir? Eine Kurzumfrage unter dem CEBIT-Publikum machte deutlich, dass es nicht einzelne Staaten sein können, die anderen ihre Vorstellungen diktieren. Wenn, dann müssten überspannende Organisationen wie die EU oder die UN zuständig sein.

Oder vielleicht ein Unternehmen? Erst kürzlich veröffentliche Google-CEO Sundar Pichai jene Prinzipien, die sein Unternehmen für die KI-Entwicklung heranzieht. Sie klingen gut – sind aber erwartungsgemäß weitläufig interpretierbar. Von „sozialem Nutzen“ ist da die Rede, und davon, eine „unfaire Voreingenommenheit zu vermeiden“.

So spannend der technische Fortschritt auch ist: Noch wichtiger dürfte sein, ob uns die Entwicklung denkender Systeme dazu bringt, unser Menschsein zu reflektieren. Oder, wie es Wissenschaftlerin Sandra Wachter ausdrückt:

„KI hält uns den Spiegel vor. Wenn wir als Menschen vorurteilsbehaftet sind, werden es auch die Algorithmen sein, die unsere Daten als Grundlage ihrer Entscheidungen nehmen.“

Dr. Sandra Wachter, Anwältin und Wissenschaftlerin im Bereich Data Ethics und Algorithmen, Oxford Institute der University of Oxford

Isaac Asimov sah das schon vor 75 Jahren voraus.

KI: Was uns heute bewegt – die Reihe im Überblick

Folgen Sie uns auf Facebook und​ Twitter und​ Sie bleiben immer up to date über die wichtigsten Entwicklungen im E-Government und der IT des Bundes.

Titelbild: © enotmaks/iStock
Foto Prof. Dr. Christian Bauckhage: © Fraunhofer IAIS
Foto Dr. Sandra Wachter: © Oxford Internet Institute