Brauchen wir einen TÜV für künstliche Intelligenz?

Die schnellste Route nach Hause, passende Wortvorschläge beim Texten: Selbstlernende Algorithmen erleichtern unseren Alltag. Immer wieder ist aber auch von negativen Auswirkungen intelligenter Entscheidungssysteme zu lesen – in der Justiz wie im Straßenverkehr. Brauchen wir bald einen TÜV für KI?

Dieser Artikel ist Teil 1 der dreiteiligen Serie „KI: Was uns heute bewegt“

Was eine künstliche Intelligenz (KI) wirklich innovativ macht, ist ihre Fähigkeit zu lernen. Und genau diese Fähigkeit ist zugleich ihre Schattenseite. Denn: Was ein Algorithmus oder ein neuronales Netz genau lernt und wie es zu diesen Erkenntnissen kommt, darüber können selbst ihre Programmierer nur spekulieren.

Das führt zuweilen zu kuriosen Situationen. So behaupteten beispielsweise die Entwickler eines Forschungsprogramms in China, ihre neuronal vernetzte Software könne anhand eines Fotos einer Person erkennen, ob diese kriminell sei. Ein unfassbarer Durchbruch?

Gelernt hatte das System anhand von 2000 Fotos – eine Hälfte zeigte verurteilte Straftäter, die andere nicht-vorbestrafte Personen. Legte man der Software anschließend ein beliebiges anderes Foto vor, konnte es angeblich mit fast 90-prozentiger Präzision erkennen, ob der Gezeigte kriminell war.

Tatsächlich steckte aber ein grundsätzlicher Logikfehler dahinter: Die Fotos der Straftäter stammten alle aus ein und derselben Quelle und zeigten die Personen stets mit T-Shirts. Die Fotos der Unschuldigen wiederum stammten aus diversen Quellen, ein bestimmtes Kleidungsstück als Gemeinsamkeit gab es hierbei nicht. Die KI schloss daraus: Wer ein T-Shirt trägt, ist mit hoher Wahrscheinlichkeit ein Straftäter. Ein unter diesen Voraussetzungen deduktiv korrekter Schluss – nur eben völlig an der Realität vorbei.

Der künstlichen Intelligenz fehlt es an gesundem Menschenverstand

Ein solch eklatanter Fehler überrascht im Grunde wenig, fehlt den mathematischen Rechenverfahren von KIs doch ein Bewusstsein für unsere Welt. Und so treffen sie manchmal auch Entscheidungen, die mit unserem moralischen und ethischen Kompass nicht einhergehen.

Ein von ZDFheute recherchierter Fall macht das besonders deutlich: Demnach nutzen US-amerikanische Richter heute KI-basierte Prognosesysteme, um über die vorzeitige Haftentlassung von Gefangenen zu entscheiden. Die Systeme sollen ermitteln, wie wahrscheinlich es ist, dass die betreffende Person erneut straffällig wird. Informatiker analysierten die neuronalen Netze der Software näher und fanden heraus, dass die KI Menschen mit weißer Hautfarbe bevorzugt behandelt. Das heißt: Wenn in einer bestimmten Region vor allem Farbige erneut straffällig werden, steigt damit auch die Wahrscheinlichkeit, dass ein eigentlich rehabilitierter Farbiger länger in Haft bleibt.

Gesetzliche Regulierungen könnten Klarheit schaffen

Wegen Fällen wie diesen fordern inzwischen viele Stimmen eine gesetzliche Regulierung von Algorithmen, die auf künstlichen Intelligenzen basieren.

Die Informatik-Professorin Dr. Katharina Anna Zweig ist eine von ihnen. Sie forscht an der TU Kaiserslautern zu KIs und Algorithmen und hat zu dem Vorfall in Amerika eine kritische Haltung: Solche Systeme „bieten uns die Chance, bessere und objektivere Entscheidungen zu treffen. Aber […] algorithmische Entscheidungssysteme und vor allem ihre Einbindung in gesellschaftliche Prozesse sind so komplex, dass es auf vielen Ebenen zu Fehlern kommen kann.“

Deswegen fordern immer mehr Wissenschaftler eine Art TÜV für Algorithmen. Auch die deutsche Verbraucherschutzzentrale hat sich dafür ausgesprochen, den Einblick in Programmcodes transparenter zu machen. Entsprechend ist die öffentliche Sensibilität für dieses Thema gestiegen – auch bei Nicht-Fachleuten. Laut einer Bertelsmann-Studie von Anfang 2018 sind beispielsweise 57 Prozent der Deutschen überzeugt: Algorithmen geben ihren Programmierern viel Macht über andere Menschen.

Professorin Katharina Anna Zweig.

Für die Durchsetzung eines Algorithmus-TÜV brauche es, so Zweig, eine „demokratisch legitimierte Prüfungsstelle“. Obwohl diese Forderung bislang noch nicht politisch umgesetzt wurde, zeigen Institutionen wie der Deutsche Ethikrat Interesse an dem Thema. Dessen letzte Jahrestagung stand unter dem Motto „Autonome Systeme. Wie intelligente Maschinen uns verändern“.

Ist ein Algorithmus-TÜV überhaupt möglich?

Aber ist es überhaupt technisch möglich, eine selbstlernende KI transparent zu halten? Und ist die Schaffung einer demokratisch legitimierten Prüfstelle realistisch? Funktioniert ein solches Vorhaben nicht nur, wenn sich alle internationalen Staaten für dieses Vorhaben gemeinsam aussprechen? Immerhin sitzen die einflussreichsten Technologiekonzerne in den USA und nicht in Deutschland. Wie viel Einfluss müsste diese Prüfstelle mindestens, wie viel dürfte sie maximal erlangen? Seit den Veröffentlichungen durch Edward Snowden ist klar, dass auch Geheimdienste Algorithmen einsetzen, um Menschen auszuspionieren.

Was unterscheidet also die Brisanz eines Algorithmus, der zu staatlicher Spionage eingesetzt wird, von jenen sozialer Netzwerke, die ebenfalls Daten ihrer Nutzer analysieren? Fragen wie diese werden wir in Zukunft klären müssen. Insbesondere solche Konzerne, deren Geschäft hauptsächlich auf Algorithmen basiert, dürften nicht besonders glücklich über etwaige Prüfpflichten sein. Was früher die sagenumwobene Geheimrezeptur von Coca-Cola war, sind heute die Algorithmen von Facebook, Google und Co. Sie sind das Geschäftsgeheimnis.

In Fachkreisen äußern sich auch kritische Stimmen zu der Kontrolle von Algorithmen. Sie stellen unter anderem die mögliche Funktionsweise einer unabhängigen demokratischen Prüfinstanz in Frage. Da es sich bei KIs um wandelbare und dazulernende Programme handle, wäre ein Kontrolle allein schon deswegen unmöglich, weil sie sich stetig verändern und den Kontrollen immer voraus wären.

Verschiedene Interessensgruppen mit ähnlichen Zielen

Trotz der fehlenden politischen Unterstützung gibt es aber auch jetzt schon Möglichkeiten, die Arbeit von KIs und Algorithmen zu überwachen. Die schon erwähnte Professorin Katharina Anna Zweig ist zugleich Mitgründerin der Initiative AlgorithmWatch, die es sich zur Aufgabe gemacht hat, Prozesse der algorithmischen Entscheidungsfindung zu durchleuchten. AlgorithmWatch ist auch verantwortlich für das Projekt OpenSCHUFA, das in der letzten Zeit auf sich aufmerksam gemacht hat. Die Idee dahinter ist, das Score-System der SCHUFA (Schutzgemeinschaft für allgemeine Kreditsicherung) zu durchleuchten, das auf Basis von privaten Daten über die Kreditwürdigkeit von Bürgern entscheidet. Jede Privatperson in Deutschland kann jährlich eine kostenlose SCHUFA-Auskunft in Papierform anfordern. Mit einer großen Menge dieser Selbstauskünfte sei es dem Projekt möglich, den geheimen Bewertungs-Algorithmus der SCHUFA zu knacken, so die Projektverantwortlichen. Wäre das ein Fortschritt? Ansichtssache.

Es regt sich jedenfalls Widerstand: gegen den allzu leichtfertigen Umgang mit Daten und gegen die Intransparenz der aus Datenanalysen entstehenden Entscheidungen. Auch erste gesetzliche Entwicklungen schaffen Möglichkeiten, die Macht der Algorithmen in Zukunft einzudämmen, oder zumindest in gelenkte Bahnen zu weisen.

Mit der Einführung der EU-Datenschutz-Grundverordnung (EU-DS-GVO) im Mai 2018 sehen sich große Unternehmen beispielsweise zum ersten Mal damit konfrontiert, ausführlich Auskunft darüber geben zu müssen, wie sie die Daten ihrer Nutzer erheben und verarbeiten. Das kann zumindest Transparenz darüber schaffen, welche Informationen beim Anlernen eines KI-Systems verwendet werden. Welche Schlüsse es daraus zieht, bleibt aber weiter im Dunkeln. Bevor es also eines Tages einen effektiven Algorithmus-TÜV geben kann, sind neben vielen anderen Fragen auch noch grundlegende technische Probleme zu lösen.

KI: Was uns heute bewegt – die Reihe im Überblick

Folgen Sie uns auf Facebook und​ Twitter und​ Sie bleiben immer up to date über die wichtigsten Entwicklungen im E-Government und der IT des Bundes.

Titelbild: © exdez/iStock
Foto Katharina Anna Zweig: © Thomas Koziel/TUK

Das könnte Sie auch interessieren: