KI-Ethik: EU-Kommission präsentiert Leitlinien
Neun Monate lang hat die „High-Level Expert Group on Artificial Intelligence“ (AI HLEG) der Europäischen Kommission an den „Ethischen Leitlinien für eine vertrauenswürdige Künstliche Intelligenz“ gearbeitet. Ein Zwischenergebnis wurde im Dezember 2018 präsentiert, danach beteiligten sich insgesamt 500 Akteure in einer öffentlichen Feedbackrunde an der Weiterentwicklung der Leitlinien. Am Montag, 8. April, präsentierte die AI HLEG in Brüssel das finale Ergebnis: Ein insgesamt 39 Seiten langes Papier, das darlegt, wie aus Sicht der Experten die ethische Basis für die Entwicklung Künstlicher Intelligenz (KI) aussehen könnte.
Die Leitlinien wurden auch deswegen mit Spannung erwartet, weil sie das Fundament für das bilden könnten, was derzeit als „KI made in Europe“ diskutiert wird – also KI-Systeme mit einer Wertebasis, die erfolgreich sind, weil sie Akzeptanz beim Menschen finden. Den Leitlinien zufolge haben die Experten allerdings ein Faible für Listen: Demnach besteht eine vertrauenswürdige KI aus drei Komponenten, fußt auf vier ethischen Prinzipien, die sich wiederum in sieben weiteren Voraussetzungen niederschlagen.
„Vertrauen“ als Fundament neuer Technologien
Auch die AI HLEG schließt sich der beliebten Formel an, dass der Mensch im Mittelpunkt der KI-Entwicklung stehen muss. Dabei stellt „Vertrauen“ nach Ansicht der AI HLEG das Fundament für den Erfolg von Gesellschaft, Wirtschaft und nachhaltiger Entwicklung dar. Aus diesem Grund müsse auch eine „vertrauenswürdige KI“ („trustworthy AI“) das Leitbild der Entwicklung Künstlicher Intelligenz sein. Unter einer „vertrauenswürdigen KI“ versteht die AI HLEG ein System, das über seinen kompletten Lebenszyklus hinweg über drei Komponenten verfügt:
- KI muss im Einklang mit geltendem Recht arbeiten (lawful AI)
Als Beispiele nennen die Leitlinien etwa die EU-Grundrechtecharta, Antidiskriminierungsrichtlinien, Menschenrechte und die Gesetze der Mitgliedsstaaten. Dabei geht es nicht nur darum, was rechtlich verboten ist, sondern auch darum, was erlaubt oder vielmehr erwünscht ist. Mit dieser Dimension beschäftigen sich die Leitlinien explizit nicht – vom Befolgen rechtlicher Vorschriften gehen sie schlicht aus. - KI muss bestimmte ethische Prinzipien befolgen (ethical AI)
Dies ist gerade bei raschem technologischen Wandel wichtig, da möglicherweise der Rechtsrahmen der Technologie nicht schnell genug folgen kann und deshalb stattdessen auf ethische Prinzipien zurückgegriffen werden muss. - KI muss robust sein (robust KI)
Das betrifft einerseits die technische Funktionalität, die KI darf also in unerwarteten Situationen kein unerwünschtes Verhalten zeigen. Aber sie muss auch in sozialer Hinsicht robust sein – letztere Bedeutung bleibt in den Leitlinien unklar.
Vier ethische Prinzipien
In einem ersten Schritt wird festgestellt, welche ethischen Prinzipien bei der Entwicklung, Verbreitung und Nutzung von KI-Systemen allgemein geachtet werden sollten. Dies sind: (1) Respekt für menschliche Selbstbestimmung, (2) Vermeidung von Schaden und Leid, (3) Fairness und (4) Erklärbarkeit. Ein besonderes Augenmerk solle dabei den potentiell von Benachteiligung bedrohten Personengruppen gelten, wie zum Beispiel Kindern oder Menschen mit Behinderungen.
Außerdem müsse von Beginn an in Betracht gezogen werden, dass die Nutzung von KI auch negative Folgen haben könnte. Auch solche, die schwierig zu identifizieren oder zu messen sind, zum Beispiel für die Demokratie, für den Rechtsstaat oder die soziale Gerechtigkeit. Diese Prinzipien sind jedoch den Leitlinien zufolge zu abstrakt, um sie in der KI-Entwicklung konkret zur Anwendung zu bringen. Sie bilden vielmehr das Fundament für sieben Voraussetzungen für den Aufbau einer vertrauenswürdigen KI.
Sieben Voraussetzungen für vertrauenswürdige KI
Die AI HLEG möchte Handlungsempfehlungen anbieten, wie eine vertrauenswürdige KI realisiert werden kann. Daher listen die Experten sieben Voraussetzungen auf, die für den Aufbau einer vertrauenswürdigen KI gewährleistet sein müssen, ohne jedoch abschließend zu sein: Systeme sollen (1) unter menschlicher Aufsicht stehen. Im Zweifel sollen also Menschen das letzte Wort haben – was auch beinhaltet, dass der Mensch kompetent mit der KI umgehen kann. Die bereits angesprochene (2) technische Robustheit wird genannt. Die KI soll sowohl gegen Angriffe geschützt sein als auch mit einem Notfallplan ausgestattet sein, um mit kritischen Situationen umzugehen. Außerdem betonen die Autoren (3) die Bedeutung von Datenschutz beim Umgang mit den riesigen Datenmengen in der KI-Entwicklung betont.
Für die Nachvollziehbarkeit von KI-Entscheidungen ist (4) Transparenz ein wichtiger Faktor. So soll etwa deutlich werden, auf Basis welcher Daten die Entscheidung getroffen worden ist. Insbesondere wenn von einer Entscheidung Menschen betroffen sind, soll Transparenz auch auf Kosten anderer Dimensionen, etwa Effizienz, hergestellt werden. Mit den richtigen Datensets kann (5) Diversity dafür sorgen, dass KI-Systeme nicht selbstständig beginnen, Diskriminierungsmuster zu erlernen. Außerdem müssen KI-Systeme die Wichtigkeit von (6) ökologischem und sozialem Wohlergehen erlernen. Weshalb das nötig ist, zeigt ein oft zitiertes Beispiel: Denkbar wäre nämlich, dass auf Effizienz und Umsatzsteigerung programmierte Maschinen damit beginnen, für die Produktion von Streichhölzern ganze Wälder abzuholzen. Sie wissen schließlich nicht, dass Wald für Menschen mehr ist als nur eine Produktionsressource.
Schließlich nennt die AI HLEG noch eine (7) Rechenschaftspflicht: Es muss möglich sein, Algorithmen durch interne und externe Auditoren zu überprüfen, negative Auswirkungen müssen dokumentiert und Entschädigungsmechanismen aufgebaut werden. All diese Faktoren spielen eine Rolle, damit KI-Technologie auch auf menschliche Akzeptanz trifft.
Praktisch folgt daraus, dass bei der Entwicklung von KI-Technologie ein gesamtgesellschaftlicher Blickwinkel eingenommen werden müsse. Alle Stakeholder sollten beispielsweise über die Möglichkeiten und Limitierungen eines KI-Systems rechtzeitig informiert werden. Gerade in kritischen Situationen muss es die Möglichkeit geben, KI-Entscheidungen zurückzuverfolgen und zu überprüfen. Und außerdem sollte immer in Betracht gezogen werden, dass einzelne ethische Prinzipien oder praktische Voraussetzungen miteinander in Konflikt stehen könnten. Diese müssten dann dokumentiert und evaluiert werden.
Durchwachsene Reaktionen
Nicht alle AI-HLEG-Mitglieder sind mit diesem Arbeitsergebnis glücklich. Thomas Metzinger, Professor für theoretische Philosophie an der Uni Mainz, hatte am Montag, 8. April, gegenüber dem Tagesspiegel scharfe Kritik geübt: Allein der Begriff „vertrauenswürdige KI“ sei schon „begrifflicher Unsinn“, denn nur Menschen könnten vertrauenswürdig sein – oder eben auch nicht. Was dagegen völlig in den Leitlinien fehle, seien „rote Linien“: also „nicht-verhandelbare ethische Prinzipien, die festlegen, was in Europa mit KI nicht gemacht werden darf“, so Metzinger. Als Beispiele nannte er den Einsatz von autonomen Waffensystemen oder das KI-basierte Social Scoring von Bürgern. Ein Verbot solcher Anwendungsszenarien habe auf Druck der Wirtschaft keinen Niederschlag in den Leitlinien gefunden, schrieb Metzinger.
„Die Leitlinien sind ein wichtiger Schritt für Künstliche Intelligenz ‚made in Europe'“, sagte hingegen Iris Plöger, Mitglied der Hauptgeschäftsführung des Bundesverbands der Deutschen Industrie (BDI) und ebenfalls Teil der AI HLEG. Sie schlug vor, auch amerikanische Unternehmen in die Expertengruppe zu berufen.
„Schon heute nutzen wir Europäer etliche Dienstleistungen aus Übersee. Ein gemeinsames transatlantisches Verständnis für die Nutzung Künstlicher Intelligenz muss unser Ziel sein“,
so Plöger. Bemerkenswert an Plögers Äußerungen ist, dass „KI made in Europe“ eigentlich als werteorientiertes Gegenmodell zu den bereits am Markt befindlichen amerikanischen KI-Entwicklungen beworben wird.
Ausblick
Die Arbeit der AI HLEG ist indes noch nicht vorbei. Bis Anfang 2020 soll in einer Pilotphase überprüft werden, wie sich die Handlungsempfehlungen in der Praxis umsetzen lassen. Basierend auf dem Feedback soll die AI HLEG dann die sieben Voraussetzungen für die Umsetzung einer vertrauenswürdigen KI noch einmal auf den Prüfstand stellen. Die Arbeitsergebnisse werden dann Basis für weitere Entscheidungen der Europäischen Kommission.
Der vorstehende Artikel erscheint im Rahmen einer Kooperation mit dem Tagesspiegel Politikmonitoring auf UdL Digital. Torben Klausa schreibt als Redakteur zur Digitalpolitik.