Weißbuch zur Künstlichen Intelligenz: EU-Kommission will Anwendungen nach Risiken einstufen
Foto: CC0 1.0, Pixabay User TheDigitalArtist | Ausschnitt angepasst
In ihrem Weißbuch zur Künstlichen Intelligenz zeigt die EU-Kommission ihre Förderschwerpunkte auf. Die zwei Grundpfeiler heißen Exzellenz und Vertrauen. Um die Sicherheit der KI-Anwendungen zu regulieren, schlägt sie eine Einstufung nach Risiken vor. Unternehmen sollen auch freiwillig auf ein KI-Gütesiegel setzen.
Europa soll nach dem Willen der EU-Kommission digital weltweit Vorreiter werden. Der ökologische und digitale Wandel der Staatengemeinschaft hat für Kommissionspräsidentin Ursula von der Leyen oberste Priorität, wie es in der am 19. Februar vorgestellten Digitalstrategie der Kommission heißt. Sie soll den Weg dahin aufzeigen. Wesentliche Bestandteile sind die Datenstrategie und das Weißbuch zur Künstlichen Intelligenz. Zu beiden Dokumenten können bis zum 19. Mai Stellungnahmen eingereicht werden. Mit Hilfe der Datenstrategie und des KI-Weißbuchs soll Europa „zur attraktivsten, sichersten und dynamischsten datenagilen Wirtschaft der Welt werden“.
Die Digitalstrategie hat eher eine einordnende Funktion, erklärt Vision und Ziele der Kommission und gibt einen Überblick über die geplanten digitalpolitischen Vorhaben. Das KI-Weißbuch beruht auf der im April 2018 angenommenen und im Dezember 2018 vorgestellten KI-Strategie. Es soll als „solides europäisches Konzept“ zum einen „wissenschaftliche Durchbrüche“ und die Nutzung großer Datenmengen für Innovationen ermöglichen, zum anderen aber auch Gefahren eindämmen, indem KI auf „unseren Werten und Grundrechten wie Menschenwürde und Schutz der Privatsphäre fußt“. Eine zentrale ethische Frage, nämlich die militärische Nutzung von KI, behandelt die Kommission in ihrem Weißbuch allerdings gar nicht.
Erhoffte Vorteile durch KI
Die Kommission betont in der Einleitung die Vorteile von KI als „eine der wichtigsten Anwendungen der Datenwirtschaft“ für Bürger, Unternehmen und Staat. Einfach ausgedrückt sei KI „ein Bestand an Technologien, die Daten, Algorithmen und Rechenleistung kombinieren.“ Für die Bürger bedeute dies eine bessere Gesundheitsversorgung, weniger Ausfälle von Haushaltsgeräten, sicherere und sauberere Verkehrssysteme und bessere öffentliche Dienste. Unternehmen könnten neue Produkte und Dienstleistungen entwickeln und der Staat soll beispielsweise von niedrigeren Kosten für Dienstleistungen wie für die Abfallentsorgung profitieren.
Als „wichtigste Bausteine“ des Weißbuchs nennt die Kommission zwei Punkte: Ein „Ökosystem für Exzellenz“ für Forschung, Investitionen und Innovationen auf europäischer Ebene und zweitens durch den künftigen Rechtsrahmen ein „Ökosystem für Vertrauen“ zu schaffen. Um das „Ökosystem für Exzellenz“ umzusetzen, stellt die Kommission sechs Maßnahmen vor. Sie gehen auf einen in der KI-Strategie vorgelegten Plan zurück. Bis 2027 sieht dieser die Umsetzung von 70 Maßnahmen vor. Dieser Plan soll nach der öffentlichen Konsultation zum Weißbuch neugefasst, bis Ende 2020 angenommen und den Mitgliedstaaten ausgehändigt werden (1). In den nächsten zehn Jahren will die EU mehr als 20 Milliarden Euro an KI-Investitionen pro Jahr mobilisieren. Forschungszentren und Netzwerke zu KI sollen in Europa besser gebündelt und koordiniert werden. Dafür will die Kommission „Exzellenz- und Testzentren“ einrichten. Diese „europäischen Testzentren von Weltrang“ sollen finanziell gefördert werden, unter anderem mit Mitteln aus dem Programm „Digitales Europa“ (2). Um den Fachkräftemangel im KI-Bereich entgegenzuwirken plant die Kommission den Aufbau von Universitäts- und Hochschulkooperationen (3). So sollen „weltweit führende KI-Masterstudiengänge“ angeboten werden können.
Ein weiterer Förderschwerpunkt liegt auf KMU und Start-ups. Neben den bisher mit 100 Millionen Euro ausgestattetem Fonds für KI und Blockchain plant die Kommission weitere Töpfe im Rahmen des Programms „InvestEU“ zu öffnen und nach einer Einigung über den Haushalt ab 2021 nochmals erheblich aufzustocken. Dadurch soll „mindestens ein digitales Innovationszentrum pro Mitgliedstaat auf KI hochspezialisiert“ sein (4). Private Unternehmen sollen zudem stärker durch öffentlich-private Partnerschaften einbezogen werden. Der Fokus liegt hier besonders auf KI, Daten und Robotik (5). Außerdem soll KI auch im öffentlichen Sektor stärker in Erscheinung treten, vor allem in den Bereichen Gesundheitsfürsorge und Verkehr. Gemeinsam in Dialogen mit dem „Gesundheitssektor, Verwaltungen ländlicher Gebiete und den Betreibern öffentlicher Dienste“ soll ein Aktionsplan ausgearbeitet werden (6).
Darüber hinaus soll der Zugang zu Daten verbessert werden, was Teil der Datenstrategie ist. Zur Förderung von Hochleistungs- und Quantenrechnern, die auch KI-Infrastruktur miteinbezieht, sollen vier Milliarden Euro aus dem Programm „Digitales Europa“ fließen.
Risiken für Grundrechte
Um Vertrauen in KI aufzubauen, beruft sich die Kommission auf die im April 2019 von einer Hochrangigen Expertengruppe vorgelegten Leitlinien. Sie enthalten sieben Kernanforderungen: Der Vorrang menschlichen Handelns und menschlicher Aufsicht; technische Robustheit und Sicherheit; Privatsphäre und Datenqualitätsmanagement; Transparenz, Vielfalt, Nichtdiskriminierung und Fairness; gesellschaftliches und ökologisches Wohlergehen sowie Rechenschaftspflicht. Außerdem enthalten die Leitlinien eine Bewertungsliste für Unternehmen. Diese wurde im zweiten Halbjahr 2019 getestet. Darauf aufbauend will die Expertengruppe ihre Leitlinien nun bis Juni 2020 überarbeiten.
Als Risiken von KI nennt die Kommission eine mögliche Beeinträchtigung von Grundrechten, Gefahren für den Schutz personenbezogener Daten, der Privatsphäre und Nichtdiskriminierung. Genannt wird zum Beispiel die Gefahr der Massenüberwachung durch Behörden oder Arbeitgeber. Ein weiterer Punkt ist, dass KI-Gesichtserkennungsprogramme aufgrund von Geschlecht oder Rasse diskriminieren könnten, da die Fehlerquote bei hellhäutigen Männern gering, bei dunkelhäutigen Frauen hingegen hoch ist. Auch für die Sicherheit und Haftungsregeln bedeutet KI einige Neuerungen, beispielsweise im Falle von Fehlern autonomer Fahrzeuge.
Anpassung von EU-Recht
EU-Produktsicherheits- und Produkthaftungsvorschriften könnten daher angepasst werden. Eine Neuerung von KI ist auch, dass sich Produkte hinsichtlich ihrer Funktionsweise im Lebenszyklus verändern können. Dies gelte insbesondere für Systeme, die häufige Software-Updates erfordern oder auf Maschinellem Lernen beruhen. Geltende Rechtsvorschriften berücksichtigen die veränderlichen Funktionen der KI-Systeme jedoch bisher nicht. Auf Seiten der Hersteller bestehen außerdem Unsicherheiten darüber, wer für welche Komponenten haftet, beispielsweise wenn KI nachträglich in Produkte integriert wird. Insgesamt muss sich das ganze Sicherheitskonzept ändern, damit Risiken wie Cyberbedrohungen oder Gefährdungen der persönlichen Sicherheit, etwa durch Haushaltsgeräte, einbezogen werden. Da mehrere Mitgliedsstaaten schon darüber nachdenken, wie sie solche Fragen in ihre Rechtsvorschriften einbringen, droht zudem eine „Fragmentierung des Binnenmarkts“. Deshalb hält die Kommission mögliche neue, speziell auf KI ausgerichtete Rechtsvorschriften für erforderlich.
Daraus ergibt sich die Frage, für welchen Anwendungsbereich der neue Rechtsrahmen gelten soll. Die Kommission befürwortet einen risikobasierten Ansatz. Für KI mit hohem Risiko legt die Kommission bestimmte Kriterien an. Erstens, wenn die KI-Anwendung in einem „Sektor eingesetzt [wird], in dem aufgrund der Art der typischen Tätigkeiten mit erheblichen Risiken zu rechnen ist“. Als Beispiele werden das Gesundheitswesen, Verkehr, Energie und der öffentliche Sektor genannt. Zweitens, „ob die KI-Anwendung in dem betreffenden Sektor so eingesetzt wird, dass mit erheblichen Risiken zu rechnen ist.“ Daneben gibt es unabhängig von Sektoren KI, die als „hochriskant einzustufen ist“. Hierfür werden als Beispiele KI bei der Einstellung von Arbeitnehmern oder bei Überwachungstechnologien genannt. Für KI-Anwendungen „mit hohem Risiko“ hat die Hochrangige Expertengruppe bereits eine Liste von Merkmalen ausgearbeitet. Dabei geht es zum Beispiel um Trainingsdaten. Hier sollte sichergestellt werden, „dass die Werte und die Regeln der EU eingehalten werden, insbesondere was Sicherheitsfragen und die bestehenden Rechtsvorschriften zum Schutz der Grundrechte angeht.“
Freiwillige Gütesiegel
Bei KI-Anwendungen, die nicht als hochriskant eingestuft werden, hält die Kommission eine freiwillige Kennzeichnung für denkbar. Überprüfte Anwendungen würden dann ein Gütesiegel erhalten. „Mit dem freiwilligen Gütesiegel könnten diese Wirtschaftsakteuren signalisieren, dass ihre KI-gestützten Produkte und Dienstleistungen vertrauenswürdig sind“, hofft die Kommission.
Auch die Datenethikkommission der Bundesregierung hatte in ihrem Ende Oktober veröffentlichten Bericht ein risikobasiertes KI-Modell vorgeschlagen. Sie stufte autonome Waffensysteme in die höchste Risikoklasse ein, die damit verboten werden sollten. Die Bundesregierung hatte ihre KI-Strategie im November 2018 vorgelegt. Die 2018 eingesetzte KI-Enquete-Kommission des Bundestages will ihre Ergebnisse im Sommer präsentieren. Erste Teilberichte aus verschiedenen Arbeitsgruppen wurden bereits Ende Dezember veröffentlicht. Gemäß des Einsetzungsbeschlusses des Bundestags von 2018 hat die Expertengruppe noch etwas länger Zeit. Sie soll „zeitnah nach der parlamentarischen Sommerpause 2020 ihre Ergebnisse und Handlungsempfehlungen vorlegen, damit noch in der 19. Legislaturperiode erste Umsetzungsschritte erfolgen können.“
Tagesspiegel Politikmonitoring
Der vorstehende Artikel erscheint im Rahmen einer Kooperation mit dem Tagesspiegel Politikmonitoring auf der Website des BASECAMP.