Selbstverpflichtung oder Gesetze?: Neue Regeln für den Umgang mit KI
Foto: CC0 1.0, Pixabay User sujins | gespiegelt und zugeschnitten
Brauchen wir eine neue Ethik für das Zeitalter der künstlichen Intelligenz (KI)? Diese Frage wird heute oft gestellt, weil die Technik viele Veränderungen bewirkt und ihre Entscheidungen häufig überraschen. Deswegen haben wir Dr. Isabella Hermann gefragt, die als wissenschaftliche Koordinatorin der interdisziplinären Arbeitsgruppe „Verantwortung: Maschinelles Lernen und Künstliche Intelligenz“ an der Berlin-Brandenburgischen Akademie der Wissenschaften arbeitet. Die Politikwissenschaftlerin beteiligte sich im September als Expertin an den Tagesspiegel Data Debates und erklärt uns heute das Thema mit einem Gastbeitrag.
Telefónica Deutschland hat vor einigen Tagen neue ethische Prinzipien veröffentlicht. Sie dienen als Orientierung bei der Arbeit mit Datenanalysen und künstlicher Intelligenz, um den positiven Einfluss dieser Techniken auf die Gesellschaft zu unterstützen. Denn als Telekommunikationsunternehmen nutzen wir Algorithmen und KI bereits in den verschiedensten Bereichen: von der Optimierung unseres Mobilfunknetzes über den digitalen Assistenten Aura bis zu Datenanalysen für die Verkehrsplanung.
Daraus ergibt sich eine neue Verantwortung, deshalb gelten die KI-Prinzipien von Telefónica Deutschland für die Arbeit im Unternehmen und richten sich auch an Partner und Lieferanten. Sie werden auf dieser Webseite genau vorgestellt. Die neuen Ethik-Standards sind ein fester Bestandteil unseres Responsible Business Plan 2020 und sollen außerdem die Debatte in der Öffentlichkeit anregen.
Doch wieso braucht man eigentlich neue Regeln für die Nutzung von künstlicher Intelligenz? Ist das wirklich nötig oder können wir auch die bisherigen Grundprinzipien des menschlichen Zusammenlebens weiter nutzen? Solche Fragen behandelt der interessante Gastbeitrag von Isabella Hermann. Sie geht sogar noch einen Schritt weiter und fordert außer Ethikdebatten in der Gesellschaft und Selbstverpflichtungen von Unternehmen auch neue Gesetze für den Einsatz von KI.
Wertvorstellungen neues Gewicht verleihen
von Isabella Hermann
Keine Diskussion über die Anwendungen von künstlicher Intelligenz (KI) kommt mittlerweile mehr ohne eine Ethikdebatte aus. Auf der einen Seite sei der Einsatz von KI gerade ethisch geboten, wenn dadurch Leben gerettet werden könnten, wie beim autonomen Fahren oder in der Medizindiagnostik. Auf der anderen Seite stünden negative Aspekte wie Autonomie- und Kompetenzverlust des Menschen, Ungerechtigkeit durch diskriminierende Verzerrungen in Datensätzen oder Social Scoring und Machtmissbrauch.
Dabei ist ein Punkt besonders wichtig: Es geht nicht darum, eine neue Ethik für das „Zeitalter der KI“ zu formulieren. Worum es geht, ist sicherzustellen, dass unsere ethischen Standards – wie bei allen technischen Neuerungen bisher – auch im Kontext von Digitalisierung und künstlicher Intelligenz weiterhin gelten. Wir sind also gezwungen, unseren Wertvorstellungen neues Gewicht zu verleihen.
Digitalisierung bestehender Ethikstandards
Was sind also eigentlich unsere Wertvorstellungen und wo finden wir sie? In Deutschland befassen sich die „Datenethikkommission“ der Bundesregierung und die Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche Potenziale„ des Deutschen Bundestages mit dem Thema. Auf europäischer Ebene hat die „European Group on Ethics in Science and New Technologies“ im März letzten Jahres einen Rahmen für den ethischen Umgang mit KI herausgegeben.
Darauf aufbauend veröffentlichte die High-Level Expert Group on Artificial Intelligence der EU-Kommission im vergangenen Dezember einen entsprechenden Richtlinienentwurf. Die Grundlagen für die Ethikstandards finden sich in Deutschland im Grundgesetz, auf europäischer Ebene in den EU-Verträgen und der EU-Grundrechtecharta. Weil hier die Würde des Menschen zentral ist, besagt beispielsweise auch der erste ethische Grundsatz der European Group on Ethics, dass autonome Systeme die Menschenwürde nicht verletzen dürfen.
Das kann beispielsweise bedeuten, dass uns mitgeteilt werden muss, wenn wir es mit einem Computersystem oder einem Roboter statt mit einem Menschen zu tun haben. Für diesen Fall bräuchten wir ein neues Gesetz, welches Unternehmen und Institutionen dazu verpflichtet, die User, Kunden und Bürger darüber in Kenntnis zu setzen, wenn sie – wenn wir – mit einer Maschine sprechen und von autonomen Systemen bewertet werden.
Doch nicht immer sind gleich neue Gesetze notwendig. Beim vierten Prinzip der European Group on Ethics geht es um Gleichbehandlung. Dazu existiert auf europäischer und nationalstaatlicher Ebene bereits eine umfassende Gesetzgebung. Allerdings müssen wir uns Gedanken machen, wie wir auch in einer digitalen Zukunft sicherstellen, dass die alten Regeln eingehalten werden. Wie gelingt es uns, im Sinne des Allgemeinen Gleichbehandlungsgesetzes diskriminierende Verzerrungen in Datensätzen zu verhindern, zu überprüfen und auszuschalten? Darauf brauchen wir spätestens dann eine Antwort, wenn eine Person gegen eine diskriminierende Behandlung durch ein automatisiertes System klagt.
Die Datenethikkommission spricht sich deshalb für einen „Ethics by, in and for Design“-Ansatz aus, also für die Einbeziehung ethischer Standards im gesamten Entwicklungs-, Test- und Anwendungsprozess von KI-Systemen. Ein solcher Ansatz könnte zum Markenzeichen für „AI made in Europe„ werden. Aufgabe der Politik ist es dann, auf europäischer und nationalstaatlicher Ebene glaubwürdige Kontrollinstanzen zu schaffen.
Unternehmensleitlinien ersetzen keine Regulierung
Selbstverpflichtungen der Wirtschaft sind dabei wünschenswert, können aber nur ein Anfang sein. Egal ob es um die Herstellung von Produkten mit KI geht oder um deren Anwendung innerhalb und außerhalb des Unternehmens. Telefónica Deutschland hat sich beispielsweise Prinzipien für den Einsatz von künstlicher Intelligenz verordnet. Darin verspricht das Unternehmen Transparenz, wenn ein Kunde mit einem KI-System spricht – was gesetzlich bisher nicht vorgeschrieben ist. Unternehmen können also durchaus Vorreiter sein, wenn es um Anwendungen von KI geht, die unseren freiheitlich-demokratischen Wertvorstellungen entsprechen.
Doch unternehmensinterne Leitlinien ersetzen keine Regulierung. Wenn sich beispielsweise Google als erstes KI-Prinzip „Be socially beneficial“ auf die Fahnen schreibt – also dem Gemeinwohl zu dienen – dann bedeutet das, dass Google als auf Gewinn ausgerichtetes Wirtschaftsunternehmen auch definiert, was das Gemeinwohl ist. Und das wird der Logik der Sache nach nicht den Geschäftsinteressen im Weg stehen. Das kann nicht im Sinne einer europäischen Wertebasis sein, die sich darauf beruft, dass gesellschaftliche Entscheidungen in einem demokratischen und deliberativen Prozess getroffen werden.
Aus diesem Grund ist eine staatliche Regulierung unabdingbar, um die Werte, die uns wichtig sind, einzufordern. Nur Gesetze sind im demokratischen System legitimiert und können vom Staat verbindlich durchgesetzt werden. Die Politik könnte schneller sein. Aber bisher brauchte es bei jeder großen Veränderung Zeit, bis das Recht die neuen Verhältnisse widergespiegelt hat. Diesen Preis sollten wir in einem demokratischen System, das unsere Werte vertritt, zu zahlen bereit sein.