Künstliche Intelligenz: Hat ein Algorithmus Vorurteile?
Frauen sollen sich rarmachen, keine Rechte haben und Turnschuhe tragen. Männer sollen Frauen dienen, Ananas essen und wie Polizeihunde sein. Das sind zumindest die Vorschläge der Google-Suche, wenn man derzeit „Männer sollen“ und „Frauen sollen“ eingibt. Hinter den Vorschlägen der meist benutzten Suchmaschine des Internets steckt ein Algorithmus, der jeden Tastenanschlag des Recherchetools auswertet, jeden Klick auf eine Seite im weiten Web erfasst und die Informationen automatisch weiterverwendet.
Algorithmen entscheiden
Wenn Programme für Menschen Entscheidungen treffen, stellen sich einige ethische Fragen nach der Entscheidungskompetenz der Algorithmen. Beim automatisierten Fahren wird derzeit immer wieder die berühmte Frage diskutiert, ob das Auto im Risikofall entscheiden soll, ob es bei einem Unfall beispielsweise mit einem statt zwei Menschen kollidiert. Das selbstfahrende Auto würde diese Entscheidung anhand eines Algorithmus fällen. Das Problem artet schnell aus, wenn neben der Anzahl der Menschen, die bei dem Unfall zu Schaden kommen, auch andere Faktoren berechnet werden, etwa Geschlecht oder Alter.
In vielen Bereichen treffen Programme schon zentrale Entscheidungen, zum Beispiel, ob jemand einen Kredit bekommt oder wie ein Schadensfall von einer Versicherung bewertet wird. Der deutsche Konzern SAP bietet eine Personalsoftware an, mit der die besten Kandidaten aus einem Pool herausfiltert werden können – und wirbt damit, dass die Software objektiv sei. Das Diskriminierungsgesetz soll eigentlich verhindern, dass Geschlecht, Hautfarbe oder Wohnort in solche Entscheidungen mit einfließen. Was passiert aber, wenn Algorithmen eben diese Entscheidungen treffen?
In Großbritannien erregte eine Software Aufsehen, die Daten von Straftätern auswertete, um deren Rückfälligkeit zu ermitteln. Herauskam, dass der Algorithmus schwarze Hautfarbe mit Kriminalität gleichsetzte. Und dies hatte konkrete Konsequenzen auf das Strafmaß der Täter. Der Computer mag zwar die rationale Hoheit besitzen, aber Programme werden am Ende von Menschen entwickelt. Ihre Vorstellungen und ihr Erfahrungshintergrund kommen unweigerlich in die Codes.
Forderungen nach Transparenz und Algorithmus-Behörde
Es gibt also noch jede Menge offene Fragen, wie mit der Entscheidungsmacht von Algorithmen umzugehen ist – und das Thema wird in der Politik heiß diskutiert. Artikel 7 und 8 der EU-Digitalcharta, deren erster Entwurf von dem damaligen EU-Parlamentspräsident Martin Schulz und dem Datenschutz-Berichterstatter des EU-Parlaments Jan Philipp Albrecht im Dezember vorgestellt wurde, befassen sich mit Algorithmen und Künstlicher Intelligenz. Danach soll es unter anderem einen Anspruch auf Offenlegung von Kriterien und Überprüfung von automatisierten Entscheidungen geben. „Ethisch-normative Entscheidungen können nur von Menschen getroffen werden können”, heißt es außerdem. Die Digitalcharta greift auch einen Grundsatz auf, den zuvor Justizminister Maas in seiner Digitalen Grundrechtecharta machte:
„Kein Mensch darf Objekt eines Algorithmus sein.“
Die Bundesregierung forderte in einem Positionspapier für eine europäische Gesetzgebung bereits vor einem Jahr ebenfalls, dass Online-Plattformen die Grundprinzipien ihrer Such- und Empfehlungsalgorithmen für Nutzer offenlegen. Netzaktivisten gehen noch einen Schritt weiter. Die Initiative Algorithm Watch hat sich zur Aufgabe gemacht Algorithmen, die „lebensentscheidende Konsequenzen haben können“ zu analysieren und zu bewerten. Die Initiative fordert eine stärkere Verantwortung bei Entwicklern und Institutionen, die Automatisierungsverfahren anwenden. Die Kontrolle dieser Standards solle „unter demokratische Aufsicht gestellt werden“, heißt es weiter.