Digitale Identität: künstliche vs. menschliche Intelligenz
Foto: CC0 1.0, Pixabay / geralt / Ausschnitt bearbeitet
In Zukunft werden intelligente Maschinen in vielen Bereichen die menschlichen Fähigkeiten unterstützen. Künstliche Intelligenz und maschinelles Lernen, eröffnen eine neue Welt, die einen immensen Einfluss auf unser zukünftiges Leben, Wohnen und Arbeiten haben wird.
Die Grenzen zwischen Mensch und Maschine verschwimmen. Ab wann sind wir nicht mehr Mensch, sondern Maschine? „Wenn ich einen Chip in mein Gehirn bekomme, damit ich schneller denken kann oder besser denken kann, bin ich dann auch noch derselbe Mensch?“, fragte Bundeskanzlerin Angela Merkel vor kurzem bei ihrem Staatsbesuch in Japan. „Wo endet mein Menschsein?“, sinnierte die Kanzlerin bei einer Diskussion mit Studenten der Keio-Universität in Tokio.
Man kann auch anders herum fragen: Ab wann ist eine Maschine ein Mensch – eine Identität und ein (Selbst)Bewusstsein? Was passiert mit unseren digitalen Ich nach dem Tod? Über solche Fragen debattiert der Philosoph und Bestseller-Autor Richard David Precht am 13. Februar im Telefónica BASECAMP mit Markus Haas, CEO von Telefónica Deutschland, dem Schweizer IT-Unternehmer und Politiker Ruedi Noser, der Psychologin Dr. Astrid Carolus und dem Kaspersky-Sicherheitsexperten Marco Preuss über die Zukunft der digitalen Identität. Moderator ist der TV-Journalist Ali Aslan.
Roboter mit Identität: Moralisch und ethisch unbedenklich?
Wir erschaffen bereits ausdrucksvolle und äußerlich humanoide Roboter. Dahinter steht nichts weniger als die Vision von den freundlichen „Maschinenmenschen„, die uns helfen, die Welt zu retten. Humanlike-Cognitive-Robotics – eine „Disziplin“, in der Robotik mit Neurowissenschaft und Kunst zusammenfinden. Mit künstlicher Intelligenz wird ihnen scheinbar „Leben eingehaucht“, man lässt sie freundlich und emphatisch erscheinen damit die Genie-Maschinen uns helfen können, komplexe Probleme oder Aufgabenstellungen zu lösen. Der Roboter Sophia hat bereits die Staatsbürgerschaft in Saudi-Arabien erhalten und damit eine rechtliche Identität, wenn auch noch kein (Selbst)-Bewusstsein. Das wäre der nächste Schritt, der nach Ansicht einiger KI-Experten wie Ben Goertzel in Zukunft möglich sein könnte.
Ob das wirklich Realität wird oder doch nur Science Fiction ist, das bleibt abzuwarten. Wir sollten jedoch schnellstmöglich die ethischen und moralischen Fragen im Umgang mit künstlicher Intelligenz für uns klären. Das wird keine leichte Aufgabe, denn Moral und Ethik sind schon für Menschen sehr schwierige Themen. Jetzt sollen wir sie auch noch den Maschinen beibringen. Wie soll das funktionieren? Facebook hat gerade angekündigt, einen Lehrstuhl für Ethik in der Künstlichen Intelligenz für mehrere Millionen Euro an der TU München einrichten zu wollen. Experten arbeiten im Auftrag der EU-Kommission aktuell an ethischen Leitlinien für Künstliche Intelligenz, die bis März vorliegen und Teil der KI-Strategie der Kommission werden sollen. Parallel wird das Thema von der Bundesregierung in der Datenethikkommission sowie der Enquetekommission zu Künstlicher Intelligenz mitverhandelt. Unser Anspruch muss sein, technischen Fortschritt bestmöglich zu unterstützen und ihn gleichzeitig mit unseren gesellschaftlichen Werten zu verbinden.
Sterben 2.0: Was passiert mit unserem digitalen Ich?
Aber das Thema digitale Identität umfasst noch mehr als KI. Was passiert mit unserem digitalen Ich, mit unseren Daten, nach dem Tod? Inzwischen gibt es Milliarden von Facebook-Accounts, unzählige E-Mail-Konten und ein Meer von Blogs – unser digitales Ich. Was geschieht mit diesen Hinterlassenschaften, wenn der Verfasser stirbt? Soll man das Facebook-Profil löschen oder doch lieber in ein Gedenkprofil umwandeln? Wo können Freunde und Bekannte virtuell trauern, wenn alle Spuren aus dem Netz getilgt werden? Andererseits: Arbeitet man nicht Identitätsdieben in die Hände, wenn man einfach alles bestehen lässt?
Social Scoring: Punkte für Sozialverhalten
Bedenklich wird es auch, wenn die digitale Identität messbar und damit kontrollierbar wird. Schon heute wissen wenige Menschen, wie ihre persönlichen Daten genutzt und vielleicht von künstlicher Intelligenz ausgewertet werden. Manche Staaten wie China gehen bereits einen Schritt weiter und experimentieren mit „sozialen Punktesystemen„, bei denen jede Art von Fehlverhalten in der digitalen oder realen Welt mit Abzügen gestraft wird.
Wer bei Rot über die Ampel geht oder Freunde hat, die sich kritisch in sozialen Medien äußern, verliert automatisch über ein Kontrollsystem Punkte. Die Folge: Menschen mit niedrigen Punktestand dürfen keine Flugtickets mehr kaufen oder haben schlechtere Chancen, einen Ehepartner zu finden. Ist das nur die Zukunft für China? Oder wird künftig unser aller Leben, über unsere digitale Identität, von Algorithmen überwacht und kontrolliert?
Bei allen Herausforderungen: Wir dürfen nicht den enormen gesellschaftlichen Nutzen übersehen, den neue Technologien wie Künstliche Intelligenz, Blockchain und Robotik uns Menschen bringen. Unser Ziel muss sein, eine breite gesellschaftliche Akzeptanz für die neuen Technologien zu schaffen. Dazu gehören verbindliche Regeln, die alle Interessen schützen. Und vielleicht auch eine neue Ethik für die digitale Welt.