Ein Duo für die Zukunft: Immersive Technologie und künstliche Intelligenz
Foto: CC0 1.0, Pixabay User HammerAndTusk/ Ausschnitt bearbeitet, Montage
Augmented, Virtual oder Mixed: Künstliche Realitäten halten immer mehr Einzug in unser Leben. Und gleichzeitig spielt künstliche Intelligenz (KI) häufiger eine Rolle. Dabei beeinflussen sich beide Trends gegenseitig, wie man im Telefónica BASECAMP beim zweiten VR Day des Bundesverbandes Digitale Wirtschaft (BVDW) sehen konnte. Die sogenannten „immersiven Technologien“, mit denen man in virtuelle Welten abtaucht, werden durch KI erst richtig lebendig. Und künstliche Intelligenz bekommt damit ein Frontend für ganz natürliche Interaktionen, wie man sie von einem hilfreichen Freund erwartet. Doch diese Symbiose benötigt sehr große Rechenleistungen, die sich wahrscheinlich nur durch Edge Computing bereitstellen lassen.
„Unternehmen setzen hohe Erwartungen in intelligente Umgebungen mittels Robotik,
KI und immersiver Erfahrungen“, schreibt die Managementberatung Accenture in ihrer aktuellen Studie Technology Vision 2018. Und die neuen Zahlen der Marktforscher von Gartner zeigen: Ganze 25 Prozent der Kundendienst- und Support-Abteilungen werden bis 2020 virtuelle Kunden-Assistenten oder Chatbots einsetzen, während es momentan noch weniger als zwei Prozent sind. Um diese Entwicklungen voranzutreiben, müssten Unternehmen erkennen, dass immersive Technologien und künstliche Intelligenz sich gegenseitig bereichern. Diesen Gedankenschritt fordert Tuong Nguyen, und der leitende Research Analyst von Gartner verwendet auch gleich ein anschauliches Beispiel, um die Vorteile zu beschreiben.
„Interaktion mit immersiven Technologien soll intuitiv und natürlich funktionieren„, sagt Ngyuen. Schon heute ist es möglich, sich neue Möbel zuerst einmal nur virtuell ins Zimmer zu stellen. Mit der Ikea-App für ARKit geht das ganz einfach auf dem iPhone, doch die nächste Stufe der Entwicklung könnte für die nervige Bastelei gezündet werden, die später oft nötig ist: Eine AR-Brille mit einem KI-Assistenten hilft beim Aufbau der Möbel. „Wer die Hände voller Bauteile und Werkzeuge hat, kann natürlich nicht tippen, swipen oder gestikulieren“, erklärt Nguyen. „Also fragt man den Assistenten: ‚Welches Teil halte ich gerade?‘, ‚Welcher Schritt kommt jetzt?‘ oder ‚Wo kommt dieses Teil hin?'“ Der KI-Assistent versteht sowohl die Fragen als auch den Kontext. Und seine Antworten gibt er per Sprachausgabe oder mit Texten und Bildern, die er im Display einblendet.
Nötige Voraussetzungen: Deep Learning und Edge Computing
Diese neuen Möglichkeiten basieren vor allem auf den jüngsten Fortschritten beim Deep Learning: eine neue Form des maschinellen Lernens, die alle herkömmlichen Techniken für die Erkennung und Verarbeitung von Sprache oder das maschinelle Sehen übertrifft. Das Resultat: Die künstliche Intelligenz kann die komplexe menschliche Sprache interpretieren, imitieren und in Echtzeit übersetzen. Und noch beeindruckender: Sie erkennt sogar den Kontext und Stimmungen in Texten oder Unterhaltungen. Die KI kann zusätzlich auch ihre Umgebung oder Videos analysieren, um darin Gegenstände, Bewegungen und selbst Gefühle zu erkennen.
Alle diese Anwendungen benötigen eine enorme Rechenleistung. Bisherige Smartphones und selbst Personalcomputer sind dafür zu schwach, doch sie kann auch nicht komplett aus der Cloud kommen. Ein Beispielszenario verdeutlicht es: Ein autonomes Auto, das auf der Autobahn seine Verbindung zum Netz verliert, darf nicht einfach aufhören zu funktionieren. Die Lösung liege deshalb im Edge Computing, sagt Nguyen. Im Gegensatz zu Cloud-Lösungen werden die Daten dabei teilweise lokal verarbeitet, gleich am Ort des Geschehens oder direkt in der nächsten Mobilfunk-Basisstation, ohne dass sie erst lang in ein Rechenzentrum reisen müssen. Diese Technik soll auch zu einem Bestandteil des neuen 5G-Mobilfunkstandards werden.
„Wir können jetzt schon sagen, dass Edge Computing eine Grundvoraussetzung für die Aggregation und Interpretation von Daten für Anwendungen sein wird, die große Übertragungsraten und geringe Verzögerungen benötigen“, sagt er Experte von Gartner. Die Verarbeitung der Daten erfolgt dann am Rand (englisch: „Edge“) des IT-Netzwerks. Allerdings warnt Nguyen auch vor zu großer Euphorie. Es sei wichtig, nicht zu viel zu versprechen. „Auch wenn wir 2018 Verbesserungen sowohl bei KI als auch bei immersiven Technologien sehen werden, sind die Erwartungen bisher zu groß gewesen“, sagt Nguyen. „Lasst uns diesen Fehler nicht wiederholen!“ Die Technik sei bisher vergleichbar mit einem Jugendlichen: noch immer im Wachstum, aber schon sehr talentiert.