Emotion
Was macht den Mensch zum Menschen? In Interaktion mit intelligenten Geräten und Computersystemen wird diese Frage immer wichtiger. Gefühle und Emotionen sind etwas, das essentiell zum Menschsein dazu gehört, in ihnen kommt die Persönlichkeit des Einzelnen stark zum Ausdruck. Emotionen unterscheiden uns von Maschinen. Denn: Ein Computersystem fühlt nicht. Oder?
Um das zu beantworten, versuchen Forscher zu verstehen, was Emotionen eigentlich sind. Denn es gibt keine einheitliche Definition. Geht es nur um körperliche Reaktionen, mentale Zustände die auf körperliche Reaktionen folgen, oder um bewusste Bewertungen und unbewusste Impulse? „Emotionen sind kurzlebige psychologisch-physiologische Phänomene, die der Anpassung an sich wandelnde Umweltbedingungen dienen“, fasst das Lexikon für Psychologie und Pädagogik (Stangl, 2018) den Emotionsbegriff zusammen.
Künstliche Intelligenz soll künftig zuverlässig Gefühle durch die Analyse von Datenpunkten aus Mimik, Sprachmelodie und Verhaltensmuster erkennen, interpretieren und simulieren können. „Emotion AI“ nennen Forscher das oder „Affective Computing“ – eine der jüngsten Disziplinen im Bereich der KI, an der Schnittstelle von Informatik, Psychologie und Kognitionswissenschaft. Die initiale Idee stammt aus einem Paper von Rosalind Picard vom MIT, die die Berechnung und Modellierung von Emotionen in die Informatik integrieren wollte.
Es geht darum, eine personalisierte Interaktion mit Geräten zu ermöglichen, eine „menschlichere“ Zusammenarbeit. Maschinen sollen emphatischer werden. Was ein System momentan am besten über Smart Devices lernt, also über intelligente Alltagsgegenstände wie das Smartphone, eine Apple Watch mit Fitness Tracker oder das google-glass. Sie alle sind kabellos, mobil, vernetzt und sind mit einem hochintegrierten Chip ausgestattet, der Sensoren, Prozessor und Kommunikationsschnittstelle enthält. Wir können sie ständig dabei haben und dadurch das Gerät mit Informationen über unsere Bedürfnisse und unser Verhalten füttern.
Sprach-Bots versuchen so realistische Konversationen voranzutreiben. Sie werden vor allem in Call-Centern eingesetzt und trainiert. Gesichtserkennungs- und Gesichtsanalyse-Softwares wie Amazon Rekognition werden momentan vor allem zur Benutzerverifizierung und im Rahmen der öffentliche Sicherheit eingesetzt. Die Software kann Bilder verstehen, erkennt anhand bestimmter Muster, ob jemand wütend oder glücklich ist.