Was und wie wird menschliche Emotion technisch gemessen, wenn Algorithmen Emotionen erfassen und analysieren? Was für ein Emotionsverständnis muss zugrunde gelegt werden, damit technische Systeme Emotionen „erkennen“ können? Aktuell werden fünf Formen der Emotionserkennung in technischen Systemen genutzt:1.) Gesichtsbasierte Emotionserkennung, 2.) Stimmbasierte Emotionserkennung (akustische und prosodische Merkmale des Sprechens), 3.) Sentimentanalyse (Analyse der Bedeutung der Worte), 4.) Biosensoren, 5.) Multimodale Ansätze (vgl. Misselhorn
2021, S. 20–34). Im Bereich sozioemotionaler Systeme kommen aktuell insbesondere Form 1 und 2 zur Anwendung, wobei Form 1 auf der 1978 entwickelten Emotionstheorie der Psychologen Paul Ekman und Wallace Friesen (
1978) basiert. Sie ist geleitet von der Annahme, dass Emotionen kulturübergreifend in gleicher mimischer Form geäußert werden. Das FACS (Facial Action Coding System) gestattet durch die Analyse von Mikromimik die Identifikation von sieben Basisemotionen (Wut, Freude, Trauer, Ekel, Verachtung, Angst und Überraschung). Die Bedeutung, die dem Modell von Ekman und Friesen im Kontext technischer Emotionserkennung zuerkannt wird, verdankt sich jedoch nicht der Bedeutung der Theorie in der Psychologie (Feldman Barrett et al.
2019; von Schewe
2010; Heaven
2020), sondern ihrer technischen Umsetzbarkeit. Nicht wissenschaftliche Differenziertheit und Validität, sondern technische Adaptivität sind hier entscheidend. Um menschliche Emotionen technisch erfassen zu können, müssen sie auf beobachtbare, messbare und quantifizierbare Aspekte reduziert werden, weswegen Emotionstheorien, die ausschließlich auf den expressiven Aspekt fokussieren, (erneut) an Relevanz gewinnen, ungeachtet deren Bewertung in der Psychologie (Hennenlotter und Schroeder
2006). Es wird ein Emotionsmodell implementiert und stabilisiert, das als Funktionsbedingung notwendigerweise relevante Aspekte (wie z. B. das subjektive Erleben, das Interaktionsgeschehen, den Kontext) ausblendet. Wie verhält sich im Modell die Messung zum Gemessenen, und was ist damit emotional verstanden? Wenn technische Systeme nur einen Aspekt menschlicher Emotionen (z. B. den mimischen oder stimmlichen Ausdruck) erfassen können, sind die technischen Leistungen nur von begrenztem Nutzen und können keinesfalls menschlichen Fähigkeiten in der Erkennung gleichgesetzt werden. Aber auch das technische Korrelat zur menschlichen Emotion ist von stark reduzierter Qualität (vgl. Weigel
2017). Das lässt Zweifel aufkommen, ob es unter diesen Umständen grundsätzlich gerechtfertigt ist, auf menschlicher und technischer Seite von Emotion zu sprechen, oder ob, wie im Falle des Terminus „künstliche Intelligenz“, die Zuschreibung menschlicher Fähigkeit an technische Systeme eher irreführend denn erhellend ist. Wenn ein komplexes menschliches Geschehen wie Emotionserkennung, -interpretation und -expression nur um den Preis der Quantifizierung und starken Reduktion technisch zu haben ist, ist es zumindest diskutabel, ob, in welcher Form, für welche Kontexte und welche Zielgruppen diese Art der Technik genutzt werden sollte. Ungeachtet der eingangs bereits zitierten Versprechungen bezüglich der Möglichkeit einer wechselseitigen emotionalen Beziehung zwischen Mensch und Technik, bleibt die grundsätzliche Frage nach dem Nutzen und der ethischen Vertretbarkeit dieser Art von Technik virulent. Dass der Technikkonzern Microsoft die Forschung an KI-gestützter Emotionserkennung sistiert hat, könnte Zweifel an der Umsetzbarkeit der versprochenen Ziele nähren (Futurezone
2022). Zugleich treiben andere Unternehmen das Projekt einer „empathischen Technologie“ voran und weisen auf die mannigfachen Einsatzgebiete hin (Fraunhofer
o. J.).
Es wäre ethisch zu diskutieren, welche Folgen die Verbreitung von Emotionen analysierenden und simulierenden MTI in der Gesellschaft hätten. Da die Systeme zumeist adaptiv konstruiert werden und somit emotionale Auseinandersetzungen unwahrscheinlich machen, ist es plausibel anzunehmen, dass zunehmende Interaktionen mit solchen technischen Systemen zu einer Veränderung der (emotionalen) Erwartungshaltung bei Menschen auch im zwischenmenschlichen Bereich beitragen. Menschliche Interaktionen sind kontingent und prinzipiell ergebnisoffen, sie könnten dadurch unattraktiver erscheinen (weil mühevoller, herausfordernder) und zugunsten vermeintlich leichterer Interaktionen mit technischen Systemen reduziert werden. Da jedoch der Umgang mit Widerständen, Grenzen und Frustrationen eine der zentralen Kompetenzen gelingender Lebensführung darstellt (vgl. Wiegerling
2021; Schulz von Thun
2021; Antonovsky
1979), ist zu fragen, ob die Chancen zum Erwerb dieser Kompetenz durch vermehrte Interaktionen mit adaptiven Systemen minimiert werden und welche sozialen und ethischen Konsequenzen daraus resultieren könnten. Das in Zusammenhang mit Assistenzsystemen oder Automobilen plausible Argument der Förderung menschlicher Bequemlichkeit könnte an dieser Stelle nicht nur auf körperliche Betätigung, sondern ebenso auf soziale Auseinandersetzung angewandt werden. Wenn „emotional friktionsfreie“ Interaktionsoptionen geboten werden, ist es plausibel anzunehmen, dass diese aus Bequemlichkeitsgründen bevorzugt genutzt werden. Damit steigt jedoch das Risiko Ambiguitätstoleranz und Konfliktfähigkeit einzubüßen; Kompetenzen, die auch und gerade in demokratischen Gesellschaften dringend von Nöten sind.
Betrachtet man die Emotionalisierung des Menschen durch Technik als weiteren Aspekt, stellt sich hier die Frage nach dem Nutzen. Wenn die Aufgabe der Technikethik darin besteht, nach einem Ausgleich zwischen dem, was machbar ist, und dem, was verantwortbar ist, zu suchen, muss aus ethischer Perspektive die Frage nach der sozialen Funktionalität emotionssensitiver Technik dauerhaft präsent gehalten werden und mit der Frage danach verknüpft werden, ob durch den Einsatz von Technik soziale Probleme gelöst werden sollen (wie z. B. Einsamkeit, Pflegenotstand …), die auf diesem Wege wohl nicht befriedigend zu lösen sind, sondern nur einer scheinbaren Lösung zugeführt werden. Das menschliche Bedürfnis nach emotionaler Bindung und Anerkennung kann nicht von einem technischen System befriedigt werden, sondern lediglich von einem anderen Lebewesen – und auch dort nicht immer. Technische Systeme können u. U. Menschen inspirieren, unterhalten, unterstützen und mit ihnen interagieren, jedoch keine wechselseitigen emotionalen Bindungen eingehen, und sollten deswegen auch nicht in dieser Form präsentiert werden.