Sprachassistenten

Alexa, Siri, Google: Sind digitale Beziehungen problematisch?

An manchen Tagen spricht man mit Siri, Alexa und Co. mehr als mit der Part­nerin oder dem Partner. Was ist denn da los? Oder kann so eine neue digi­tale Bezie­hung in Pandemie-Zeiten sogar von Vorteil sein?

Für viele Menschen gehören Sprach­assis­tenten längst zum Alltag. Sie beant­worten Fragen, helfen, schnell an Infor­mationen zu gelangen, spielen auf knappen Befehl hin Musik oder erin­nern an Termine.

Durch freund­liche Stimmen und vorpro­gram­mierte Antworten auf lustige oder philo­sophi­sche Fragen könnte man fast den Eindruck gewinnen, dass man eine Art Bezie­hung pflegt.

Objekte werden vermensch­licht

Vertrauter Leuchtring: Amazons Alexa hört zu Vertrauter Leuchtring: Amazons Alexa hört zu
Bild: picture alliance/Britta Pedersen/dpa-Zentralbild/dpa
Aber auch nur fast. Denn in der Inter­aktion mit Technik vermensch­lichen Menschen gern Objekte, um Prozesse zu erklären, die sie sonst nicht verstehen, sagt Esther Görn­emann von der Wirt­schafts­uni­ver­sität Wien. "Wenn Cortana nicht macht, was ich sage, liegt das wohl daran, dass "sie nicht will".

Teil­nehmer in Studien berichten, dass Alexa "belei­digt", "frech" oder "char­mant" ist, oder sogar "ein kleines Fami­lien­mit­glied, das morgens mit am Früh­stücks­tisch sitzt"." Beson­ders stark ausge­prägt sei die Tendenz zur Vermensch­lichung bei Kindern. Es gebe aber auch ein soziales Motiv dafür, Objekte zu vermensch­lichen, sagt Görn­emann. Und hier werde es inter­essant in Bezug auf die Corona-Pandemie: "Wir versu­chen, damit einen Mangel an sozialer Bindung mit anderen Menschen zu kompen­sieren." Wer einsam ist, neige eher dazu, soziale Bindungen zu Objekten aufzu­bauen.

Mit realen Menschen tele­fonieren

Gene­rell sollte man sich aber keine Sorgen machen, wenn man bemerkt, dass man viel mit einem digi­talen Assis­tenten spricht, meint Prof. Arvid Kappas von der Jacobs Univer­sity Bremen. "Wir wissen, dass Isola­tions­haft mit das Schlimmste ist, was man Menschen zumuten kann. Wenn jemand keine Möglich­keit hat, mit irgend­jemand anderem zu spre­chen oder zusammen zu sein, kann so etwas passieren", erklärt der Psycho­loge.

Grund­sätz­lich sollte man aber versu­chen, das Konto sozialer Inter­aktionen auch mit anderen Mitteln aufzu­bauen und etwa lieber mit realen Menschen tele­fonieren.

KI wird immer besser

Dass zum Beispiel Kinder Sprach­assis­tenten als reale Wesen wahr­nehmen könnten, über­rascht Prof. Kappas nicht: "Man macht sich ja auch keine Gedanken, wenn Kinder längere Zeit mit ihrem Teddy­bären spre­chen und denken, dass der Teddybär ein Seelen­leben hat."

Dass Kinder in der Lage sind, komplexe Inter­aktionen mit nicht lebenden Gegen­ständen zu führen, sei keine neue Entwick­lung. Die neueste Gene­ration Sprach­assis­tenten könne ledig­lich wesent­lich besser Sprache verstehen, als dies früher der Fall war. Trotzdem sei man im Moment immer noch relativ weit davon entfernt, eine tief­gehende Konver­sation mit einem Assis­tenten führen zu können.

Esther Görn­emann teilt diese Ansicht, glaubt aber, dass sich dies durch den tech­nischen Fort­schritt auf dem Gebiet der Künst­lichen Intel­ligenz (KI) bald ändern könnte: "Durch GPT-3 haben wir jetzt eine KI, die erstaun­lich gute Texte formu­lieren kann und dabei über­raschend kreativ und viel­seitig ist. Ein so gutes Sprach­modell ist eine wesent­liche Kompo­nente für einen Sprach­assis­tenten, mit dem wir eine soziale Verbin­dung aufbauen können." Proble­matisch werde es erst, wenn Menschen anfangen würden, ihre sozialen Kontakte zu Menschen durch Assis­tenten zu ersetzen.

Kinder sollten nicht zu viel mit ihnen spielen

Grund­sätz­lich betrachtet seien Sprach­assis­tenten ja erst einmal nur ein weiteres Medium, um Kommu­nika­tion zu führen und Dinge zu beschleu­nigen, meint Prof. Andreas Dengel, Direktor des Deut­schen Forschungs­zen­trums für Künst­liche Intel­ligenz (DFKI). Als Seelen­tröster würden sie hingegen nicht taugen.

Und zwar unter anderem deshalb, weil sie Empa­thie nur vorspielen und auch nur bedingt ausüben könnten, sagt Dengel. "Der Mensch benö­tigt auch nega­tive Konver­sationen, um Empa­thie spüren zu können. Zwischen­mensch­liche Kommu­nika­tion ist viel­schich­tiger und viel­dimen­sio­naler als es eine Konver­sation mit einem Sprach­assis­tenten sein könnte."

Bei aller Faszi­nation, die von Sprach­assis­tenten ausgeht: Kinder sollten nicht zu viel mit ihnen spielen, da sich dies negativ auf ihre Kommu­nika­tions­fähig­keit auswirken könne, warnt Dengel.

"Kommu­nika­tion besteht ja nicht nur aus Sprache, sondern es sind mannig­faltig nonver­bale Kommu­nika­tions­formen betei­ligt, wie etwa Mimik und Gestik oder auch die Spie­gelung des Gegen­übers. Und das lernt man bei solchen Geräten eben nicht."

Sprach­assis­tenten als Orga­nisa­toren

Neben Risiken sieht Prof. Kappas aber auch die Chancen von Sprach­assis­tenten. Gerade für ältere Menschen könnten sie einen Zuwachs an Frei­heit bedeuten. Ein Sprach­assis­tent könne als Begleiter bei bestimmten Themen helfen, indem er zum Beispiel an Termine erin­nert oder daran, Medi­kamente einzu­nehmen, sagt der Psycho­loge.

"Ein natür­liches Sprachin­ter­face ist wesent­lich besser geeignet für ältere Menschen, die viel­leicht nicht mehr so gut tippen oder auf einen Bild­schirm schauen können", sagt Kappas. Den Sprach­assis­tenten könne man auch einfach auffor­dern, jemanden anzu­rufen, ganz ohne Nummern­suche und Tipperei. Bei den meisten Menschen sei der Umgang mit Sprach­assis­tenten jedoch ganz einfach spie­leri­scher Natur.

Daten­schutz und Werbung

Sprach­assis­tenten bergen immer auch das Risiko der Über­wachung, sagt Esther Görn­emann von der Wirt­schafts­uni­ver­sität Wien. Und: "Ich sehe es als proble­matisch, dass wir mehr persön­liche Infor­mationen preis­geben, wenn wir eine soziale Bezie­hung zu unserem Sprach­assis­tenten aufbauen. Das passiert ganz unwill­kür­lich und wir sind uns dessen viel­leicht auch gar nicht bewusst."

Im Hinter­grund hätten Hersteller bereits Patente entwi­ckelt, die aus den Sprach­ein­gaben werbe­rele­vante Schlüs­sel­wörter heraus­hören sollen, sagt die Forscherin. Über lange Zeit würden die Firmen dabei so viel wie möglich über die Kunden lernen, und daraus beispiels­weise ableiten, welche Werbung wann funk­tio­nieren könnte.

Werbung könnte dann so indi­viduell an Situa­tionen ange­passt werden, dass man gar nicht merke, dass im Grunde das eigene Verhalten mani­puliert wird, warnt Görn­emann. "So lange Tech-Giganten uns bis aufs kleinste Detail durch­leuchten und dieser Prozess so intrans­parent bleibt, wie er es jetzt ist, besteht die Gefahr, dass wir uns so verhalten, wie der Hersteller es sich wünscht, und wir merken es noch nicht mal."

Mehr zum Thema Alexa