Technik und Selbst: „Können Roboter unsere Freunde sein?“

Im Sommersemester 2018 fand am Karlsruher Institut für Technologie in Kooperation mit unserem Projekt zum Wissenschaftsjahr das Seminar „Technik und Selbst“ statt. Unter der Anleitung von Dr. Alexandra Hausstein (Institut für Technikzukünfte) und Dr. Bettina Krings (Institut für Technikfolgenabschätzung und Systemanalyse) beschäftigten sich Studierende der Geschichte und Philosophie darin mit Wechselwirkungen zwischen Technik und Individuum und den Auswirkungen, die einzelne Technologien auf sie konkret haben. Die dabei entstandenen, teils wissenschaftlichen, teils autobiografischen Texte und Essays der Studierenden zu den Arbeitswelten der Zukunft werden in den nächsten Wochen von uns in unserem Blog veröffentlicht.

Ist eine Freundschaft mit Robotern möglich?
Können Roboter unsere Freunde sein?

Von Hannah Göller

Oft ist der Grund, dass wir mit einem Menschen eine Freundschaft eingehen, der, dass wir uns ihm nahe fühlen, etwas verbindet einander – man fühlt sich vertraut. Vertrautheit heißt, man erkennt gewisse Dinge wie Verhaltensweisen oder die verwendete Sprache bei der anderen Person wieder; entweder von anderen Freunden oder von sich selbst. Deshalb fühlt man sich beieinander wohl, da man nicht zu befürchten hat, etwas Falsches zu sagen. Man ist „auf einer Wellenlänge“. Nun soll den immer komplexeren und intelligenteren Robotern genau dies gelingen: Vertrautheit schaffen, wie ein alter Bekannter wirken und schließlich eine Freundschaft mit diesem Menschen imitieren. Er soll lernen, auf das soziale Verhalten von Nutzern zu reagieren und entsprechend mit ihnen zu interagieren.

Der Bereich der „Sozialrobotik“ beschäftigt sich seit Jahren euphorisch mit diesem Thema. Versucht wird, den Umgang des Nutzers mit dem Roboter so intuitiv und vertraut wie möglich zu gestalten und dem Roboter Verhaltensmuster „beizubringen“, die auch Menschen zwischen einander aufweisen. Dies erweist sich als äußerst komplexe Aufgabe, da Menschen bisher in der Robotik (vor allem im Dienstleistungsbereich) nicht als Interaktionsobjekt, sondern als „unkalkulierbare Hindernisse“[1] galten.[2] Die Einsatzmöglichkeiten von Robotern sind schon lange von Pflegeheimen und Flughäfen auf den privaten, sozialen Gebrauch ausgeweitet worden. Umso enthusiastischer zeigen sich die Forscher der Sozialrobotik. Denn dort ist noch viel Platz für Selbstreflexion, Experimentieren und für das Testen der Grenzen der Wissenschaft.

Abb. 1: Plakat „Ich werde Maschinen das Denken und Lachen beibringen“, © Bundesministerium für Bildung und Forschung

Technisch gesehen scheinen die Möglichkeiten unendlich. Soziale Roboter werden immer „intelligenter“, bis wir an die Grenzen der Informatik stoßen. An dieser Stelle stellt sich die Frage, wie programmierbar intuitives Verhalten, (spontane) Emotionen und Reaktionen sind. Die Gestaltung einer solchen Maschine liegt nicht nur in den Händen der Ingenieure: Wissensbereiche wie Psychologie, Design und Alltags-Ethnographie müssen hinzugezogen werden.[3] In diese Position scheint sich das Mädchen unseres Plakats zum Wissenschaftsjahr 2018 (Abb. 1) zu wünschen. Sie möchte Maschinen „das Denken und Lachen beibringen“ – möglicherweise, um selbst einen Roboter zum Freund zu haben oder um Hilfsroboter beispielsweise aus dem Pflegebereich noch innovativer zu gestalten. Hier stellt sich nur die Frage:

Ist Freundschaft mit Robotern möglich?

Hierfür müssen wir zunächst die Bedingungen für eine freundschaftliche Beziehung klären, oder vielmehr: Was macht einen Roboter vertrauensvoll und liebenswert? Denn Vertrauen kann allgemein als größte Tugend einer Freundschaft angesehen werden. Ein Projektteam, welches einen Museumsroboter für Führungen und zur Koordination der Besucher entwickelt, führt zu dieser Frage die kognitionspsychologische These heran, die besagt, dass „die Repräsentation von inneren Zuständen entscheidend für ein Gelingen der Begegnungen von Roboter und Museumsbesuchern ist.“[4][5] Folglich muss, um Vertrauen aufzubauen, ein emotionaler, inniger Kontakt aufgebaut werden. Bereits an diesem Punkt beginnen die Probleme. Sherry Turkle[6] als verkündete Gegnerin von intimen Roboter-Mensch-Beziehungen stellt diese Problematik in ihren Büchern immer wieder dar.

Sie sieht Intimität und Authentizität als wertvolle, wenn nicht entscheidende Faktoren einer Beziehung. Roboter seien lediglich eine „clevere Zusammensetzung von ‚als ob‘ Täuschungen, es tut als ob es sich sorgt, als ob es uns versteht.“[7] Die fehlende Originalität, die sonst durch die eigene Lebensgeschichte, Erfahrungen der Kindheit, Verluste und Ängste entsteht, schließt den leblosen Roboter als tiefgründigen Kommunikationspartner aus. Er hat keine Erlebnisse und Freudengeschichten, die er mit uns teilen kann. Und für Turkle besteht gerade darin, in dem Sehen der Welt aus der Perspektive des anderen, ein großer Teil einer Liebesbeziehung[8].

„Sie müssen sich nicht dem Tod stellen und wissen nicht, was Leben ist.“[9] Roboter befinden sich nicht in der Lebensspirale von Werden und Vergehen – sie haben kein Gefühl für existenzielle und Überlebensängste oder Verständnis für die Furcht vor dem Tod, geschweige denn denken sie über Himmel, Hölle und Vergebung nach. Es findet keine Alterität statt, kein Vergleich der Standpunkte, kein Diskutieren, keine Einsicht des Anderen. Und somit scheint Empathie für eine gedanken- und meinungslose Maschine beinahe ausgeschlossen.

Aber warum verfallen wir den Robotern dann immer wieder?

Warum gehen wir eine engere Bindung mit Robotern ein und sind traurig und betrübt, wenn unser Tamagotchi auf einem virtuellen Online-Friedhof seine letzte Ruhe findet?

„Wir sind psychologisch darauf programmiert nicht nur das zu pflegen, was wir lieben, sondern auch zu lieben, was wir pflegen.“[10] So können schon kleine Tamagotchi-Tierchen tiefste elterliche Zuneigung wecken.

Roboter geben uns genau das, was wir brauchen: Aufmerksamkeit, Präsenz, ein Ohr zum Zuhören. Und sie wollen genau das nicht, was wir nicht geben wollen: Intimität, freundschaftliche Gebundenheit, ein Ohr zum Zuhören. Sie kümmern sich um uns, ohne jemals etwas zurück zu verlangen – ein scheinbar perfekter Partner. „Wir sind einsam, aber fürchten uns vor Intimität. Digitale Vernetzung und soziale Roboter können eine Illusion von Gemeinschaft ohne die Ansprüche einer Freundschaft bieten.“[11] Turkle betont immer wieder die Ambivalenz einer solchen Beziehung: sie ermöglicht dem Menschen gezielt die Grenzen der Freundschaft zu setzen. Er tritt in Kontakt um seine Einsamkeit zu heilen, aber kann sich zu jedem Zeitpunkt zurückziehen und abgrenzen. Der Mensch ist gleichzeitig „in Gemeinschaft und alleine“[12]. Es ist der Punkt, an dem Intimität und Einsamkeit nahtlos ineinander übergehen.[13]

Hinzu kommt, dass Technik immer „richtig“ handelt. Heutzutage gilt die Technologie als Lösung für all unsere Probleme. Sie hat Leben gerettet und Katastrophen verhindert, auch wenn zu Beginn der Technikgeschichte zunächst die Angst vor der Unkontrollierbarkeit der Technik wuchs[14]. Doch der heutige Enthusiasmus, mit dem wissenschaftliche und technische Forschung betrieben wird, ist kaum zu übertreffen. Eine Zukunftsvision jagt die nächste, und das Schicksal der Welt scheint von unseren technischen Roboter-„Freunden“ abzuhängen. Mit dieser Freude wird auch humanoiden Robotern entgegengegangen. Die Vorstellung von dem perfekten Kommunikationspartner, der niemals enttäuscht, widerspricht oder verletzt, überdeckt jegliches Bedürfnis von Menschlichkeit des Gegenübers.

Aber dennoch lassen wir uns von diesen „als ob“-Darstellungen täuschen. Es genügt, dass der Roboter nur vorgibt, zuzuhören und uns zu verstehen. „Die Imitation einer Beziehung ist Beziehung genug.“[15] Dies nennt Turkle den „robotischen Moment“: Der Mensch findet Gesellschaft in Robotern, selbst im Wissen, dass es sich um künstliche Intelligenz handelt. Turkle merkt an, dass „Menschen […] sogar vorgetäuschte Empathie als real [erleben].“[16]

Aber zu welchem Preis?

Der Preis ist hoch, denn unter der Anspruchslosigkeit der Beziehung leidet die Kommunikation. Zwar findet sie, meist auf eine sehr minimalistische und einseitige Weise, statt, aber dabei bleibt etwas wie (empathische) Resonanz gänzlich zurück. Der „technische Freund“ kann zwar auf Behauptungen und Beschriebenes eingehen und ausgewählte Antworten darauf geben, doch es wird keinerlei aktive Diskussion entfacht, bei der Meinungsunterschiede hitzig debattiert werden. Die Responsivität, also die Bereitschaft auf etwas Gesagtes einzugehen, mag ebenfalls vorhanden sein, aber lediglich künstlich durch die Programmierung. Ein reales Interesse liegt in keinster Weise vor.

Technisch gesehen unterhalten wir uns auch mit einer Software, die auf die Imitation eines zwischenmenschlichen Gesprächs ausgelegt ist. Wie eine Unterhaltung über einen Chatroom an Wert verliert, weil die menschliche Nähe, Emotion und Gestik fehlt, so könnte man nach Marshall McLuhans These „The Medium is the Message“ dies auch auf Robotergespräche übertragen. Schon allein, dass wir mit der Software bzw. mit dem Roboter über eine digitale Fläche kommunizieren, schädigt die Konversation. Es gehen Echtheit und Realität der Kommunikation verloren. Dabei besteht der Roboter neben der Software ausnahmslos aus mechanischen, artifiziellen Teilen – also aus „Technik“. Selbst wenn der Roboter Arme und Gesichtszüge im Gespräch bewegen würde, wäre die Message des Mediums stets Unnatürlichkeit, Starrheit, Leblosigkeit, Gefühlslosigkeit.

Denn die Roboter erkennen unsere Emotionen lediglich und zeigen daraufhin die für sie logische Reaktion. Hierfür werden meist über Kameras und Mikrofone bzw. Spracherkennung Daten des Nutzers aufgezeichnet, die in einer Software über verschiedene Stimmungsfaktoren (z.B. Zufriedenheit) verarbeitet werden.[17] Das Gefühl des Menschen wird „errechnet“. Hier passiert kein magischer Moment, in dem sich zwei Wesen nahe fühlen – keine Roboter-Begegnung wird je das „Knistern“ zwischen zwei Menschen ersetzen.

Doch genau an dieser Stelle belehrt uns der Roboter eines Besseren: Wir beeinflussen die Maschine nicht nur; sie beeinflusst auch uns. Turkle kommt zu der Erkenntnis, dass eine emotionale Bindung mit einem Roboter (über intime Gespräche) uns unsere Auffassung von Freund- oder Gesellschaft auf ein Minimum reduzieren lässt. Sie nennt es das „psychologische Risiko des robotischen Momentes“[18]. Dadurch, dass wir uns durch eine innige Unterhaltung mit einem Roboter-„Freund“ sozial befriedigt fühlen, sehen wir das „interagieren mit etwas“[19] als Grund für eine Freundschaft.[20] An dieser Stelle kann man an die vielfältigen Facebook-„Freundschaften“ erinnern, die lediglich auf gegenseitigem „Likes“-Austauschen basieren.

Ist die Freundschaft zu einem Roboter wirklich so unmöglich?

Auf der Alltagsebene: Nein. Schließlich beweisen mehrere Studien zu dem Nutzungsverhalten des Staubsaugroboters „Roomba“, dass eine Vielzahl an Besitzern eine Beziehung zu ihrem Haushaltsgehilfen aufbauen und ihm beispielsweise Kosenamen geben.[21] Von Kommunikation und freundschaftlichem Verhalten kann hier aber auch nicht die Rede sein. Schließlich stammt das Wort „Roboter“ auch vom tschechisch-slawischen „roboti“ ab, welches „arbeiten“ bedeutet.[22]

Das zu Beginn erwähnte Mädchen auf dem Plakat scheint dennoch mehr zu fordern. Sie möchte der Zukunft ein Stück näher rücken und dem Roboter über dessen ursprüngliche Intention hinaus menschliche Fähigkeiten geben. Sie wird den Roboter befähigen das dem Menschen Einzigartige in sich zu tragen: Gewissen und Intelligenz in Form von „Denken“ und Emotion in Form von „Lachen“. Das, was Mensch und Tier seit je her voneinander unterschieden hat, wohnt nun einer mechanisch konstruierten (auf bestimmte Art intelligenten) Maschine inne. Ob dies eine freundschaftliche Beziehung zwischen Roboter und Mensch ermöglicht mag trotz dieser Diskussion dahingestellt sein. Nach Asada und Slotine (1986) ist und bleibt ein Roboter „[…] eine Maschine, deren Verhalten sich aus der Abfolge von Wahrnehmung, Planung und daraus abgeleiteter Aktion ergibt.“[23] – exakt programmierte, seelenlose Technik also… und auch nicht mehr.

Fußnoten:

[1] Bischof, Andreas: Soziale Maschinen bauen. Epistemische Praktiken der Sozialrobotik. Bielefeld 2017, S. 11.

[2] Vgl. Bischof, Andreas: Soziale Maschinen bauen. Epistemische Praktiken der Sozialrobotik. Bielefeld 2017.

[3] Vgl. Bischof, Andreas: Soziale Maschinen bauen. Epistemische Praktiken der Sozialrobotik. Bielefeld 2017.

[4] Bischof, Andreas: Soziale Maschinen bauen. Epistemische Praktiken der Sozialrobotik. Bielefeld 2017, S. 11.

[5] Vgl. Bischof, Andreas: Soziale Maschinen bauen. Epistemische Praktiken der Sozialrobotik. Bielefeld 2017.

[6] Eine US-amerikanische Soziologin und Professorin für Science, Technology and Society am Massachusetts Institute of Technology (MIT).

[7] Turkle, Sherry: alone together. Why We Expect More from Technology and Less from Each Other. New York 2011, S. 6.

[8] Vgl. Turkle, Sherry: alone together. Why We Expect More from Technology and Less from Each Other. New York 2011.

[9] Turkle, Sherry: „How … Are … You … Feeling … Today? When a Robot Is a Caregiver“. In: The New York Times. 26. Juli 2014, S. A20.

[10] Turkle, Sherry: alone together. Why We Expect More from Technology and Less from Each Other. New York 2011, S. 11.

[11] Turkle, Sherry: alone together. Why We Expect More from Technology and Less from Each Other. New York 2011, S. 1.

[12] Turkle, Sherry: alone together. Why We Expect More from Technology and Less from Each Other. New York 2011, S. 11.

[13] Vgl. Turkle, Sherry: alone together. Why We Expect More from Technology and Less from Each Other. New York 2011.

[14] Vgl. Turkle, Sherry: alone together. Why We Expect More from Technology and Less from Each Other. New York 2011.

[15] Turkle, Sherry: alone together. Why We Expect More from Technology and Less from Each Other. New York 2011, S. 9.

[16] Vgl. Turkle, Sherry: „How … Are … You … Feeling … Today? When a Robot Is a Caregiver“. In: The New York Times. 26. Juli 2014, S. A20.

[17] Hier an dem Beispiel des Roboters „Kismet“, konzipiert u.a. von Cynthia Breazeal, 2003.

[18] Turkle, Sherry: alone together. Why We Expect More from Technology and Less from Each Other. New York 2011, S. 55.

[19] Turkle, Sherry: alone together. Why We Expect More from Technology and Less from Each Other. New York 2011, S. 55.

[20] Vgl. Turkle, Sherry: alone together. Why We Expect More from Technology and Less from Each Other. New York 2011.

[21] Vgl. Kries, M./ Thun-Hohenstein, C./ Klein, A. (Hg.): Hello, Robot. Design zwischen Mensch und Maschine. Ausst.-Kat. Vitra Design Museum Weil am Rhein/ MAK – Österreichisches Museum für angewandte Kunst / Gegenwartskunst Wien/ Design museum Gent. Weil am Rhein 2017.

[22] Vgl. Wirth, Marlies: „Through the looking glass, down the rabbit hole: Eine Frage des Vertrauens“. In: Kries, M./ Thun-Hohenstein, C./ Klein, A. (Hg.): Hello, Robot. Design zwischen Mensch und Maschine. Ausst.-Kat. Vitra Design Museum Weil am Rhein/ MAK – Österreichisches Museum für angewandte Kunst / Gegenwartskunst Wien/ Design museum Gent. Weil am Rhein 2017, S. 20-29.

[23] Bischof, Andreas: Soziale Maschinen bauen. Epistemische Praktiken der Sozialrobotik. Bielefeld 2017, S. 18.

About the author: Andie Rothenhäusler