Wer braucht Gesten und Blicke? Menschen, Maschinen, Roboter?

Bellabot

Vor ein paar Tagen waren wir mit den Kindern ein Eis essen. Nicht eine normale Eisdiele, wie die Kinder betont haben, sondern eine besondere. Denn dort ist der Serviceroboter Bellabot im Einsatz. Ein kluger Schachzug der Eisdiele fürs Marketing, für die Kinder etwas, was das Eis essen noch besonderer macht. Und für mich wieder ein Aha-Moment, der zeigte, wie selbstverständlich Gesten und Blicke in unserem täglichen Miteinander stecken.

Wie kommunizieren wir mit Gesten und Blicken?

Gesten und Blicke sind wichtige Bestandteile unser Kommunikation. Meist nutzen wir sie ganz automatisch, um auf Sachen hinzuweisen, etwas bildlich zu zeigen oder einfach die Aufmerksamkeit auf etwas zu lenken.

Morgens beim Frühstück verstehen wir die Blicke der anderen spielend. Man sieht, wohin sie schauen, und weiß sofort, dass sie gern die Butter oder Marmelade hätten.

Und wie sehr Gesten unser Sprechen beeinflussen, merken wir oft erst, wenn sie fehlen. Wer kennt es nicht, den Moment am Telefon, wenn man etwas beschreiben möchte und feststellt, dass der andere die Hände gar nicht sehen kann. Gestikuliert haben wir aber trotzdem.

Wie nutzen wir Gesten und Blicke in der Mensch-Maschine-Kommunikation?

Weil Gesten und Blicke so natürlich zu unserer Art des Sprechens und Handelns gehören, spielen sie auch eine große Rolle im Umgang zwischen Mensch und Maschine.

Das liegt vor allem daran, dass wir im Kontakt mit Maschinen oft dazu tendieren, so zu reden, als wären sie menschliche Gesprächspartner. Besonders wenn die Maschinen anthropomorph gestaltet sind, also über menschliche Eigenschaften verfügen, wie Augen oder Hände. Dann ist die Wahrscheinlichkeit sehr groß, dass wir auch mit Gesten und Blicke interagieren wollen.

Bellabot, zum Beispiel, zeigt auf einem seinem Display ein katzenähnliches Gesicht. Vielleicht haben die Kinder den Roboter deshalb nicht nur mit einer Winkgeste begrüßt haben, sondern auch mit Geste und Blick gezeigt, wo er als nächstes hin soll, nachdem er das Eis serviert hat.

Wie erforschen Wissenschaflter*innen dieses Zusammenspiel?

Damit Maschinen Gesten und Blicke richtig verstehen können, müssen sie entsprechend designt sein. Forscherinnen und Forscher wollen herausfinden, was dafür nötig ist, damit sie diese Anforderungen erfüllen und eine reibungslose Zusammenarbeit mit Menschen möglich machen.

Im Sonderforschungsbereich “Hybrid Societies” forschen über 100 Wissenschaftler*innen aus 120 Nationen und 18 Disziplinen an diesen spannenden Fragen.

Im Podcast Special des TUCscicasts zum SFB “Hybrid Societies” habe ich mit meinem Kollegen Wolfgang Einhäuser-Treyer über unser gemeinsames Projekt gesprochen. Darin untersuchen wir, wie Gesten und Blicke zusammenhängen, wie wir daran erkennen können, was Menschen als Nächstes tun wollen und warum dies für die Interaktion mit Robotern und Autos wichtig ist.

Fazit

Und was passiert, wenn Maschinen nicht genug über uns Menschen und unser kommunikatives Verhalten wissen? Kann man schön in diesem Video sehen, in dem ein Lieferroboter zum Stehen kommt, weil er Menschen ihm im Weg stehen.

Damit Mensch und Maschine in der hybriden Gesellschaft reibungslos miteinander auskommen, gibt’s noch einiges zu tun. Aber das ist prima für uns Wissenschaftlerinnen und Wissenschaftler 🙂.


Die ganze Folge des Podcasts „Mensch-Maschine-Miteinander“ kann man hier hören: https://www.tu-chemnitz.de/rektorat/rektor/tucscicast.php

Mehr über meine Forschung zu diesem Thema und dem Projekt gibts hier: https://hybrid-societies.org/research/d01/