<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Mensch-Maschine Archive - Dr. Jana Bressem</title>
	<atom:link href="https://www.janabressem.de/category/mensch-maschine/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.janabressem.de/category/mensch-maschine/</link>
	<description>die Gestiktrainerin, die anders denkt</description>
	<lastBuildDate>Fri, 12 Jul 2024 12:33:29 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.7.4</generator>

<image>
	<url>https://www.janabressem.de/wp-content/uploads/2025/09/cropped-2-scaled-1-32x32.jpg</url>
	<title>Mensch-Maschine Archive - Dr. Jana Bressem</title>
	<link>https://www.janabressem.de/category/mensch-maschine/</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Emotion AI: Eine Revolution oder ein ethisches Dilemma?</title>
		<link>https://www.janabressem.de/emotion-ai-eine-revolution-oder-ein-ethisches-dilemma/</link>
		
		<dc:creator><![CDATA[Jana Bressem]]></dc:creator>
		<pubDate>Fri, 12 Jul 2024 12:33:28 +0000</pubDate>
				<category><![CDATA[Gestik]]></category>
		<category><![CDATA[Kultur]]></category>
		<category><![CDATA[Mensch-Maschine]]></category>
		<category><![CDATA[kultur]]></category>
		<category><![CDATA[Mensche-Maschine]]></category>
		<guid isPermaLink="false">https://www.janabressem.de/?p=2171</guid>

					<description><![CDATA[<p>Meine Reihe zu Emotion AI endet heute. In den letzten Wochen habe ich die Möglichkeiten und Gefahren dieser Technologie beleuchtet – oft kritisch. Warum? ❗️Weil sie die Vorstellung fördert, dass der wahre Ausdruck einer Person im Körperlichen zu finden sei, was theoretisch und ethisch fragwürdig ist. Eine Studie von Rhue (2018) zeigt z.B., dass Emotion...</p>
<p>Der Beitrag <a href="https://www.janabressem.de/emotion-ai-eine-revolution-oder-ein-ethisches-dilemma/">Emotion AI: Eine Revolution oder ein ethisches Dilemma?</a> erschien zuerst auf <a href="https://www.janabressem.de">Dr. Jana Bressem</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Meine Reihe zu Emotion AI endet heute. In den letzten Wochen habe ich die Möglichkeiten und Gefahren dieser Technologie beleuchtet – oft kritisch. Warum?<br><br>❗️Weil sie die Vorstellung fördert, dass der wahre Ausdruck einer Person im Körperlichen zu finden sei, was theoretisch und ethisch fragwürdig ist. Eine Studie von Rhue (2018) zeigt z.B., dass Emotion AI dunkelhäutigen Menschen häufiger negative Emotionen zuschreibt als hellhäutigen.<br><br>⚖️ Der European Union AI Act erlaubt die Erkennung von Emotionen, verbietet aber die Zuschreibung emotionaler Zustände. Das bedeutet, Call Center Manager können sagen, dass Mitarbeitende verärgert klingen, aber nicht, dass sie es tatsächlich sind. Doch reale Konsequenzen bleiben: Was passiert in Bewerbungsgesprächen, wenn Personen vermehrt Wut zugeschrieben wird? Oder wenn Kindern in der Schule zugeschrieben wird, dass sie unkonzentriert sind.<br><br>❔ Möchten wir wirklich, dass Maschinen uns in dieser Art vermessen und einordnen? Gerade weil die Technik so problematisch und fehleranfällig ist. Und wie sinnvoll ist es überhaupt, dass Maschinen unsere Emotionen lesen?<br><br>🤔 Auch nach Abschluss dieser Blogserie wird mich das Thema weiter beschäftigen. Seit fast 20 Jahren forsche ich zu Gesten und ärgere mich immer wieder über den Mythos „Der Körper lügt nicht“, weil Gesten dadurch so missverstanden und fälschlich darauf reduziert werden. Emotion AI befeuert diese Fehlvorstellung erneut mit ganz realen Konsequenzen für uns alle.<br><br>💭 Und ich frage mich, was ich als Wissenschaftlerin tun kann? Ein Versuch, diese kleine Blog-Reihe, mit der Hoffnung, die Fallstricke dieser Technologie verstehbar zu machen und zum differenzierten Nachdenken anzuregen.<br><br>Daher vielen Dank an Euch fürs Lesen! Wie schätzt Ihr diese Technologie ein? Welche Gedanken schwirren Euch im Kopf herum?<br><br>📚 P.S. Wer für sich das Thema der emotionalen KI noch etwas umfassender interessiert, dem kann ich nur wärmstens das Buch &#8222;Menschen Versteher: Wie Emotionale Künstliche Intelligenz unseren Alltag erobert &#8220; von Kenza Ait Si Abbou empfehlen.<br><br>&#8212;-<br>Referenzen: Rhue, Lauren, Racial Influence on Automated Perceptions of Emotions (November 9, 2018). Doi:10.2139/ssrn.3281765</p>
<p>Der Beitrag <a href="https://www.janabressem.de/emotion-ai-eine-revolution-oder-ein-ethisches-dilemma/">Emotion AI: Eine Revolution oder ein ethisches Dilemma?</a> erschien zuerst auf <a href="https://www.janabressem.de">Dr. Jana Bressem</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Andere Länder, andere Mimik?</title>
		<link>https://www.janabressem.de/andere-laender-andere-mimik/</link>
		
		<dc:creator><![CDATA[Jana Bressem]]></dc:creator>
		<pubDate>Sat, 08 Jun 2024 07:34:04 +0000</pubDate>
				<category><![CDATA[Gestik]]></category>
		<category><![CDATA[Körper]]></category>
		<category><![CDATA[Kultur]]></category>
		<category><![CDATA[Mensch-Maschine]]></category>
		<category><![CDATA[Emotion]]></category>
		<category><![CDATA[kultur]]></category>
		<category><![CDATA[Mensche-Maschine]]></category>
		<guid isPermaLink="false">https://www.janabressem.de/?p=2160</guid>

					<description><![CDATA[<p>Andere Länder, andere Mimik? 😃 In der klassischen Emotionspsychologie gelten Gesichtsausdrücke als universell: Wut oder Freude sollen sich weltweit auf dieselbe Weise im Gesicht zeigen. Doch so einfach ist es nicht.</p>
<p>Der Beitrag <a href="https://www.janabressem.de/andere-laender-andere-mimik/">Andere Länder, andere Mimik?</a> erschien zuerst auf <a href="https://www.janabressem.de">Dr. Jana Bressem</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>😃 In der klassischen Emotionspsychologie gelten Gesichtsausdrücke als universell: Wut oder Freude sollen sich weltweit auf dieselbe Weise im Gesicht zeigen. Doch so einfach ist es nicht.<br><br>🔎Bereits im 19. Jahrhundert wiesen Anthropologen darauf hin, dass es kulturelle Unterschiede im mimischen Ausdruck gibt. Gesichtsausdrücke sind genauso sozial erlernt wie andere Verhaltensweisen und nicht nur instinktiv.<br><br>👩‍💻 In den letzten Jahren bestätigen immer mehr empirische Studien diese These. Lisa Barrett und ihre Kolleg*innen zeigen, dass kulturelle Einflüsse erheblich darauf wirken, wie Gefühle hervorgerufen, kontrolliert, ausgedrückt und interpretiert werden. So fixieren westliche Betrachter bei erschrockenen und spöttischen Gesichtern auf Augen, Nase und Mund, während ostasiatische Betrachter hauptsächlich die Augen fokussieren. Diese Fixierung führt dazu, dass Ostasiaten erschrockene Gesichter oft als Überraschung (statt Angst) und spöttische Gesichter als Wut (statt Ekel) wahrnehmen.<br><br>👀Auch der Kontext spielt eine entscheidende Rolle in unserer Wahrnehmung. Im echten Leben sehen wir Gesichter nicht isoliert, sondern eingebettet in soziale Situationen, Körperhaltungen, Gesten und Worte. Ein finsteres Gesicht wird als bedrohlich empfunden, wenn es mit einer Gefahrensituation kombiniert wird, in anderen Kontexten aber als angeekelt oder bestimmt.<br><br>😄Gesichtsausdrücke sind zudem soziale Werkzeuge in der Interaktion. So lachen Menschen besonders dann, wenn ihr Lachen von anderen bemerkt wird, und nicht nur, weil sie erfreut sind. Holländische Sprecher*innen ziehen z.B. die Augenbrauen zusammen, um mangelndes Verständnis anzuzeigen – ein kooperatives Signal, kein Ausdruck von Verärgerung. Deutsche Sprecher*innen heben oft die Augenbrauen und weiten die Augen, um Überraschung auszudrücken und Informationen als besonders bemerkenswert zu markieren.<br><br>‼️Es ist also offensichtlich, dass Gesichtsausdrücke nicht nur Emotionen, sondern auch soziale Funktionen vermitteln und dass es signifikante Unterschiede im Ausdruck und in der Wahrnehmung gibt.<br><br>⚠️Wenn große Tech-Unternehmen und Softwareentwickler behaupten, es gebe verlässliche Beweise dafür, dass Gesichtsausdrücke direkt Emotionen offenbaren, dann ist das problematisch.<br><br>Welche Gefahren und Risiken ich damit verbunden sehe, teile ich in Teil 4 der Serie zu Emotion AI.<br><br>——————<br>Referenzen:<br>Barrett, L. F., Mesquita, B., &amp; Gendron, M. (2011). <a href="https://journals.sagepub.com/doi/10.1177/0963721411422522">Context in emotion perception. Current Directions in Psychological Science, 20(5), 286-290.</a></p>
<p>Der Beitrag <a href="https://www.janabressem.de/andere-laender-andere-mimik/">Andere Länder, andere Mimik?</a> erschien zuerst auf <a href="https://www.janabressem.de">Dr. Jana Bressem</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Mit Emotion AI Kunden und Kollegen besser verstehen?</title>
		<link>https://www.janabressem.de/mit-emotion-ai-kunden-und-kollegen-besser-verstehen/</link>
		
		<dc:creator><![CDATA[Jana Bressem]]></dc:creator>
		<pubDate>Fri, 31 May 2024 07:26:55 +0000</pubDate>
				<category><![CDATA[Gestik]]></category>
		<category><![CDATA[Körper]]></category>
		<category><![CDATA[Mensch-Maschine]]></category>
		<category><![CDATA[Blick]]></category>
		<category><![CDATA[Mensche-Maschine]]></category>
		<guid isPermaLink="false">https://www.janabressem.de/?p=2156</guid>

					<description><![CDATA[<p>Mit Emotion AI Kunden und Kollegen besser verstehen? Erkennen ob der Kunde sauer wird oder die Kollegen noch zuhören? Kein Problem mit Emotion AI. So zumindest das Versprechen zahlreicher Softwareanwendungen.</p>
<p>Der Beitrag <a href="https://www.janabressem.de/mit-emotion-ai-kunden-und-kollegen-besser-verstehen/">Mit Emotion AI Kunden und Kollegen besser verstehen?</a> erschien zuerst auf <a href="https://www.janabressem.de">Dr. Jana Bressem</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>👀 Erkennen ob der Kunde sauer wird oder die Kollegen noch zuhören? Kein Problem mit Emotion AI. So zumindest das Versprechen zahlreicher Softwareanwendungen.<br><br>🥴  Xpai – The Experience AI analysiert die Mimik der Zuhörenden, um die User Experience zu verbessern. Schauen Zuhörende nach vorne in Richtung Vortragende oder schweift der Blick nach links und rechts ab oder gar zum Handy?Wann schauen die Personen wieder hin? Die Software gibt Hinweise, dies zu verbessern.<br><br>👩‍💼 Q for Sales soll helfen, besser zu verkaufen. Die Emotionen des Kunden werden erkannt und die Software gibt dem Vertrieb Hinweise, um ihre Interaktionen zu verbessern.<br><br>🎙️ audEERING® konzentriert sich auf die Stimme und erkennt Wut, Freude oder Trauer im stimmlichen Ausdruck. Eine Software, die in Callcentern zum Einsatz kommt und über ein Feedback-System auf dem Bildschirm in Form von fröhlichen oder traurigen Smileys den Mitarbeitenden Feedback gibt.<br><br>❗️So schön es alles klingt, bisherige Anwendungen haben noch ein großes Problem: Sie können nicht immer zweifelsfrei zuordnen. So kann die KI zwar einen finsteren Blick und das Zusammenziehen der Augenbrauen erkennen, aber ob es Wut oder ein anderes ähnliches Gefühl ist, klappt nicht.<br><br>Warum das so ist, erfahrt ihr in Teil 4 der Reihe zu Emotion AI.<br><br>🎧 Und für diejenigen, die nicht mehr so lange warten wollen und wissen wollen, wo die Probleme liegen, denen sei jetzt schon der Tagesschau Podcast 11km <a href="https://www.youtube.com/watch?v=h17MFiC9ApU">&#8222;Belauscht. Was KI aus unseren Stimmen liest” </a>empfohlen.</p>



<p></p>
<p>Der Beitrag <a href="https://www.janabressem.de/mit-emotion-ai-kunden-und-kollegen-besser-verstehen/">Mit Emotion AI Kunden und Kollegen besser verstehen?</a> erschien zuerst auf <a href="https://www.janabressem.de">Dr. Jana Bressem</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Ist das Gesicht ist der Spiegel unserer Seele?</title>
		<link>https://www.janabressem.de/ist-das-gesicht-ist-der-spiegel-unserer-seele/</link>
		
		<dc:creator><![CDATA[Jana Bressem]]></dc:creator>
		<pubDate>Sun, 12 May 2024 07:18:12 +0000</pubDate>
				<category><![CDATA[Gestik]]></category>
		<category><![CDATA[Körper]]></category>
		<category><![CDATA[Mensch-Maschine]]></category>
		<category><![CDATA[Mensche-Maschine]]></category>
		<guid isPermaLink="false">https://www.janabressem.de/?p=2153</guid>

					<description><![CDATA[<p>Ist das Gesicht ist der Spiegel unserer Seele? So zumindest die Annahme der klassischen Emotionspsychologie:<br />
Emotionen werden im Gesicht durch eine bestimmte Anordnung der Gesichtsmuskeln sichtbar. Von den Wahrnehmenden werden sie wie "Wörter auf einer Seite gelesen". Gesichtsausdrücke sind angeboren und universell. Sie umfassen sechs Grundtypen und zeigen weltweit die gleichen Merkmale, unabhängig von sozialen oder geografischen Kontexten.s</p>
<p>Der Beitrag <a href="https://www.janabressem.de/ist-das-gesicht-ist-der-spiegel-unserer-seele/">Ist das Gesicht ist der Spiegel unserer Seele?</a> erschien zuerst auf <a href="https://www.janabressem.de">Dr. Jana Bressem</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p><br>😁 So zumindest die Annahme der klassischen Emotionspsychologie:<br>Emotionen werden im Gesicht durch eine bestimmte Anordnung der Gesichtsmuskeln sichtbar. Von den Wahrnehmenden werden sie wie &#8222;Wörter auf einer Seite gelesen&#8220;. Gesichtsausdrücke sind angeboren und universell. Sie umfassen sechs Grundtypen und zeigen weltweit die gleichen Merkmale, unabhängig von sozialen oder geografischen Kontexten.<br><br>😡 Beispielsweise deutet ein heruntergezogenes Augenbrauenpaar, ein starrer Blick, gespannte Lippen, eine Zornesfalte zwischen den Augenbrauen und eventuell geweitete Nasenflügel auf Wut hin. Angst hingegen äußert sich durch hochgezogene Augenbrauen, geweitete Augenlider, einen leicht geöffneten Mund und einen starren Blick.<br><br>📍 Aus den Gesichtsausdrücken lässt sich also, so die Annahme, direkt auf die Emotionen einer Person schließen. Unverschlüsselt und direkt. Denn unsere Gesichtsausdrücke sind schneller als der Verstand und werden von uns nicht gesteuert.<br><br>🔈 Ähnliche Vorstellungen gibt es auch für den emotionalen Ausdruck in der Stimme. Merkmale wie Tonhöhe, Lautstärke und die Dehnung des Sprachsignals können ebenfalls Aufschluss über unsere Gefühlslage geben – Wut und Angst werden somit auch stimmlich wahrnehmbar.<br><br>🤖 Emotion Ai, so die Schlussfolgerung, muss also die Gesichter oder die Sprachsignale nur erkennen und analysieren. Und das tut sie auch schon.<br><br>Wo und wie sie jetzt schon eingesetzt wird, in Teil 3 der Reihe zu Emotion AI.<br><br>Habt ihr schon Erfahrungen mit Technologien gemacht, die diese Art der Analyse verwenden?<br><br>&#8212;&#8212;&#8212;-<br>Quellen:<br>Ekman, Paul, Sorenson, E. Richard /Friesen, Wallace V. (1969), „Pan-Cultural Elements in Facial Displays of Emotion“, Science 164, (3875), 86–88.</p>
<p>Der Beitrag <a href="https://www.janabressem.de/ist-das-gesicht-ist-der-spiegel-unserer-seele/">Ist das Gesicht ist der Spiegel unserer Seele?</a> erschien zuerst auf <a href="https://www.janabressem.de">Dr. Jana Bressem</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Können Maschinen Emotionen verstehen?</title>
		<link>https://www.janabressem.de/koennen-maschinen-emotionen-verstehen/</link>
		
		<dc:creator><![CDATA[Jana Bressem]]></dc:creator>
		<pubDate>Mon, 08 Apr 2024 12:00:30 +0000</pubDate>
				<category><![CDATA[Körper]]></category>
		<category><![CDATA[Mensch-Maschine]]></category>
		<guid isPermaLink="false">https://www.janabressem.de/?p=1974</guid>

					<description><![CDATA[<p>Teil 1 der Serie zu Emotional AI Emotional AI, auch bekannt als affektives Computing, ist in aller Munde. Immer mehr Softwareanwendungen kommen auf den Markt, die mit Hilfe von Bild- und Audiodaten, Emotionen durch Mimik, Sprache und Gestik zu erkennen und zu interpretieren. ✍ Die Wurzeln der Emotion AIBereits in den 1990er Jahren begannen Wissenschaftler*innen...</p>
<p>Der Beitrag <a href="https://www.janabressem.de/koennen-maschinen-emotionen-verstehen/">Können Maschinen Emotionen verstehen?</a> erschien zuerst auf <a href="https://www.janabressem.de">Dr. Jana Bressem</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<h2 class="wp-block-heading">Teil 1 der Serie zu Emotional AI</h2>



<p><br>Emotional AI, auch bekannt als affektives Computing, ist in aller Munde. Immer mehr Softwareanwendungen kommen auf den Markt, die mit Hilfe von Bild- und Audiodaten, Emotionen durch Mimik, Sprache und Gestik zu erkennen und zu interpretieren.<br><br>✍ Die Wurzeln der Emotion AI<br>Bereits in den 1990er Jahren begannen Wissenschaftler*innen damit, die Möglichkeiten der Integration von emotionaler Intelligenz in Computertechnologien zu erkunden. Diese Bemühungen waren von der Überzeugung getrieben, dass für eine wirklich natürliche Interaktion zwischen Mensch und Maschine ein Verständnis für emotionale Zustände unerlässlich ist.<br><br>⚙️ Wie funktioniert Emotion AI?<br>Emotion AI kombiniert verschiedene Technologien und Methoden, um ein umfassendes Bild menschlicher Emotionen zu erfassen. Dazu gehören Gesichtserkennungstechnologien, die in der Lage sind, Mimik zu erfassen und Emotionen zuzuordnen. Stimmerkennungssoftware analysiert die Tonhöhe, Geschwindigkeit und den Klang der Stimme, um bspw. Wut zu identifizieren. Textanalyse durch Natural Language Processing (NLP) ermöglicht es , auch aus geschriebenem Text emotionale Untertöne herauszulesen.<br><br>👥 Anwendungsbereiche von Emotion AI?<br>Die Einsatzmöglichkeiten von Emotion AI sind breit gefächert und reichen vom Sicherheitsbereich über die Fahrzeugtechnik bis hin zum Marketing, der Bildung und der Pflege. In Deutschland findet es insbesondere in der Personalauswahl Beachtung, wo Unternehmen wie Retorio die Persönlichkeit von Bewerber*innen durch Analyse von Mimik und Sprechverhalten bewerten.<br><br>📍 Bedeutung von Emotion AI?<br>Ganz optimistisch gesprochen, sollen sie Verbesserungen für die Menschen bringen. Sei es eine optimierte User-Experience, bessere Kommunikation mit Pflegerobotern oder individualisierte Lernumgebungen. Im Gesundheitswesen soll sie bspw. eingesetzt werden, um Anzeichen von Depression oder Angstzuständen frühzeitig zu erkennen. Und Maschinen sollen menschlicher werden.<br><br>❓ Doch wie gut klappt das wirklich?<br>Darum geht es dann in Teil 2 der Serie zu Emotion AI, wenn um die theoretischen Grundlagen von Emotionserkennung und deren Fallstricke geht.</p>
<p>Der Beitrag <a href="https://www.janabressem.de/koennen-maschinen-emotionen-verstehen/">Können Maschinen Emotionen verstehen?</a> erschien zuerst auf <a href="https://www.janabressem.de">Dr. Jana Bressem</a>.</p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Wer braucht Gesten und Blicke? Menschen, Maschinen, Roboter?</title>
		<link>https://www.janabressem.de/mensch-maschine-miteinander/</link>
		
		<dc:creator><![CDATA[Jana Bressem]]></dc:creator>
		<pubDate>Tue, 03 Oct 2023 10:35:48 +0000</pubDate>
				<category><![CDATA[Gestik]]></category>
		<category><![CDATA[Mensch-Maschine]]></category>
		<category><![CDATA[Apple Vision Pro]]></category>
		<category><![CDATA[Bellabot]]></category>
		<category><![CDATA[Blick]]></category>
		<category><![CDATA[Eyetracking]]></category>
		<category><![CDATA[HRI]]></category>
		<category><![CDATA[Mensche-Maschine]]></category>
		<category><![CDATA[Pepper]]></category>
		<category><![CDATA[Roboter]]></category>
		<guid isPermaLink="false">https://www.janabressem.de/?p=1843</guid>

					<description><![CDATA[<p>Vor ein paar Tagen waren wir mit den Kindern ein Eis essen. Nicht eine normale Eisdiele, wie die Kinder betont haben, sondern eine besondere. Denn dort ist der Serviceroboter Bellabot im Einsatz. Ein kluger Schachzug der Eisdiele fürs Marketing, für die Kinder etwas, was das Eis essen noch besonderer macht. Und für mich wieder ein...</p>
<p>Der Beitrag <a href="https://www.janabressem.de/mensch-maschine-miteinander/">Wer braucht Gesten und Blicke? Menschen, Maschinen, Roboter?</a> erschien zuerst auf <a href="https://www.janabressem.de">Dr. Jana Bressem</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p class="kt-adv-heading1843_933080-5d wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_933080-5d">Vor ein paar Tagen waren wir mit den Kindern ein Eis essen. Nicht eine normale Eisdiele, wie die Kinder betont haben, sondern eine besondere. Denn dort ist der Serviceroboter Bellabot im Einsatz. Ein kluger Schachzug der Eisdiele fürs Marketing, für die Kinder etwas, was das Eis essen noch besonderer macht. Und für mich wieder ein Aha-Moment, der zeigte, wie selbstverständlich Gesten und Blicke in unserem täglichen Miteinander stecken.</p>



<h2 class="kt-adv-heading1843_e99163-90 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_e99163-90">Wie kommunizieren wir mit Gesten und Blicken?</h2>



<p class="kt-adv-heading1843_34e14a-e3 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_34e14a-e3">Gesten und Blicke sind wichtige Bestandteile unser Kommunikation. Meist nutzen wir sie ganz automatisch, um auf Sachen hinzuweisen, etwas bildlich zu zeigen oder einfach die Aufmerksamkeit auf etwas zu lenken.</p>



<p class="kt-adv-heading1843_8c9f01-22 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_8c9f01-22">Morgens beim Frühstück verstehen wir die Blicke der anderen spielend. Man sieht, wohin sie schauen, und weiß sofort, dass sie gern die Butter oder Marmelade hätten.</p>



<p class="kt-adv-heading1843_a3ed6a-e8 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_a3ed6a-e8">Und wie sehr Gesten unser Sprechen beeinflussen, merken wir oft erst, wenn sie fehlen. Wer kennt es nicht, den Moment am Telefon, wenn man etwas beschreiben möchte und feststellt, dass der andere die Hände gar nicht sehen kann. Gestikuliert haben wir aber trotzdem.</p>



<h2 class="kt-adv-heading1843_cf7241-96 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_cf7241-96">Wie nutzen wir Gesten und Blicke in der Mensch-Maschine-Kommunikation?</h2>



<p class="kt-adv-heading1843_294b95-19 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_294b95-19">Weil Gesten und Blicke so natürlich zu unserer Art des Sprechens und Handelns gehören, spielen sie auch eine große Rolle im Umgang zwischen Mensch und Maschine.</p>



<p class="kt-adv-heading1843_e21d4e-78 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_e21d4e-78">Das liegt vor allem daran, dass wir im Kontakt mit Maschinen oft dazu tendieren, so zu reden, als wären sie menschliche Gesprächspartner. Besonders wenn die Maschinen anthropomorph gestaltet sind, also über menschliche Eigenschaften verfügen, wie Augen oder Hände. Dann ist die Wahrscheinlichkeit sehr groß, dass wir auch mit Gesten und Blicke interagieren wollen.</p>



<p class="kt-adv-heading1843_c90706-76 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_c90706-76">Bellabot, zum Beispiel, zeigt auf einem seinem Display ein katzenähnliches Gesicht. Vielleicht haben die Kinder den Roboter deshalb nicht nur mit einer Winkgeste begrüßt haben, sondern auch mit Geste und Blick gezeigt, wo er als nächstes hin soll, nachdem er das Eis serviert hat.</p>



<h2 class="kt-adv-heading1843_4753f0-54 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_4753f0-54">Wie erforschen Wissenschaflter*innen dieses Zusammenspiel?</h2>



<p class="kt-adv-heading1843_700169-73 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_700169-73">Damit Maschinen Gesten und Blicke richtig verstehen können, müssen sie entsprechend designt sein. Forscherinnen und Forscher wollen herausfinden, was dafür nötig ist, damit sie diese Anforderungen erfüllen und eine reibungslose Zusammenarbeit mit Menschen möglich machen.</p>



<p class="kt-adv-heading1843_634748-ec wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_634748-ec">Im Sonderforschungsbereich “Hybrid Societies” forschen über 100 Wissenschaftler*innen aus 120 Nationen und 18 Disziplinen an diesen spannenden Fragen.</p>



<p class="kt-adv-heading1843_c30437-de wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_c30437-de">Im Podcast Special des TUCscicasts zum SFB “Hybrid Societies” habe ich mit meinem Kollegen Wolfgang Einhäuser-Treyer über unser gemeinsames Projekt gesprochen. Darin untersuchen wir, wie Gesten und Blicke zusammenhängen, wie wir daran erkennen können, was Menschen als Nächstes tun wollen und warum dies für die Interaktion mit Robotern und Autos wichtig ist.</p>



<h2 class="kt-adv-heading1843_cfb41a-85 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_cfb41a-85">Fazit</h2>



<p class="kt-adv-heading1843_0224df-ef wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_0224df-ef">Und was passiert, wenn Maschinen nicht genug über uns Menschen und unser kommunikatives Verhalten wissen? Kann man schön in diesem Video sehen, in dem ein Lieferroboter zum Stehen kommt, weil er Menschen ihm im Weg stehen. </p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-16-9 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="Robot Invasion: Delivery robot moving through Tel Aviv streets, on its way to a satisfied customer" width="700" height="394" src="https://www.janabressem.de/?dsgvo_ytembeded=S2fmZAU6gSY" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>
</div></figure>



<p class="kt-adv-heading1843_a47ce1-26 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_a47ce1-26">Damit Mensch und Maschine in der hybriden Gesellschaft reibungslos miteinander auskommen, gibt&#8217;s noch einiges zu tun. Aber das ist prima für uns Wissenschaftlerinnen und Wissenschaftler 🙂.</p>



<div class="wp-block-kadence-spacer aligncenter kt-block-spacer-1843_1902c9-4a"><div class="kt-block-spacer kt-block-spacer-halign-center"><hr class="kt-divider"/></div></div>



<figure class="wp-block-image size-large is-resized"><img fetchpriority="high" decoding="async" width="700" height="513" src="https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.33.44-700x513.png" alt="" class="wp-image-1844" style="width:417px;height:306px" srcset="https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.33.44-700x513.png 700w, https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.33.44-300x220.png 300w, https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.33.44-768x563.png 768w, https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.33.44-800x586.png 800w, https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.33.44-80x60.png 80w, https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.33.44.png 1152w" sizes="(max-width: 700px) 100vw, 700px" /></figure>



<p class="kt-adv-heading1843_59eeeb-09 wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_59eeeb-09">Die ganze Folge des Podcasts &#8222;Mensch-Maschine-Miteinander&#8220; kann man hier hören: <a href="https://www.tu-chemnitz.de/rektorat/rektor/tucscicast.php">https://www.tu-chemnitz.de/rektorat/rektor/tucscicast.php</a></p>



<figure class="wp-block-image size-large is-resized"><img decoding="async" width="700" height="429" src="https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.34.30-700x429.png" alt="" class="wp-image-1845" style="width:427px;height:262px" srcset="https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.34.30-700x429.png 700w, https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.34.30-300x184.png 300w, https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.34.30-768x471.png 768w, https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.34.30-1536x941.png 1536w, https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.34.30-2048x1255.png 2048w, https://www.janabressem.de/wp-content/uploads/2023/10/Bildschirmfoto-2023-10-03-um-12.34.30-800x490.png 800w" sizes="(max-width: 700px) 100vw, 700px" /></figure>



<p class="kt-adv-heading1843_0e26aa-df wp-block-kadence-advancedheading" data-kb-block="kb-adv-heading1843_0e26aa-df">Mehr über meine Forschung zu diesem Thema und dem Projekt gibts hier: <a href="https://hybrid-societies.org/research/d01/">https://hybrid-societies.org/research/d01/</a></p>
<p>Der Beitrag <a href="https://www.janabressem.de/mensch-maschine-miteinander/">Wer braucht Gesten und Blicke? Menschen, Maschinen, Roboter?</a> erschien zuerst auf <a href="https://www.janabressem.de">Dr. Jana Bressem</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
