Eine Frau nutzt die Spracherkennung des Apple-Programms Siri auf ihrem Smartphone (Foto: dpa Bildfunk, picture alliance/Daniel Reinhardt/dpa)

Sprachassistenten zementieren Klischees Siri, warum bist Du so unterwürfig?

AUTOR/IN

Alexa, Siri, Cortana - die meisten Sprachassistenten tragen Frauennamen und haben weibliche Stimmen. Was angenehm klingt, kann Geschlechter-Klischees verfestigen, warnt die Unesco.

Alexa als Name für den Sprachassistenten – damit bezieht sich Hersteller Amazon eigenen Angaben zufolge auf die Bibliothek von Alexandria in der Antike, die das Wissen der gesamten Welt beheimatete. Aber warum dann nicht Alexander? Das mache einen großen Unterschied, sagt die Sprachwissenschaftlerin Miriam Schmidt-Jüngst von der Universität Mainz. Sie beschäftigt sich schwerpunktmäßig mit den Themen Genderlinguistik und Namenforschung und sagt, Namen seien unabdingbar an ein Geschlecht geknüpft und dadurch mit Assoziationen verbunden, die wir im Laufe unseres Lebens gelernt hätten. "Sodass wir uns unter einer Alexa, auch wenn sie nur ein Gerät ist, etwas ganz anderes vorstellen, als wenn sie Alexander geheißen hätte.“

Dauer

Außerdem, so erklärt es die Branche, seien feminine Stimmen angenehmer. Wir würden uns lieber von einer Frau helfen lassen und seien auch eher bereit, sozusagen ein weibliches Gerät in unser Haus zu lassen als ein männliches. Auffallend: Wenn Automaten dagegen Anweisungen geben sollen oder Computer Befehle erteilen, werden dafür eher Männerstimmen eingesetzt.

Alexa, bist du weiblich? „Ich sehe mich als weiblich. In Stromkreisen würde man sagen: Ich bin Frauenpower aus der Steckdose.“

Sprachassisentin Alexa

Unesco-Studie „I'd blush, if I could“ kritisiert Geschlechter-Klischees

Von Frauenpower ist in der Studie, welche die Kulturorganisation kürzlich zu Sprachassistenten veröffentlicht hat, aber keine Rede. Im Gegenteil – der Unesco-Bericht „I'd blush, if I could“ kritisiert, Sprachassistenten wie Siri und Alexa würden Gender-Stereotype reproduzieren. Entwickelt von überwiegend männlichen Programmierer-Teams seien die virtuellen Hilfen unterwürfig, gehorsam und stets freundlich, heißt es in dem Bericht. „I'd blush, if I could“ – „Ich würde erröten, wenn ich könnte“ – das war bis vor kurzem die Standardantwort von Siri, wenn man sie als „Schlampe“ titulierte.

„Da wurde keine Reaktion programmiert, die gesagt hat, ich reagiere nicht, wenn ich so blöd angemacht werde, oder die sich irgendwie behauptet – sondern eine, die Sexismus, verbale Übergriffigkeit als vermeintliches Kompliment abtut.“ Die Gefahr, dass dadurch solche sexistischen Frauenbilder verfestigt würden, sieht auch die Sprachwissenschaftlerin – je nach Boom der Sprachassistenten.

Klischees in Zeiten von MeToo

Digitale Dienstmägde – gut genug, um die Mikrowelle anzuschalten, allzeit bereit. Nicht nur in MeToo-Zeiten ein befremdliches Bild. Aber wie lässt sich die Verbreitung solcher Klischees vermeiden? Vielleicht mit einer geschlechtsneutralen Stimme? Die hat ein dänisches Forscherteam entwickelt.

„High! I'm Q, the worlds first genderless Voice Assistant.”

Q – der erste Sprachassistent ohne Geschlecht – spricht mit einer Stimmhöhe zwischen 145 und 157 Hertz. Ein Frequenzbereich, der bei Tests immerhin von der Hälfte der Befragten als geschlechtsneutral wahrgenommen wird. Die anderen kategorisieren sie entweder als weiblich oder männlich. So seien wir eben geprägt, meint Sprachwissenschaftlerin Schmidt-Jüngst.

Ein anderer Ansatz wären stärker gemischte Entwicklerteams. Dazu sagt die Mainzer Wissenschaftlerin: „Diversität bildet in aller Regel auch Diversität ab, weil es eben der eigenen Wahrnehmung im eigenen Alltag stärker entspricht.“

AUTOR/IN
STAND
ONLINEFASSUNG