Eine sanfte weibliche Stimme entgegnet, um der*dem Besitzer*in zu dienen: keine Widerworte und auch bei sexuellen Annäherungen lediglich schüchterne, ausweichende Antworten. Derzeitige virtuelle Sprachassistent*innen erfüllen das Bild einer braven, gehorsamen, dienenden Frau. Dieser sexistische Stereotyp verbreitet sich millionenhaft und dringt in unser Leben ein.
Immer mehr Menschen verwenden Sprachassistent*innen mit klingenden Namen, wie Siri, Alexa oder Cortana. Doch bereits die Namen der Assistent*innen lassen erahnen, welcher Stereotyp bedient werden soll. Siri ist Norwegisch und bedeutet übersetzt so etwas wie „eine schöne Frau, die dich zum Sieg führt“. Alexa ist eine Anlehnung an die Bibliothek von Alexandria, die Stadt von Alexander dem Großen. Cortana wurde aus dem Videospiel „Halo“ entnommen, in dem Cortana ein aufreizendes Hologramm darstellt.
Die Stimmen der Sprachassistent*innen
Viele wissenschaftliche Studien haben bewiesen, dass Menschen im Allgemeinen die Stimme von Frauen gegenüber der von Männern bevorzugen. Menschen neigen dazu, weibliche Stimmen als Hilfe zur Selbstlösung ihrer Probleme wahrzunehmen, während männliche Stimmen als Autoritätspersonen betrachtet werden, welche uns die Antworten auf unsere Probleme geben. Da wir Sprachassistent*innen lediglich zur Unterstützung unserer Vorhaben brauchen, bevorzugen viele Frauenstimmen. Diese Ungleichheit in der Wahrnehmung von Stimmen unterschiedlicher Geschlechter ist nicht natürlich. Sie entwickelte sich über die letzten Jahrhunderte, in denen vorrangig Männer an Autorität und Machtpositionen gelangen konnten, während Frauen eine unterstützende Rolle eingenommen haben. Wenn nun Sprachassistent*innen nur weibliche Stimmen haben und eine unterwerfende Rolle einnehmen, wird das Bild von der dienenden Frau erneut mit neuer Technologie in unserer Gesellschaft gefestigt.
Sexuelle Belästigung
Belästigung, so stellt sich heraus, ist ein regelmäßiges Problem für Entwickler*innen von Sprachassistent*innen. Beispielsweise sind etwa fünf Prozent der Interaktion der Sprachassistenz von „Robin Lab“ in ihrer Datenbank sexuell eindeutig (dieser Prozentsatz wird bei vergleichbaren Sprachassistent*innen wie Siri, Cortana und Alexa ähnlich sein). Umso wichtiger wäre es, dass Sprachassistent*innen eine klare und starke Position gegenüber sexueller Annäherungen und Demütigungen einnehmen. Dass dies noch nicht der Fall ist, zeigt folgendes Beispiel, bei dem Siri mit „You’re a bitch.“ beschimpft wurde. Ihre verwunderliche Antwort auf diesen verbalen Angriff: „I’d blush if I could; There’s no need for that; But… But..; !“. Übersetzt: „Ich würde rot werden, wenn ich könnte; Das ist nicht nötig; Aber…. Aber…;!“. Diese Antwort wurde zwar bereits nach Drängen Vieler verändert, jedoch zeigt es, wie Entwickler*innen den Charakter von Siri gestaltet haben. Selbst wenn wir scherzen, spiegelt der Instinkt Bots zu belästigen tiefere soziale Probleme wieder. In Europa erfährt jede neunte Frau zu Lebzeiten sexuelle Gewalt. Sechzig Prozent der Frauen, die im Silicon Valley arbeiten, wurden bei der Arbeit sexuell belästigt – an diesem vermeintlich fortschrittlichen Ort, an dem ein Großteil der Sprachassistent*innen entwickelt werden.
Kein „Nein“ ist kein „Ja“
Zu den häufigsten Ausreden, mit denen Sexualverbrecher*innen ihren Angriff rechtfertigen, gehört: „Ich dachte, sie*er wollte es“ oder „Sie*Er sagte nicht nein“. Die ausdrückliche Zustimmung ist nicht nur für ein gesundes Sexualverhalten unerlässlich, sie ist auch der Rechtsbeistand bei Angriffsfällen. Keiner der Bots verstärkt eine gesunde Kommunikation über Zustimmung, tatsächlich fördern sie die Idee, dass Schweigen „ja“ bedeutet. Technologieunternehmen könnten helfen, sexistische Unterwürfigkeit und Gleichgültigkeit von Frauen gegenüber sexueller Belästigung zu entwurzeln, anstatt sie zu verstärken. Siri sitzt in den Taschen von Hunderten von Millionen Menschen weltweit und Millionen von Amazon Echos, mit der installierten Alexa-Software, stehen in den Wohnungen. Es ist an der Zeit, dass ihre Entwickler*innen eine aktive Haltung gegen Sexismus und sexuelle Übergriffe einnehmen und die Reaktionen ihrer Bots auf Belästigungen ändern. Anstatt stereotype Passivität und Abweisung in der Gesellschaft zu festigen, könnten die Entwickler*innen aktiv gegen sexuelle Belästigung vorgehen und ein starkes Frauenbild etablieren.
Visual von Dominik Einfalt