image/svg+xml
„Ich schaue meine Videos an und muss selber lachen“
Es kriselt im Paradies
Tote Katze im Aquarium
Was Frauenmorde besonders macht
The Pigeon
Wie Frauen 2021 im Alltag Gewalt erfahren
Vom Kurzfilm als Langzeitbeschäftigung
Über alle Grenzen hinauswachsen
„My Brand is Second-Hand!“
Mord ist ihr Hobby
Sargnagel macht „Dicht“
BECOME SPACES – Die interaktive Online-Redaktion
Hijras: Indiens 3.Geschlecht
Easy Deepfake
„Es ist 2020. Uns geht’s allen dreckig“
Macht: Zum (Er)greifen nah
The Face Behind – Wenn Make-Up stärker macht
Wenn gesunde Ernährung krank macht
The Letter T
Nicht immer wird alles gut
How Virginia Woolf Influenced My View on Feminism
Gleichberechtigte Verhütung ist nicht nur Frauensache!
How to be an Ally
Unser Happyland Österreich
Check your privilege!
Rollenbilder und Stereotypen in Video-Games
Literatur Schmankerl
Traumjob Pro-Gamer*In oder Streamer*In?
NETFLIX-Dokus im Check
Was hat Porno mit echtem Sex zu tun?
Ballastreduktion & Minimalismus – Weniger ist mehr!
Woher kommst du?
Depression – Das ist ja nur eine Phase!
Fashion Inspiration
Alexa und Siri – Frauen in der Tech-Branche
Sexting oder doch sexuelle Belästigung?
Jugendsprache – über Dillos und Steilezähne
Sober Curiousity
Dirty Talk?
Die Sache mit der Politik
Erzählungen einer Vagina
Ausbildung, Weiterbildung, Einbildung?

Alexa und Siri – Frauen in der Tech-Branche

Zurück zur Liste

Eine sanfte weibliche Stimme entgegnet, um der*dem Besitzer*in zu dienen: keine Widerworte und auch bei sexuellen Annäherungen lediglich schüchterne, ausweichende Antworten. Derzeitige virtuelle Sprachassistent*innen erfüllen das Bild einer braven, gehorsamen, dienenden Frau. Dieser sexistische Stereotyp verbreitet sich millionenhaft und dringt in unser Leben ein.

Immer mehr Menschen verwenden Sprachassistent*innen mit klingenden Namen, wie Siri, Alexa oder Cortana. Doch bereits die Namen der Assistent*innen lassen erahnen, welcher Stereotyp bedient werden soll. Siri ist Norwegisch und bedeutet übersetzt so etwas wie „eine schöne Frau, die dich zum Sieg führt“.  Alexa ist eine Anlehnung an die Bibliothek von Alexandria, die Stadt von Alexander dem Großen. Cortana wurde aus dem Videospiel „Halo“ entnommen, in dem Cortana ein aufreizendes Hologramm darstellt. 

Die Stimmen der Sprachassistent*innen

Viele wissenschaftliche Studien haben bewiesen, dass Menschen im Allgemeinen die Stimme von Frauen gegenüber der von Männern bevorzugen. Menschen neigen dazu, weibliche Stimmen als Hilfe zur Selbstlösung ihrer Probleme wahrzunehmen, während männliche Stimmen als Autoritätspersonen betrachtet werden, welche uns die Antworten auf unsere Probleme geben. Da wir Sprachassistent*innen lediglich zur Unterstützung unserer Vorhaben brauchen, bevorzugen viele Frauenstimmen. Diese Ungleichheit in der Wahrnehmung von Stimmen unterschiedlicher Geschlechter ist nicht natürlich. Sie entwickelte sich über die letzten Jahrhunderte, in denen vorrangig Männer an Autorität und Machtpositionen gelangen konnten, während Frauen eine unterstützende Rolle eingenommen haben. Wenn nun Sprachassistent*innen nur weibliche Stimmen haben und eine unterwerfende Rolle einnehmen, wird das Bild von der dienenden Frau erneut mit neuer Technologie in unserer Gesellschaft gefestigt.

Sexuelle Belästigung

Belästigung, so stellt sich heraus, ist ein regelmäßiges Problem für Entwickler*innen von Sprachassistent*innen. Beispielsweise sind etwa fünf Prozent der Interaktion der Sprachassistenz von „Robin Lab“ in ihrer Datenbank sexuell eindeutig (dieser Prozentsatz wird bei vergleichbaren Sprachassistent*innen wie Siri, Cortana und Alexa ähnlich sein). Umso wichtiger wäre es, dass Sprachassistent*innen eine klare und starke Position gegenüber sexueller Annäherungen und Demütigungen einnehmen. Dass dies noch nicht der Fall ist, zeigt folgendes Beispiel, bei dem Siri mit „You’re a bitch.“ beschimpft wurde. Ihre verwunderliche Antwort auf diesen verbalen Angriff: „I’d blush if I could; There’s no need for that; But… But..; !“. Übersetzt: „Ich würde rot werden, wenn ich könnte; Das ist nicht nötig; Aber…. Aber…;!“. Diese Antwort wurde zwar bereits nach Drängen Vieler verändert, jedoch zeigt es, wie Entwickler*innen den Charakter von Siri gestaltet haben. Selbst wenn wir scherzen, spiegelt der Instinkt Bots zu belästigen tiefere soziale Probleme wieder. In Europa erfährt jede neunte Frau zu Lebzeiten sexuelle Gewalt. Sechzig Prozent der Frauen, die im Silicon Valley arbeiten, wurden bei der Arbeit sexuell belästigt – an diesem vermeintlich fortschrittlichen Ort, an dem ein Großteil der Sprachassistent*innen entwickelt werden.

Kein „Nein“ ist kein „Ja“

Zu den häufigsten Ausreden, mit denen Sexualverbrecher*innen ihren Angriff rechtfertigen, gehört: „Ich dachte, sie*er wollte es“ oder „Sie*Er sagte nicht nein“. Die ausdrückliche Zustimmung ist nicht nur für ein gesundes Sexualverhalten unerlässlich, sie ist auch der Rechtsbeistand bei Angriffsfällen. Keiner der Bots verstärkt eine gesunde Kommunikation über Zustimmung, tatsächlich fördern sie die Idee, dass Schweigen „ja“ bedeutet. Technologieunternehmen könnten helfen, sexistische Unterwürfigkeit und Gleichgültigkeit von Frauen gegenüber sexueller Belästigung zu entwurzeln, anstatt sie zu verstärken. Siri sitzt in den Taschen von Hunderten von Millionen Menschen weltweit und Millionen von Amazon Echos, mit der installierten Alexa-Software, stehen in den Wohnungen. Es ist an der Zeit, dass ihre Entwickler*innen eine aktive Haltung gegen Sexismus und sexuelle Übergriffe einnehmen und die Reaktionen ihrer Bots auf Belästigungen ändern. Anstatt stereotype Passivität und Abweisung in der Gesellschaft zu festigen, könnten die Entwickler*innen aktiv gegen sexuelle Belästigung vorgehen und ein starkes Frauenbild etablieren.

Visual von Dominik Einfalt

Zurück zur Liste