image/svg+xml

Im welser Fundbüro

Was Geht?

Brainstormen, Recherchieren, Lachen und vieles mehr!

Teppich frei für Holli

Die Film-Jury im Gespräch

Resümee der YOUKI- Festivalleitung

GRÜNE LÜGEN HABEN AUCH NUR KURZE BEINE

„Es ist ein Trauerspiel“

Voice-Chat, nein danke!

Pigeons

„Ich schaue meine Videos an und muss selber lachen“

Es kriselt im Paradies

Tote Katze im Aquarium

Was Frauenmorde besonders macht

The Pigeon

Wie Frauen 2021 im Alltag Gewalt erfahren

Vom Kurzfilm als Langzeitbeschäftigung

Über alle Grenzen hinauswachsen

„My Brand is Second-Hand!“

Mord ist ihr Hobby

Sargnagel macht „Dicht“

BECOME SPACES – Die interaktive Online-Redaktion

Hijras: Indiens 3.Geschlecht

Easy Deepfake

„Es ist 2020. Uns geht’s allen dreckig“

Macht: Zum (Er)greifen nah

The Face Behind – Wenn Make-Up stärker macht

Wenn gesunde Ernährung krank macht

The Letter T

Nicht immer wird alles gut

How Virginia Woolf Influenced My View on Feminism

Gleichberechtigte Verhütung ist nicht nur Frauensache!

How to be an Ally

Unser Happyland Österreich

Check your privilege!

Rollenbilder und Stereotypen in Video-Games

Literatur Schmankerl

Traumjob Pro-Gamer*In oder Streamer*In?

NETFLIX-Dokus im Check

Was hat Porno mit echtem Sex zu tun?

Ballastreduktion & Minimalismus – Weniger ist mehr!

Woher kommst du?

Depression – Das ist ja nur eine Phase!

Fashion Inspiration

Alexa und Siri – Frauen in der Tech-Branche

Zurück zur Liste

Eine sanfte weibliche Stimme entgegnet, um der*dem Besitzer*in zu dienen: keine Widerworte und auch bei sexuellen Annäherungen lediglich schüchterne, ausweichende Antworten. Derzeitige virtuelle Sprachassistent*innen erfüllen das Bild einer braven, gehorsamen, dienenden Frau. Dieser sexistische Stereotyp verbreitet sich millionenhaft und dringt in unser Leben ein.

Immer mehr Menschen verwenden Sprachassistent*innen mit klingenden Namen, wie Siri, Alexa oder Cortana. Doch bereits die Namen der Assistent*innen lassen erahnen, welcher Stereotyp bedient werden soll. Siri ist Norwegisch und bedeutet übersetzt so etwas wie „eine schöne Frau, die dich zum Sieg führt“.  Alexa ist eine Anlehnung an die Bibliothek von Alexandria, die Stadt von Alexander dem Großen. Cortana wurde aus dem Videospiel „Halo“ entnommen, in dem Cortana ein aufreizendes Hologramm darstellt. 

Die Stimmen der Sprachassistent*innen

Viele wissenschaftliche Studien haben bewiesen, dass Menschen im Allgemeinen die Stimme von Frauen gegenüber der von Männern bevorzugen. Menschen neigen dazu, weibliche Stimmen als Hilfe zur Selbstlösung ihrer Probleme wahrzunehmen, während männliche Stimmen als Autoritätspersonen betrachtet werden, welche uns die Antworten auf unsere Probleme geben. Da wir Sprachassistent*innen lediglich zur Unterstützung unserer Vorhaben brauchen, bevorzugen viele Frauenstimmen. Diese Ungleichheit in der Wahrnehmung von Stimmen unterschiedlicher Geschlechter ist nicht natürlich. Sie entwickelte sich über die letzten Jahrhunderte, in denen vorrangig Männer an Autorität und Machtpositionen gelangen konnten, während Frauen eine unterstützende Rolle eingenommen haben. Wenn nun Sprachassistent*innen nur weibliche Stimmen haben und eine unterwerfende Rolle einnehmen, wird das Bild von der dienenden Frau erneut mit neuer Technologie in unserer Gesellschaft gefestigt.

Sexuelle Belästigung

Belästigung, so stellt sich heraus, ist ein regelmäßiges Problem für Entwickler*innen von Sprachassistent*innen. Beispielsweise sind etwa fünf Prozent der Interaktion der Sprachassistenz von „Robin Lab“ in ihrer Datenbank sexuell eindeutig (dieser Prozentsatz wird bei vergleichbaren Sprachassistent*innen wie Siri, Cortana und Alexa ähnlich sein). Umso wichtiger wäre es, dass Sprachassistent*innen eine klare und starke Position gegenüber sexueller Annäherungen und Demütigungen einnehmen. Dass dies noch nicht der Fall ist, zeigt folgendes Beispiel, bei dem Siri mit „You’re a bitch.“ beschimpft wurde. Ihre verwunderliche Antwort auf diesen verbalen Angriff: „I’d blush if I could; There’s no need for that; But… But..; !“. Übersetzt: „Ich würde rot werden, wenn ich könnte; Das ist nicht nötig; Aber…. Aber…;!“. Diese Antwort wurde zwar bereits nach Drängen Vieler verändert, jedoch zeigt es, wie Entwickler*innen den Charakter von Siri gestaltet haben. Selbst wenn wir scherzen, spiegelt der Instinkt Bots zu belästigen tiefere soziale Probleme wieder. In Europa erfährt jede neunte Frau zu Lebzeiten sexuelle Gewalt. Sechzig Prozent der Frauen, die im Silicon Valley arbeiten, wurden bei der Arbeit sexuell belästigt – an diesem vermeintlich fortschrittlichen Ort, an dem ein Großteil der Sprachassistent*innen entwickelt werden.

Kein „Nein“ ist kein „Ja“

Zu den häufigsten Ausreden, mit denen Sexualverbrecher*innen ihren Angriff rechtfertigen, gehört: „Ich dachte, sie*er wollte es“ oder „Sie*Er sagte nicht nein“. Die ausdrückliche Zustimmung ist nicht nur für ein gesundes Sexualverhalten unerlässlich, sie ist auch der Rechtsbeistand bei Angriffsfällen. Keiner der Bots verstärkt eine gesunde Kommunikation über Zustimmung, tatsächlich fördern sie die Idee, dass Schweigen „ja“ bedeutet. Technologieunternehmen könnten helfen, sexistische Unterwürfigkeit und Gleichgültigkeit von Frauen gegenüber sexueller Belästigung zu entwurzeln, anstatt sie zu verstärken. Siri sitzt in den Taschen von Hunderten von Millionen Menschen weltweit und Millionen von Amazon Echos, mit der installierten Alexa-Software, stehen in den Wohnungen. Es ist an der Zeit, dass ihre Entwickler*innen eine aktive Haltung gegen Sexismus und sexuelle Übergriffe einnehmen und die Reaktionen ihrer Bots auf Belästigungen ändern. Anstatt stereotype Passivität und Abweisung in der Gesellschaft zu festigen, könnten die Entwickler*innen aktiv gegen sexuelle Belästigung vorgehen und ein starkes Frauenbild etablieren.

Visual von Dominik Einfalt

Zurück zur Liste

Sexting oder doch sexuelle Belästigung?

Jugendsprache – über Dillos und Steilezähne

Sober Curiousity

Dirty Talk?

Die Sache mit der Politik