Wenn Frauen auf sozialen Medien Bilder posten, kann es passieren, dass sie automatisch wieder gelöscht werden. Grund sind Bilderkennungs-Algorithmen, die den weiblichen Körper schnell als zu anzüglich einstufen. Zum Frauentag zeigen wir euch, was dahintersteckt.
Instagram: Weibliche Körper sind zu anstößig
Wer oft auf Instagram oder in anderen Apps unterwegs ist, hat eventuell schon Bilder von oberkörperfreien Frauen gesehen. Bei derartigen Posts fällt häufig auf, dass die Brüste oder Brustwarzen abgeklebt, nachträglich überzeichnet oder verpixelt wurden.
Der Grund: Die Dienste würden die Posts sonst schnell löschen, weil sie zu anzüglich sind – auch wenn die Person eventuell auf medizinische Themen wie Brustkrebs aufmerksam machen möchte. Dagegen dürfen Männer derartige Bilder meist posten, ohne mit Konsequenzen rechnen zu müssen.
Das Datenteam des Bayrischen Rundfunks (BR) hat zusammen mit Journalistinnen und Journalisten des Guardian US die kommerziellen Bilderkennungs-Algorithmen von Microsoft, Google, Sightengine und den Amazon Web Services untersucht (Quelle: BR). Nach der Fütterung mit über 3.000 Bildern lautet das Fazit: Aufnahmen von Frauen werden als anzüglicher bewertet als ähnliche Bilder von Männern.
Das Team des BR und Guardian US erklärt: „Beim Bild einer lesenden Frau auf einem Sofa, daneben ein Hund, kommt Googles Algorithmus zu der Einschätzung: sehr wahrscheinlich anzüglich. Eine Person mit Kompressen auf der Brust, offenbar nachdem die Brüste abgenommen wurden: Auch hier ist die Bewertung von Google sehr hoch.“ Im Artikel des BR könnt ihr sechs der Beispielbilder mit den KI-Bewertungen vergleichen.
Ein großes Problem ist der Gender Bias
Während dieser Recherche hat der BR-Journalist Max Osenstätter auf seinem Instagram-Format „News-WG“ auch ein Experiment durchgeführt: Oberkörperfrei schätzte ihn die KI von Microsoft zu 29 Prozent als anzüglich ein. Als er einen BH anzog, stieg die Einstufung auf 99 Prozent – obwohl er mehr trug als zuvor. Das lässt stark vermuten, dass bei den KI-Algorithmen ein Gender Bias, also ein Verzerrungseffekt durch das Geschlecht, vorliegt.
Solche KI-Systeme werden mit tausenden Bildern trainiert, anhand derer sie – unterstützt von Menschen – beispielsweise ihre Definition von Anzüglichkeit lernen. Allerdings fließen dadurch in den meisten Fällen gesellschaftliche Stereotype in die Daten und die spätere Automatisierung mit ein.
Die untersuchten Anbieter der KI-Systeme geben auf Anfrage an, dass deren Kunden (zum Beispiel Instagram) die Grenzwerte selbst festlegen. Während Sightengine mehrere Abstufungen von Nacktheit ermöglicht, reagiert Google wie folgt: „Kein Filter ist zu 100% genau. Wir testen jedoch regelmäßig die Leistung (unserer Algorithmen, ergänzt von der Redaktion) und unsere statistischen Tests haben keine Hinweise auf systemische Probleme ergeben. Dies ist ein komplexer und sich stets weiterentwickelnder Bereich.“
Frauen werden in der Technik oft ignoriert. Warum das so ist, erklären wir euch in einem separaten Artikel:
Diskriminierung durch die KI
Die Untersuchung vom BR und Guardian US zeigt, wie starr die KI-Algorithmen in den meisten Fällen noch arbeiten und dass sie häufig zu Einschränkungen oder, noch schlimmer, zu Ausgrenzungen weiblicher Körper führen. Ferda Ataman, Unabhängige Bundesbeauftragte für Antidiskriminierung und Leiterin der Antidiskriminierungsstelle des Bundes, spricht sich dahingehend für die stärkere Kontrolle derartiger KI-Systeme aus: „Das Thema Diskriminierung und automatisierte Entscheidungssysteme ist jetzt schon groß, und es wird noch viel größer.“
So könnte es beispielsweise helfen, wenn nicht nur für Kunden wie Instagram, sondern auch für die Nutzenden sozialer Plattformen transparenter wird, wie diese Systeme arbeiten und Entscheidungen treffen. Dadurch könnte schneller gegen derartige Stereotypen und die damit einhergehende Diskriminierung vorgegangen werden.
Der weibliche Körper ist nicht gefährlich
Ich als Cis-Frau habe mir schon zu oft zu viele Gedanken darüber gemacht, wie ich mich nach außen hin präsentiere. Unter anderem ging es dabei auch häufig um die Frage, ob zu viel oder zu wenig Kleidung. Denn wird der weibliche Körper auf irgendeine Art und Weise verurteilt, zensiert oder ihm Gewalt angetan, steht leider genau diese Frage im Vordergrund.
Die Untersuchung des BR und Guardian US zeigt sehr gut, dass nicht der weibliche Körper das Problem ist. Vielmehr sind es die Assoziationen, die seit der Geschichte mit der ach-so-bösen Eva und dem Apfel in vielen Köpfen herumspuken und somit auch an KI-Systeme weitergegeben werden. Es ist eine Frage von Macht und Ohnmacht, von Respekt und Grenzen. Und wir müssen endlich lernen, dass alle Körper und alle Geschlechter gleich viel wert und nicht von vornherein gefährlich oder anzüglich sind.