Data Science und Gender

SCHAU MICH AN UND ICH SAG DIR DEIN GESCHLECHT

Autor_in:
Karoline Busse

Gesichtserkennung ist mittlerweile ein Stück Alltag geworden. Viele von uns entsperren durch einen Blick in die Kamera ihre Smartphones oder Computer. Doch was passiert, wenn mit all diesen Aufnahmen von unseren Gesichtern mehr gemacht wird, als nur zu prüfen, ob wir es wirklich selbst sind? Data Science ist eine Disziplin der Informatik, die aus großen Datenmengen durch quantitative Analysen neue Erkenntnisse ziehen will. „Quantitativ“ bedeutet dabei, dass zahlreiche Aspekte messbar, zählbar, kategorisierbar gemacht werden, um daraus Regeln abzuleiten, aus denen die „Erkenntnisse“ gewonnen werden können.

Was passiert also, wenn wir Aufnahmen von Gesichtern quantifizieren wollen? Wir schauen uns Merkmale wie Haar- und Augenfarbe, das Vorhandensein von Sommersprossen, Muttermalen, Narben, Bart, Brille, Piercings, Make-up und so weiter an. Viele dieser Merkmale kann man jedoch leicht verändern oder verdecken. Deshalb setzen Gesichtserkennungssysteme viel häufiger auf die Größen und Proportionen von einzelnen Gesichtsmerkmalen wie der Nase oder des Unterkiefers. Anhand dieser anatomischen Gesichtsmerkmale wollen Data Science betreibende Informatiker_innen dann Schlüsse über die Person ziehen, zum Beispiel über deren Geschlecht. Doch was macht eigentlich das Geschlecht einer Person aus?

Die Antwort auf diese Frage ist ganz einfach. Die einzige Person, die das Geschlecht eines Menschen festlegen kann, ist dieser Mensch selbst. Denn nur ich selbst kann genau wissen, wie ich mich fühle und als was ich mich sehe. Ich – und nur ich – bestimme meine eigene Identität. Meistens dauert es einige Jahre im Leben eines Menschen, bis man eine Entscheidung über die eigene Identität getroffen hat, deshalb[1] schreibt die Menschheit ihren Kindern zunächst das Geschlecht anhand ihrer Körperbeschaffenheit zu. Hat das Kind einen Penis, ist es ein Junge, hat es eine Vulva, ist es ein Mädchen. Auch das ist ein Ergebnis der Quantifizierung von Körpermerkmalen, die von der Mehrheit der Menschen als völlig okay wahrgenommen wird. Doch sie trifft nicht immer zu. Es gibt viele trans und nicht-binäre Menschen, die das ihnen anhand ihres Körpers zugewiesene Geschlecht ablehnen und auch ihre Körper an ihre Identität anpassen.

Geschlecht, Aussehen und Körperbeschaffenheit hängen also nicht zwingend zusammen. Da trans und nicht-binäre Menschen lange Zeit durch Diskriminierung und Strafen „unsichtbar“ gemacht wurden, rückt dieser Fakt jedoch nur langsam in die Mitte der Gesellschaft. Die meisten Systeme und Institutionen passen sich nur schleppend an; beispielsweise ist es noch immer sehr teuer und aufwendig, den eigenen Geschlechtseintrag und Namen im Personalausweis ändern zu lassen. Öffentliche Toiletten werden nach „Männer“ und „Frauen“ unterteilt, aber für nicht-binäre Menschen gibt es zumeist keine eigenen Waschräume.

Diese Vielfalt und ihr ständiger Wandel stehen in starkem Kontrast zu dem Streben nach Quantifizierung und eindeutiger Zuordnung der Data Science. Die mathematischen Modelle brauchen fein säuberliche Trennungen von Kategorien – da passen beispielsweise androgyne nicht-binäre Menschen nicht hinein. Schlimmer noch: Wenn der Gesichtserkennungs-Algorithmus eine trans Frau aufgrund ihrer körperlichen Vergangenheit fälschlicherweise als Mann erkennt, kann das zu einem (lebens-)gefährlichen Zwangsouting führen.

Ist es also sinnvoll, die Algorithmen und Modelle um trans Personen zu erweitern? Auch dann besteht noch die Diskrepanz zur teils gewollten Uneindeutigkeit vieler nicht-binärer Menschen. Identität ist zudem nicht in Stein gemeißelt und häufig im Fluss. Wir nehmen ständig Eindrücke und Ideen auf, adaptieren diejenigen, die zu uns passen, und entwickeln uns beständig weiter. Wie gut passen da in Code gemeißelte Entscheidungsregeln und starre Kategorien?

Auch in der Informatik wird diese Frage diskutiert. Os Keyes von der Universität Washington und Katta Spiel von der Technischen Universität Wien sind beispielsweise zwei nicht-binäre Menschen, die sich mit Geschlecht und Technik auseinandersetzen. Sie kritisieren, dass nicht nur in der Praxis, sondern bereits in der Forschung zu Data Science und Geschlechtserkennung von einem starren, binären System von Geschlecht ausgegangen wird, bei dem allein die körperlichen Merkmale ausschlaggebend sind.

In einer Untersuchung aus dem Jahr 2018 hat Os Keyes beispielsweise systematisch Forschungsartikel aus dem Bereich Data Science zu Geschlechtserkennung anhand von Fotos untersucht.[2] Knapp 95 % der Artikel gingen von einem binären Geschlechtsmodell („Mann“/„Frau“) aus und in 72 % der Artikel wurde Geschlecht als etwas Starres und Unveränderliches dargestellt. Unerwartete Ergebnisse bei der Klassifizierung wurden in mindestens einem Fall als Fehler des Algorithmus abgetan – ohne auch nur darüber nachzudenken, ob die klassifizierte Person vielleicht trans sein könnte.

Üblicherweise bestimmt die Forschung den Kurs der Praxis. Wenn also das in der Forschung zu beobachtende stark limitierende Modell von Geschlecht weiter in die Praxis übergeht, wird es düster für trans und nicht-binäre Menschen. Wird die technische Limitierung von Geschlechtserkennung zum bestimmenden Faktor für das tägliche Leben (zum Beispiel bei der Zugangskontrolle für Landesgrenzen[3] oder einfach nur bei der Benutzung öffentlicher Toiletten), machen wir damit einen Rückschritt und ordnen uns den vermeintlich feststehenden technischen Beschränkungen unter. Schon heute kennt man die Aussage: „Das geht nicht, weil das System das so nicht kann.“ So verstärkt die Technologie die menschliche Wahrnehmung, woraus dann soziale Regeln abgeleitet werden, die wiederum Eingang in neue Technologien finden. Ein Teufelskreis.

Kann man vielleicht einfach das unterliegende System der Software erweitern? Kann man beispielsweise ganz viele Fotos von trans und nicht-binären Menschen zu Hilfe nehmen, um diese besser zu klassifizieren? Die Antwort lautet: Nein. Wenn wir davon ausgehen, dass jede Person nur selbst die Entscheidungshoheit über ihr Geschlecht hat, gibt es kein Muster, keine typischen Indikatoren für dieses oder jenes Geschlecht, und damit auch keinerlei Grundlage für eine Klassifikation. Katta Spiel, Os Keyes und Pınar Barlas zeigen in einem Aufsatz von 2019 eine Reihe von Fragmenten einer nicht-binären Utopie im Zusammenhang mit Technologie auf.[4] Auch hier sehen die Forschenden die automatische Geschlechtserkennung als gefährlich für nicht-binäre Menschen und darüber hinaus als widersprüchlich gegenüber der heute gängigen Auffassung von Geschlecht an. In ihrer Utopie findet sich daher keine Anpassung, keine Erweiterung dieser Technologie. Sie wird schlicht und einfach nicht benötigt und deshalb „rausgepatcht“.

Übrigens gab es schon einmal eine Theorie, der zufolge sich Charakterzüge anhand des Gesichtes ablesen lassen können: die Physiognomik. Diese Theorie existiert seit der Antike, gewann jedoch vor allem im 19. und frühen 20. Jahrhundert stark an Popularität und beförderte unter anderem den Rassismus im nationalsozialistischen Deutschland. Heutzutage ist dies natürlich alles widerlegt und als Pseudowissenschaft abgestempelt. Wir werden sehen, wie es mit der automatischen Geschlechtserkennung weitergeht.

Quellen

[1] Natürlich ist die Geschlechtszuschreibung anhand der Körpermerkmale von Kindern nicht in erster Linie ein pragmatisches, sondern vor allem ein soziokulturelles Vorgehen, mit dem viel Tradition, starre Rollenbilder und sozialer Druck verbunden sind. Dies weiter auszubreiten würde jedoch den Rahmen dieses Artikels sprengen.

[2] Siehe Keyes, Os: The Misgendering Machines: Trans/HCI Implications of Automatic Gender Recognition, in: Proceedings of the ACM on Human-Computer Interaction, Jg. 2 (2018), CSCW, S. 1–22 [PDF, eingesehen am 29.10.2020].

[3] Das Geschlecht spielt zum Beispiel bei Passkontrollen eine Rolle, denn es ist im Ausweis vermerkt.

[4] Siehe Spiel, Katta/Keyes, Os/Barlas, Pınar: Patching Gender: Non-binary Utopias in HCI, in: Extended Abstracts of the 2019 CHI Conference on Human Factors in Computing Systems, in: CHI’19 Extended Abstracts, 2019 [PDF, eingesehen am 29.10.2020].