Beobachter – Noemi Hüsser
Eine App erstellt mit Hilfe von künstlicher Intelligenz digitale Porträts. Sie reproduziert dabei sexistische Stereotype. Warum das problematisch ist.
Das bin ich nicht, aber irgendwie doch.» Das werden sich wohl viele gedacht haben, nachdem sie die App Lensa AI Porträts haben erstellen lassen. Die Bilder fluten derzeit die Timelines in den sozialen Medien.
10 bis 20 Selfies müssen dafür in die App geladen werden. Für vier Franken erhält man dann nach einigen Minuten 100 digitale Porträts, die von einer künstlichen Intelligenz (KI) erstellt wurden.
Doch viele User erkennen in den KI-Porträts ein problematisches Muster: Die künstliche Intelligenz würde Frauen sexualisieren und zeige sie freizügiger als in den eingesandten Bildern. Zudem würden Frauen eher als Feen, Heilige und Prinzessinnen dargestellt. Männer hingegen als Astronauten, Helden oder Cyborgs – und im Unterschied zu den Frauen vollständig bekleidet.
Diese Kritik sei durchaus nachvollziehbar, sagt Cornelia Diethelm. Sie leitet den Studiengang Digitale Ethik an der Hochschule für Wirtschaft in Zürich.
Das liege vor allem an den Daten, mit denen die künstliche Intelligenz trainiert wurde. Im Fall von Lensa AI sind das Millionen von öffentlich verfügbaren Bildern unterschiedlicher Kunststile. Die künstliche Intelligenz lernt daraus, wie bestimmte Sachen aussehen, und bildet diese nach. «Die Daten sind aber häufig einseitig und vergangenheitsorientiert», sagt Diethelm. Die Stereotype seien darum keine Überraschung. «Sie sind in den Bildern, mit denen die KI trainiert wurde, zu erkennen und kommen so in die Systeme rein.»
Auch spielt es eine Rolle, von wem die künstliche Intelligenz trainiert wird. «Zum Beispiel nehmen Männer weibliche Stereotypen weniger wahr als Frauen», sagt Diethelm. In einem diverseren Team sei darum die Chance höher, dass sie bemerkt und korrigiert werden können.
Die Reproduktion von geschlechtsspezifischen Stereotypen führe dazu, dass Männer und Frauen unterschiedlich beurteilt werden. Frauen traue man weniger zu oder reduziere sie auf Äusserlichkeiten. «Dann wählt man Männer eher in die Politik oder denkt in Unternehmen, dass Männer bessere Chefs sind», sagt Diethelm. Junge Menschen könnten zudem das Gefühl vermittelt bekommen, dass sie sich ständig optimieren müssten.
Problematisch sei dies, weil mit der KI-App eine grosse Anzahl an Menschen erreicht werde. «Wenn eine Einzelperson durch ein Stereotyp gewissen Menschen unrecht tut, ist ihr Radius beschränkt. Aber bei Bildern, die viral gehen, oder Softwares, die in mehreren Ländern eingesetzt werden, findet eine automatisierte Diskriminierung statt», sagt Diethelm.
Die Stereotype der künstlichen Intelligenz später zu korrigieren, sei schwierig. «Die veralteten Bilder in den Daten müssten von Hand entfernt werden.» Das dauere aber sehr lange. Da KI ständig mit neuen Bildern dazulernt, müssten diese auch immer wieder auf Vielseitigkeit geprüft werden. «Die Unternehmen tragen diese Verantwortung, und wenn sie dafür zu wenig kompetent sind, ist das ein Qualitätsproblem.»
Diethelm geht davon aus, dass künstliche Intelligenz in Zukunft an vielen Orten eingesetzt wird. «Dadurch wird man immer mehr Erfahrungen sammeln, und der Druck auf Unternehmen steigt, Fehler zu korrigieren.»
Dass Nutzerinnen bereits erkannt haben, dass Lensa AI stereotypisierte und sexualisierte Porträts generiert, und vom Unternehmen Besserung fordern, ist ein erster Schritt in diese Richtung. «Oftmals nimmt man die Stereotype gar nicht wahr, weil man vor allem davon fasziniert ist, was mit künstlicher Intelligenz alles möglich ist», sagt Diethelm.