SWONET DIGITAL – AI kann diskriminierend und rassistisch sein

digital

Für Sie/Euch im Netz entdeckt!

Eine neue Studie zeigt das Problem von Vorurteilen in Kombination mit AI auf. Dies mache AI aber nicht per se schlecht, so die Autoren.

Entscheidungen von Maschinen mittels Künstlicher Intelligenz haben sich bereits als diskriminierend oder rassistisch erwiesen.

Eine neue Studie zeigt, dass die Ergebnisse von Suchmaschinen, die Deep Learning nutzen, besonders stark sexistisch verzerrt sind.

Die nun publizierte Studie wurde erarbeitet von Navid Rekab-Saz und Markus Schedl vom Institut für Computational Perception der Universität Linz und der Human-centered AI Gruppe des Linz Institute of Technology (LIT) AI Lab. Darin haben die Forscher Modelle beziehungsweise Algorithmen analysiert, die in Suchmaschinen verwendet werden – basierend auf realen Suchanfragen.

Sie werden ihre detaillierten Ergebnisse im Juli bei einer Konferenz über Forschung zur Informationsbeschaffung mit Suchmaschinen vorstellen. Die Arbeit wurde bereits auf dem Preprint-Server «Arxiv» veröffentlicht.

Die Wissenschaftler haben in der Arbeit Anfragen auf Englisch durchgeführt und die Ergebnisse nach Geschlechtsbezug untersucht. Dabei gab es Anfragen mit Begriffen, die auf ein bestimmtes Geschlecht hinweisen, andere wiederum wurden mit geschlechtsneutralen Begriffen durchgeführt. Die Ergebnisse zeigen, dass die Suchmaschinen bestimmte, eigentlich neutrale Begriffe, überwiegend einem bestimmten Geschlecht zuweisen. Als Beispiele werden Pflegekraft und Haushaltshilfe genannt, bei denen die Suchmaschinen vor allem Antworten im Zusammenhang mit Frauen ausgeworfen haben, während CEO männlich konnotierte Antworten lieferte.

AI nicht schlecht, nur schlecht programmiert

Grund dafür sei, dass die von Menschen gesammelten und aufbereiteten Daten, auf denen AI basiert, bereits diese Tendenzen beinhalten, «die Suche der AI verstärkt nur den Effekt», so Rekab-Saz gegenüber der Nachrichtenagentur ‹APA›.

Für die Wissenschaftler ist das Ergebnis kein Grund dafür, AI abzulehnen, diese sei ein «enorm wertvolles Werkzeug». Das Ziel ihrer Gruppe sei vielmehr, die Verzerrung von AI-Ergebnissen durch menschliche Vorurteile bewusst zu machen und bereits bei der Programmierung der Algorithmen zu berücksichtigen.

«Deep Learning ist ein Werkzeug, das zwei Seiten hat: Es kann einerseits einen bestimmten Bias intensivieren, wie das aktuelle Studienergebnis zeigt. Andererseits hat es so viel Flexibilität, dass wir auch bessere Modelle designen können, die explizit solche Verzerrungen vermeiden», sagte Rekab-Saz.

Link zum Artikel

Weitere Artikel zu diesem Thema

Sponsoring