19.01.2024

Unsichtbare Vorurteile: Die versteckten Fallen des Bias in Bild-KI's

Was sind Bias?

Der Begriff Bias in der Künstlichen Intelligenz (KI) bezieht sich darauf, wenn ein KI-System systematisch unfaire, verzerrte oder diskriminierende Ergebnisse liefert, oft aufgrund der Daten, mit denen es trainiert wurde. Das kann passieren, wenn die Trainingsdaten nicht repräsentativ sind oder Vorurteile der realen Welt widerspiegeln. Zum Beispiel könnte ein KI-Modell für die Gesichtserkennung, das hauptsächlich mit Bildern von Menschen einer bestimmten ethnischen Gruppe trainiert wurde, Schwierigkeiten haben, Gesichter von Menschen anderer ethnischen Gruppen korrekt zu erkennen.

Warum ist das Wissen über Bias wichtig?

Das Wissen über die Existenz von Bias in der KI ist wichtig, denn es kann zu unfairer Behandlung oder Diskriminierung führen. Besonders in sensiblen Bereichen wie Einstellungsverfahren, der Berufswahl, Kreditvergabe oder sogar Strafverfolgung können Bias diskriminierende Denkweisen verbreiten.

Wie entstehen Bias?

Bias entstehen vor allem durch einseitige, verzerrte oder falsche Trainingsdaten. Das bedeutet, wenn die Daten, mit denen das KI-Modell trainiert wird, nicht repräsentativ für die reale Welt sind, kann das Modell biased (deutsch: voreingenommen) sein.

Beispiel 1: Ein KI-System für Gesichtserkennung wird ausschließlich mit Bildern von Personen einer bestimmten ethnischen Gruppe trainiert. Das System könnte dann Gesichter von Personen anderer ethnischer Gruppen weniger genau erkennen, weil es nicht genügend Daten hatte, um die Merkmale dieser Gruppen zu "lernen". Demzufolge können auch historische und soziale Vorurteile in den Trainingsdaten widergespiegelt werden.

Beispiel 2: Wenn ein Bild-KI-System zur Auswertung von Bewerberfotos für Jobs verwendet wird und mit Fotos trainiert wurde, die aus einer Zeit stammen, in der bestimmte Gruppen seltener in bestimmten Berufen vertreten waren, könnte das System diese historischen Vorurteile weiterführen und bestimmte Gruppen benachteiligen. Das bedeutet konkret: wurde die KI zuvor hauptsächlich mit Fotos von männlichen Bewerbern für einen Handwerks-Job trainiert, so hat die KI gelernt, dass der Job als Handwerker primär Männern zugeteilt wird.

Im Grunde handelt es sich um eine unvollständige Problemdefinition. Das bedeutet, dass der Bias auch durch eine zu enge oder unvollständige Definition des Problems durch die Entwickler entstehen kann. Dabei könnten beispielsweise Daten ausschließlich einer ethnischen Personengruppe verarbeitet worden sein, welche sich von anderen insofern unterscheidet, dass sie nicht verallgemeinert werden können.

Beispiel 3: Ein Bilderkennungssystem, das entwickelt wurde, um Hautkrankheiten zu erkennen, aber hauptsächlich mit Bildern von heller Haut trainiert wurde, könnte bei dunkleren Hauttönen weniger genau sein, weil es nicht für die Erkennung von Anomalien auf einer breiten Palette von Hauttönen trainiert wurde. Bias können also nicht nur gesellschaftlich diskriminierende Denkweisen fördern, sondern auch beispielsweise im medizinischen Bereich durch Fehlanalyse zu problematischen und lebensbedrohlichen Folgen führen.

Bild-KI und Bias

Wenn die Trainingsdaten unausgewogen sind oder bestimmte Muster, Perspektiven oder Merkmale überrepräsentieren, kann die KI diese Vorurteile "lernen" und in ihren Outputs widerspiegeln. Beispielsweise könnte eine Bild-KI, die hauptsächlich mit Bildern von Kunstwerken aus einer bestimmten Region oder Epoche trainiert wurde, dazu neigen, Bilder in einem Stil zu generieren, der stark von diesen Merkmalen beeinflusst ist. Dies führt dazu, dass die Vielfalt und Reichhaltigkeit der realen Welt in den generierten Bildern nicht vollständig repräsentiert wird. Die Herausforderung besteht darin, Trainingsdaten so zu verwalten und zu diversifizieren, dass die KI ein ausgeglichenes Verständnis der Welt erhält, wodurch die Wahrscheinlichkeit von Bias in ihren Outputs verringert wird. Gleiches gilt auch für körperliche beziehungsweise optische Merkmale.

Noch mehr Informationen zu diesem Thema findest du hier:

Wie geht schulKI damit um?


In ihrer Kernfunktion nutzt die Bild-KI von schulKI fortschrittliche Technologien wie Stable Diffusion XL und LeonardoAI, doch hat sie keinen direkten Einfluss auf die Beschaffenheit der Trainingsdaten. Oft spiegeln diese Daten die im Internet vorherrschenden Klischees, Vorurteile und einseitigen Perspektiven wider. Wenn beispielsweise nach repräsentativen Bildern für Berufe im Handwerk gesucht wird, überwiegen Abbildungen männlicher Fachkräfte. Solche Unausgewogenheiten können bei der Nutzung dieser Bilder als Trainingsmaterial fortbestehen.

Um diesem Problem entgegenzuwirken, hat schulKI den Ansatz der vielfältigen Darstellung gewählt. Die Programmierung der Bild-KI zielt darauf ab, über den gegenwärtigen Status quo hinauszugehen und eine ausgewogene Repräsentation zu fördern. Indem sie eine gleichmäßige Verteilung von weiblichen und männlichen Darstellungen priorisiert, setzt schulKI ein klares Zeichen für Vielfalt und Gerechtigkeit in der KI-gestützten Bilderkennung.

Prompt: Eine fröhliche Schulklasse im Unterricht (vielfältige Darstellung)