Maschinen sind die besseren Menschen. Schließlich sind sie frei von angeborenen Abneigungen und kein Teil einer Gesellschaft, die auf Diskriminierungen fußt. Nun, das ist tatsächlich nicht so wirklich richtig. Denn immer mehr Beispiele zeigen, dass sich Algorithmen auf vielfältige Weise sexistischen und rassistischen Strukturen anpassen. Wie es zu dieser Diskriminierung im digitalen Raum kommt und wer etwas dagegen unternimmt.
Zunächst gibt es dazu eine wichtige Grundlage zu klären. Algorithmen sind – um es mal verständlich auszudrücken – automatisierte Entscheidungsfindungssysteme. Sie begegnen uns bei Social Media, bei Werbeanzeigen, bei Google – ach, eigentlich überall im Netz.
Am Ende sind Algorithmen bei all der Cyber-Welt aber doch menschengemacht. Dass man das ihnen doch öfter anmerkt als gedacht, beweisen mittlerweile immer mehr Situationen aus dem Netz. Man spricht deswegen von einer Bias, also einer Voreingenommenheit, die in den Algorithmen zu stecken scheint.
Wie sich diese äußert? Schauen wir uns mal ein paar Beispiele an.
Was machen diskriminierende Algorithmen? Ein paar Beispiele.
- Die Computerwissenschaftlerin Joy Buolamwini wollte bei Snapchat Filter ausprobieren – musste dann aber feststellen, dass die KI des Social-Media-Netzwerks die Gesichter schwarzer Frauen nicht erkennen kann.
So rassistisch das hier schon ist, beschränkt sich diese Erkenntnis dennoch auf den Alltag. Klar, ohne Filter kann man schon leben. Aber manchmal haben die Algorithmen sehr viel Macht über essentielle Lebensentscheidungen. - 2019 bot Apple erstmals seine eigenen Kreditkarten an. Eine dabei eingesetzte KI sollte die Konditionen überprüfen, wie viel Kredit welchen Nutzer:innen zusteht. Die KI war sich sicher: Männer haben deutlich mehr verdient.
Mit dem Laden des Tweets akzeptieren Sie die Datenschutzerklärung von Twitter.
Mehr erfahren
- Bei Amazon sollte ein Algorithmus 2014 die lästige Sortierarbeit im Recruiting übernehmen. Und siehe da – plötzlich warf die KI über proportioniert viele Frauen aus dem System. Zu diesem und ähnlichen Vorfall forschte unter anderem die Tagesschau ausführlicher, dazu könnt ihr hier mehr lesen.
- Bei Twitter schneidet die Bild-Vorschau regelmäßig nur auf weiße Männer zu – und damit auch regelmäßig alle anderen Personen raus. Das fand eine Studie der FU Berlin heraus, die dazu ein paar übersichtliche Slide-Shows zusammengestellt hat.
- Auch die Google Bildersuche bevorzugt Männer, als wäre sie der CSU-Parteitag. Gibt man nämlich CEO in das Suchfeld an, zeigen gerade einmal 11 % der Bilder Frauen. In der Realität liegt die Zahl in den USA aber bei 27%. (Quelle: https://www.washington.edu/news/2015/04/09/whos-a-ceo-google-image-results-can-shift-gender-biases/)
- Wegen solchen inhärenten Vorlieben können Algorithmen sogar dramatische Konsequenzen haben – 2020 wurde Robert Julian-Borchak Williams so 30 Stunden in Gewahrsam gehalten, weil ihn die KI verwechselt hatte. (Quelle: https://taz.de/Zukunftsfaehige-Digitalitaet/!5819700/)
„Algorithmen sind nichts Objektives, sondern quasi „in Code eingebettete Meinungen und Vorurteile.“
Larissa Ginzinger & Dr. Guido Zimmermann Tweet
Man könnte diese Liste noch ewig weiterführen, doch ändern würde es an der Tatsache dennoch nichts. Vielmehr stellt sich, vor allem den weniger Technikaffinen unter uns, die Frage: Wie können vermeintlich neutrale Technologien plötzlich in solche menschlichen Muster verfallen?
Wie konnte das passieren? Die Ursachen diskriminierender Algorithmen
Algorithmen entwickeln gefühlt Golem-like ein Eigenleben, stammen aber am Ende doch aus den Händen der Entwickler:innen. Das Gendern könnten wir uns an dieser Stelle nur leider schon fast sparen, denn nicht einmal jede vierte Arbeitskraft im Technologiesektor ist weiblich. (Quelle: „future of women at work: Transitions in the age of automation”, McKinsey Global Institute, Juni 2019). Von einer Diversifizierung in Sachen sexuelle Orientierung, Religionszugehörigkeit oder eine Einbeziehung von BIPoC haben wir da noch nicht einmal angefangen.
Das erklärt zumindest schonmal, warum scheinbar nicht schon zu Beginn einer Einführung darüber nachgedacht wird, ob das Ergebnis eventuell zu ausschließenden Mechanismen führen könnte. Technisch können solche Situationen wie oben aufgeführt aber auf unterschiedlichen Situationen beruhen. Und die hängen maßgeblich von der Programmierung der Algorithmen ab.
Arten von Bias bei KI-Systemen
- Datenverursachter Bias
Davon spricht man, wenn Algorithmen auf Datensätzen beruhen. Das ist sehr häufig der Fall und kann an sich natürlich eine gute Sache sein. Logisch: Wenn hier vornehmlich weiße Männer bei dem Merkmal „CEO“ eingepflegt werden, fallen in der Praxis schwarze Frauen eben raus. So reproduzieren KIs gesellschaftliche Machtdiskurse in vollen Zügen. - Interaktiver Bias
Geht man das Ganze jedoch anders an und nutzt interaktive KIs, kann das Ganze auch nach hinten losgehen. So beobachteten Nutzer:innen, dass eine Twitter-KI zunehmen rassistisch wurde, da sie sich an das Verhalten des Social-Media-Netzwerks anpasste. - Gewachsener Bias
Manche Algorithmen passen sich mehr und mehr den Vorlieben der User:innen an und filtern dabei immer mehr der scheinbar unpassenden Dinge, Accounts und so weiter heraus. Die Diversität hat so eben den Raum verlassen. - Ähnlichkeits-Bias
Ungefähr so läuft es auch beim Ähnlichkeits-Bias, der vor allem Dinge anzeigt, die der Nutzermeinung entsprechen. Vorherige Stereotypisierungen bleiben also bestehen und lassen keinen Raum für andere Stimmen. (Quelle: LB BW (https://docplayer.org/167507122-Algorithmen-rassistisch-und-sexistisch.html)
Wie Sexismus und Rassismus an KIs vererbt werden
Wenn ein Kind etwas klaut, tragen die Erziehungsberechtigten die Verantwortung. Und natürlich sind auch die Entwickler:innen hinter den Algorithmen diejenigen, bei denen man mit der Spurensuche anfangen muss.
Eine grundlegende Problematik liegt aber in der unterschiedlichen Herangehensweise von Mensch und Maschine: Algorithmen fällen nämlich keine Einzelfallentscheidungen und so etwas wie Moral kennen sie normalerweise schonmal gar nicht. Stattdessen geht es ihnen um fest definierte Rahmen, nach denen alle künftigen Entscheidungen behandelt werden können.
Hat nun Amazon in der Vergangenheit bevorzugt Männer eingestellt, geht der Algorithmus davon aus, dass sich das in der Zukunft wohl nicht ändern sollte. Und meint damit natürlich auch nichts Böses. Möchte man die bisherigen Strukturen unserer Gesellschaft aber nicht in 20 Jahren noch genau so sehen, müssen auch die Algorithmen anders aufgezogen werden.
Die Problematik hat aber glücklicherweise auch schon die Politik erkannt, in Deutschland etwa die Antidiskriminierungsstelle. Die schlägt mit Hilfe einer Studie schon Alarm, denn sie erkennt, dass diese Datensätze beim Machine Learning zu verstärkter Stereotypisierung führen könnten. Denn wie oben aufgeführt: Für Algorithmen gibt es eben Regeln und so wird bestimmten Menschengruppen nun mal ein bestimmtes Merkmal zugeordnet. Das Problem dahinter müssen wir an dieser Stelle wohl nicht weiter ausformulieren.
Doch klar ist auch – eine Welt ohne Algorithmen klingt analoger als unsere durch digitalisierte Welt jemals sein sollte. Wie können wir also diesen Widerspruch aus Diskriminierung und Digitalisierung aufbrechen? Erste Antworten geben verschiedene Personen und Einrichtungen.
Wer etwas gegen die Diskriminerung im Netz unternimmt
- Miah Shah-Dand ist die CEO der Beratungsfirma Women in AI Ethics, die sich für mehr Gerechtigkeit in der Tech-Welt einsetzt. Dabei hilft sie Unternehmen dabei, ihre Technologien inklusiver, ethischer und diverser zu gestalten. Für mehr Repräsentation von FLINTAQ!
- In Deutschland ist hingegen das NFP 77-Forschungsprojekt „Sozialverträgliche und faire künstliche Intelligenz“ an den Start gegangen. Hier setzt sich ein Team aus Forschenden der Bereiche Informatik, Ethik und Wirtschaft für faire Algorithmen ein, die nicht ausschließlich auf Nutzenmaximierung ausgerichtet sind.
- In Hannover ist derweil das interdisziplinäre Forschungsprojekt mit dem sperrigen Titel „Bias and Discriminiation in Big Data and Algorithmic Processing“ losgegangen. Dabei sollen sowohl philosophische Herangehensweisen, als auch rechtliche Grundlagen und technische Lösungen erarbeitet werden.
- Auf gesetzlicher Ebene hat die Datenschutz-Richtlinie RL 95/46/EG mittlerweile ein Verbot automatisierter Entscheidungen in einigen wichtigen Lebensbereichen durchgesetzt. Digitalisierung – aber nicht um jeden Preis.
- Die oben erwähnte Antidiskriminierungsstelle bietet neben Studien und Untersuchungen auch verschiedene Mittel, präventives Vorgehen auf politischer und technischer Ebene anzugehen.
- Die beiden IT-Professor:innen Yuriy Brun und Alexandra Meliou aus Massachussetts schreiben an ihrer Software Themis, die einen konkreteren Einblick in eingesetzte Algorithmen ermöglicht und damit eine Grundlage für weitere Forschungen gewährt.
- Die Digitalkünstlerin Caroline Sinders arbeitet an der feministischen Software Sinders. Dieser Datensatz besteht mittlerweile aus über 100 feministischen Texten von Beyoncés Lemonade bis zum Essay Ein Manifest für Cyborgs von Donna Haraway. Damit möchte sie vor allem einen Wandel anstoßen und einen diversen Datensatz als Alternative zur Verfügung stellen.
Trotz all der Schwierigkeiten – es bewegt sich etwas in der Welt der Algorithmen. Dass die Ergebnisse der verschiedenen Projekte auch schnell ein Ende für so problematische Fälle wie oben erwähnt setzen, bleibt nur zu hoffen.
Weiterführende Medien rund um rassistische und sexistische Algorithmen
Ihr wollt mehr zu dem Thema erfahren? Hier noch ein paar lohnenswerte Einblicke in das komplexe Thema.
Dieser Artikel von Charlton McIlwain erklärt die Verbindung zwischen Algorithmen und rassistischen Debatten während der Corona-Pandemie und der Black Lives Matter-Bewegung.
Die Antidiskriminierungsstelle zeigt in ihrer Studie noch vielfältige weitere Beispiele, in denen die Diskriminierung durch KI und Algorithmen zum Problem wird.
Auch der Artikel von Ilona Howart zum Thema „Algorithmen, KI und soziale Diskriminierung“ liefert spannende Einblicke in das Thema.
Wer es lieber auf die Ohren bekommen möchte, darf zum „Fight Like A Girl“-Podcast zum Thema „Rassistische und sexistische Algorithmen“ greifen.
Auch für den Netflix & Chill-Abend ist etwas dabei – und zwar die Netflix-Doku „Coded Bias – Vorprogrammierte Diskriminierung von 2020. Lohnt sich!
Sharing is Caring: Teil den Beitrag, wenn er dir gefällt!
Feedback und angeregte Diskussionen sind Balsam für unsere Blog-Herzen. Vielleicht könnte das Thema ja auch deine Freund:innen oder Kolleg:innen interessieren?
Lust auf ein Projekt mit uns?