Diversity, Tech · 22.03.2021

Warum Rassismus auch bei Technologien eine Rolle spielt und Racial Literacy ein Teil der Lösung sein kann

Racial Literacy Symbolbild
Der internationale Tag gegen den Rassismus

Am 21. März war internationaler Tag gegen den Rassismus. Ziel ist es, darauf aufmerksam zu machen, dass Rassismus kein Problem der Vergangenheit ist, sondern jeden Tag stattfindet. Bemerkt oder unbemerkt. Als Tech-Company haben wir uns zwei Fragen gestellt:

  • Welche Rolle spielt Technologie / Programmierung im Kontext Rassismus eigentlich?
  • Welche Lösungsansätze werden aktuell diskutiert?

Dabei sind wir auf das Konzept “Racial Literacy” (ethnische Kompetenz) gestoßen, dass wir euch als Teil einer Lösung vorstellen möchten.

Was Algorithmen und Rassismus miteinander zu tun haben

Laura Schelenz und Prof. Regina Ammicht Quinn von der Uni Tübingen erklären es so:

„Algorithmische Systeme sind Computermodelle, die anhand von Datensätzen trainiert werden, eine bestimmte Aufgabe zu lösen. Häufig verfügen diese Datensätze selbst über Verzerrungen, zum Beispiel indem sie über einen hohen Anteil von Daten weißer Menschen verfügen, aber nur über einen geringen Anteil von Informationen über Menschen mit dunkler Hautfarbe.” (1)

Aber wo findet sich das konkret im Alltag? Dazu drei Beispiele.

Beispiel 1: Gesichtserkennung funktioniert. Wenn man ein weißer Mann ist.

In der New York Times zeigte Steve Lohr (2) auf, dass Erkennungstechnologien dann zuverlässig Gesichter erkennen, wenn sie weiß sind. Woran das liegt? Die Maschinen wurden hauptsächlich mit Daten weißer (80 Prozent der Teilnehmer), männlicher (75 Prozent der Teilnehmer) Probanden gefüttert. Bei weißen Männern habe der Algorithmus daher eine Erkennungsquote von 99 Prozent, bei schwarzen Frauen läge diese nur noch bei 65 Prozent.

Konkret führe so etwas dann zu Racial Profiling gemäß Lohr, also einer Einordnung einer Person auf Basis ihrer Hautfarbe oder anderer körperlich markanter Merkmale. Brenda Medina und Thomas Frank beschrieben Ähnliches an anderer Stelle (3). So würden Frisuren, die vorwiegend unter schwarzen Personen populär sind, von Bodyscannern als Risiko klassifiziert. Das schlage sich wiederum in mehr Körperkontrollen nieder. Ähnliches gelte bei Perücken und Turbanen.

Der Assistenzprofessor für Soziologie Peter Hanink untersuchte Daten und Statistiken der New Yorker Polizei (4). Er fand heraus, dass Hautfarbe und Armut neben der Kriminalitätsrate der Umgebung einen signifikanten Einfluss darauf hätten, wer wann untersucht würde.

Beispiel 2: Eine Harvard-Professorin als Straftäterin?

Die Professorin für Regierungs- und Technologiepraxis Latanya Sweeney wurde von einer Kollegin darauf hingewiesen, dass beim googlen ihres Namens eine Werbeanzeige mit dem Titel „Latanya Sweeney. Verhaftet?" angezeigt würde. Die Forscherin war aber nie verhaftet wurden. Daraufhin untersuchte sie den Werbealgorithmus und fand heraus, dass Namen, die typischerweise mit schwarzen Communities in Verbindung gebracht wurden, mit sehr hoher Wahrscheinlichkeit (81 bis 86 % der Fälle bei Reuters und 92 bis 95 % bei Google) eine Anzeige zur Strafhistorie erhalten würden. Das Gleiche passiere nicht bei Namen mit weißer Assoziation (5).

Beispiel 3: Wie das Internet einen Chatbot in unter 24 Stunden zum Rassisten machte

Der Senior Reporter James Vincent berichtet über den 2016 von Microsoft vorgestellten Chatbot, der auf künstlicher Intelligenz basierte (6). Die Idee war, dass der Roboter intelligenter wird, je mehr man sich mit ihm unterhält. In mehr als 96.000 Tweets interagierte der Roboter mit anderen Menschen im Internet, wurde mit Daten und Informationen gefüttert und gab diese auf Basis des Nutzerverhaltens anderer wieder. Innerhalb von 15 Stunden begann der Bot, widersprüchliche Nachrichten zu twittern, innerhalb von 24 Stunden traten rassistische, frauenfeindliche Äußerungen und Hassreden auf, so Vincent.

Racial Literacy als Ausweg aus der Krise

Racial Literacy (ethnische Kompetenz) bedeutet, sich alter Muster und Vorurteile bewusst zu werden und sie aufzubrechen. 2019 stellten drei ForscherInnen im “Data & Society’s Fellowship Program” die Erkenntnisse ihrer Arbeit „ADVANCING RACIAL LITERACY IN TECH” vor. Racial Literacy soll dabei eine innovative Möglichkeit bieten, den Schaden rassistischer Vorurteile zu verringern.

Für diese Veränderung braucht es laut den AutorInnen drei Dinge:

  • Ein Bewusstsein und intellektuelles Verständnis, wie strukturierter Rassismus in Algorithmen funktioniert,
  • die emotionale Intelligenz, von Rassismus geprägte Situationen innerhalb von Organisationen aufzulösen und
  • die Überzeugung, Handlungen unternehmen zu wollen, die den Schaden an schwarzen Communities reduzieren

Was bedeutet das konkret für (Tech-)Unternehmen?

Die Mitautorin Mutale Nkonde gab 2019 dem Spiegel ein Interview zum Thema „Künstliche Intelligenz – Wie viel Rassismus steckt in Algorithmen?“ (8). Auf die Frage, ob Firmen sich auch von innen verändern wollen, zum Beispiel in dem sie schwarzen Nachwuchs fördern, sagte sie:

„Was das Recruiting betrifft, bin ich sehr enttäuscht. Ich bin Googles Machine Learning Team durchgegangen und habe nur einen schwarzen Mann und eine schwarze Frau gefunden - unter 893 Mitarbeitern. Es sind kaum schwarze Menschen an der Entwicklung und Erforschung künstlicher Intelligenz beteiligt, die Quoten schwarzer Mitarbeiter bei Tech-Unternehmen sind gering.“

Dabei gibt es funktionierende Ansätze. Die ForscherInnen Paul Gompers und Silpa Kovvali wiesen bereits 2018 in einer Studie (9) eine sogenannte „Diversity Dividende“ nach. Sie konnten nachweisen, dass Teams von Diversität profitieren und zwar anhand harter finanzieller Kennzahlen wie Umsatz und Profitabilität. Rocio Lorenzo und Martin Reeves zeigten ebenfalls in “How and Where Diversity Drives Financial Performance” (10), dass Arbeitsumgebungen mit mehr Diversität finanziell bessere Ergebnisse erkennen lassen. Trotzdem hängen viele Technologieunternehmen bei der Umsetzung solcher wünschenswerter Standards nach.

Auch wir können da als wunschlösung noch eine Schippe drauflegen. Wenn ihr also Java oder Angular Devs seid oder sonst jemanden kennt, der etwas kann, von dem ihr glaubt, dass wir das brauchen könnten - meldet euch! Wie ihr ausseht, woher ihr kommt oder welche Orientierung ihr habt, spielt für die wunschlösung keine entscheidende Rolle. Nur Leidenschaft für das was ihr tut müsst ihr mitbringen. Nähere Infos zu offenen Stellen findet ihr hier.

Fazit

Auch in der Technologie ist Rassismus (immer noch) ein Problem. Um das zu ändern, müssen Menschen aller Ethnien und Hautfarben aktiver in Produktions- und Verwaltungsprozesse einbezogen werden. Ein Bewusstsein muss geschaffen werden für die systematische Ungleichheit und den Umgang damit. Aktive Schritte müssen unternommen werden, um in Zukunft bias-ärmere Verfahren zu entwickeln und anzuwenden.

Falls ihr Lust zum Vertiefen habt:

1) Laura Schelenz, Prof. Regina Ammicht Quinn “Black Lives, Trans Rights und Algorithmen”

2) Steve Lohr, “Facial Recognition Is Accurate, If You’re a White Guy,” The New York Times, June 8, 2018, sec. Technology

3) Brenda Medina and Thomas Frank, “TSA Agents Say They’re Not Discriminating Against Black Women, But Their Body Scanners Might Be,” ProPublica, April 17, 2019

4) Peter Hanink, “Don’t Trust the Police: Stop Question Frisk, Compstat, and the High Cost of Statistical Over-Reliance in the NYPD,” Journal of the Institute of Justice and International Studies, 13 (2013): 99

5) Latanya Sweeney, “Discrimination in Online Ad Delivery,” SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, January 28, 2013)

6) James Vincent, “Twitter Taught Microsoft’s Friendly AI Chatbot to Be a Racist Asshole in Less than a Day,” The Verge, March 24, 2016

7) Jessie Daniels, Mutale Nkonde, Darakhshan Mir, “ADVANCING RACIAL LITERACY IN TECH”

8) Mutale Nkonde (im Interview mit dem Spiegel) „Künstliche Intelligenz – Wie viel Rassismus steckt in Algorithmen?“

9) Paul Gompers and Silpa Kovvali, “The Other Diversity Dividend,” Harvard Business Review, July 1, 2018

10) Rocio Lorenzo and Martin Reeves, “How and Where Diversity Drives Financial Performance,” Harvard Business Review, January 30, 2018


More from our blog

Intern · 28.10.2022

Gründerinterview Christian

Heute im Interview:
Christian - Digitalisierungs- und Innovationsbegleiter und Business-Development-Fan

Intern · 28.09.2022

Gründerinterview Simon

Heute im Interview:
Simon - Generatorenvater und -hüter, Tech-Allrounder und Projektjongleur

Intern · 30.08.2022

Teaminterview Theo

Heute im Teaminterview:
Theo—Angular Geek, Frontend-Zerleger und Outdoorbursche

Featured, Tech · 29.07.2022

Einfach mal MACHN.

Das dachte sich auch unser Business Development Team letzte Woche – und entschied sich für einen Besuch beim gleichnamigen Startup Festival für Tech, Business und Art in Leipzig. Hier gibt es Einblicke!

Tech · 20.07.2022

5 Mythen über Microservices

Seid ihr Fans von Microservices? Oder ist es euch lieber, monolithisch zu arbeiten? Warum eigentlich? Simon hat sich diese Woche Gedanken zu dem Thema gemacht – und räumt in unserem Blogpost mit 5 großen Mythen in dem Bereich auf.

Intern · 15.07.2022

Praktikumsinterview Svenja

Heute im Interview:
Svenja - Orga-Profi, Büroverschönerin, Teambetreuerin

Featured, Tech · 16.06.2022

Networking: Startup Community Thüringen goes Investor Days

Unser Gründer Christian hat mit der Startup Community die Investor Days Thüringen besucht. Von seinen Highlights erzählt er hier.

Tech · 24.05.2022

Wann ist Individualsoftware das Richtige für euch?

Seid ihr unsicher, ob ihr eure Ideen mit Standardsoftware umsetzen könnt? Oder wisst ihr schon, dass es eine Individualentwicklung sein soll und wollt mehr Informationen? Dann klickt hier!

Featured, Intern · 05.05.2022

Was ist eigentlich unser "Huddle"?

Huddlen. Das ist wenn unser Team zusammensitzt und gemeinsam Mittag isst. Aber warum eigentlich?

Featured, Intern · 28.04.2022

Welttag zur Gesundheit und Sicherheit am Arbeitsplatz

Der 28. April ist Welttag zur Gesundheit und Sicherheit am Arbeitsplatz. Thomas erzählt uns, wie er und die wunschlösung diese Themen handhaben.

Intern · 08.04.2022

Max’ erster Monat bei der wunschlösung

Heute erzählt uns Max von seinem ersten Monat bei der wunschlösung, wie der so ablief und woran er gearbeitet hat.

Intern, Featured · 07.04.2022

Für eine gesunde Seele zum Weltgesundheitstag

Der 07. April ist Weltgesundheitstag. Uns ist es wichtig, dieses Jahr über mentale Gesundheit zu sprechen.