BlogwunschTech

Warum Rassismus auch bei Technologien eine Rolle spielt und Racial Literacy ein Teil der Lösung sein kann

Warum Rassismus auch bei Technologien eine Rolle spielt

und Racial Literacy ein Teil der Lösung sein kann

 

 

Der internationale Tag gegen den Rassismus

Am 21. März war internationaler Tag gegen den Rassismus. Ziel ist es, darauf aufmerksam zu machen, dass Rassismus kein Problem der Vergangenheit ist, sondern jeden Tag stattfindet. Bemerkt oder unbemerkt. Als Tech-Company haben wir uns zwei Fragen gestellt:

  1. Welche Rolle spielt Technologie / Programmierung im Kontext Rassismus eigentlich?
  2. Welche Lösungsansätze werden aktuell diskutiert?

Dabei sind wir auf das Konzept “Racial Literacy” (ethnische Kompetenz) gestoßen, dass wir euch als Teil einer Lösung vorstellen möchten.

Zitat zu Racial Literacy

Was Algorithmen und Rassismus miteinander zu tun haben

Laura Schelenz und Prof. Regina Ammicht Quinn von der Uni Tübingen erklären es so:

 „Algorithmische Systeme sind Computermodelle, die anhand von Datensätzen trainiert werden, eine bestimmte Aufgabe zu lösen. Häufig verfügen diese Datensätze selbst über Verzerrungen, zum Beispiel indem sie über einen hohen Anteil von Daten weißer Menschen verfügen, aber nur über einen geringen Anteil von Informationen über Menschen mit dunkler Hautfarbe.” (1)

Aber wo findet sich das konkret im Alltag? Dazu drei Beispiele.

Beispiel 1: Gesichtserkennung funktioniert. Wenn man ein weißer Mann ist.

 In der New York Times zeigte Steve Lohr (2) auf, dass Erkennungstechnologien dann zuverlässig Gesichter erkennen, wenn sie weiß sind. Woran das liegt? Die Maschinen wurden hauptsächlich mit Daten weißer (80 Prozent der Teilnehmer), männlicher (75 Prozent der Teilnehmer) Probanden gefüttert. Bei weißen Männern habe der Algorithmus daher eine Erkennungsquote von 99 Prozent, bei schwarzen Frauen läge diese nur noch bei 65 Prozent.  

Konkret führe so etwas dann zu Racial Profiling gemäß Lohr, also einer Einordnung einer Person auf Basis ihrer Hautfarbe oder anderer körperlich markanter Merkmale. Brenda Medina und Thomas Frank beschrieben Ähnliches an anderer Stelle (3). So würden Frisuren, die vorwiegend unter schwarzen Personen populär sind, von Bodyscannern als Risiko klassifiziert. Das schlage sich wiederum in mehr Körperkontrollen nieder. Ähnliches gelte bei Perücken und Turbanen.  

Der Assistenzprofessor für Soziologie Peter Hanink untersuchte Daten und Statistiken der New Yorker Polizei (4). Er fand heraus, dass Hautfarbe und Armut neben der Kriminalitätsrate der Umgebung einen signifikanten Einfluss darauf hätten, wer wann untersucht würde.

Beispiel 2: Eine Harvard-Professorin als Straftäterin?

Die Professorin für Regierungs- und Technologiepraxis Latanya Sweeney wurde von einer Kollegin darauf hingewiesen, dass beim googlen ihres Namens eine Werbeanzeige mit dem Titel „Latanya Sweeney. Verhaftet?" angezeigt würde. Die Forscherin war aber nie verhaftet wurden. Daraufhin untersuchte sie den Werbealgorithmus und fand heraus, dass Namen, die typischerweise mit schwarzen Communities in Verbindung gebracht wurden, mit sehr hoher Wahrscheinlichkeit (81 bis 86 % der Fälle bei Reuters und 92 bis 95 % bei Google) eine Anzeige zur Strafhistorie erhalten würden. Das Gleiche passiere nicht bei Namen mit weißer Assoziation (5).

Beispiel 3: Wie das Internet einen Chatbot in unter 24 Stunden zum Rassisten machte

Der Senior Reporter James Vincent berichtet über den 2016 von Microsoft vorgestellten Chatbot, der auf künstlicher Intelligenz basierte (6). Die Idee war, dass der Roboter intelligenter wird, je mehr man sich mit ihm unterhält. In mehr als 96.000 Tweets interagierte der Roboter mit anderen Menschen im Internet, wurde mit Daten und Informationen gefüttert und gab diese auf Basis des Nutzerverhaltens anderer wieder. Innerhalb von 15 Stunden begann der Bot, widersprüchliche Nachrichten zu twittern, innerhalb von 24 Stunden traten rassistische, frauenfeindliche Äußerungen und Hassreden auf, so Vincent.

Racial Literacy als Ausweg aus der Krise

Racial Literacy (ethnische Kompetenz) bedeutet, sich alter Muster und Vorurteile bewusst zu werden und sie aufzubrechen. 2019 stellten drei ForscherInnen im “Data & Society’s Fellowship Program” die Erkenntnisse ihrer Arbeit „ADVANCING RACIAL LITERACY IN TECH” vor.  Racial Literacy soll dabei eine innovative Möglichkeit bieten, den Schaden rassistischer Vorurteile zu verringern.

Für diese Veränderung braucht es laut den AutorInnen drei Dinge:

  1.              Ein Bewusstsein und intellektuelles Verständnis, wie strukturierter Rassismus in Algorithmen funktioniert,
  2.             die emotionale Intelligenz, von Rassismus geprägte Situationen innerhalb von Organisationen aufzulösen und
  3.             die Überzeugung, Handlungen unternehmen zu wollen, die den Schaden an schwarzen Communities reduzieren

Was bedeutet das konkret für (Tech-)Unternehmen?

Die Mitautorin Mutale Nkonde gab 2019 dem Spiegel ein Interview zum Thema „Künstliche Intelligenz – Wie viel Rassismus steckt in Algorithmen?“ (8). Auf die Frage, ob Firmen sich auch von innen verändern wollen, zum Beispiel in dem sie schwarzen Nachwuchs fördern, sagte sie:

„Was das Recruiting betrifft, bin ich sehr enttäuscht. Ich bin Googles Machine Learning Team durchgegangen und habe nur einen schwarzen Mann und eine schwarze Frau gefunden - unter 893 Mitarbeitern. Es sind kaum schwarze Menschen an der Entwicklung und Erforschung künstlicher Intelligenz beteiligt, die Quoten schwarzer Mitarbeiter bei Tech-Unternehmen sind gering.“

Dabei gibt es funktionierende Ansätze. Die ForscherInnen Paul Gompers und Silpa Kovvali wiesen bereits 2018 in einer Studie (9) eine sogenannte „Diversity Dividende“ nach. Sie konnten nachweisen, dass Teams von Diversität profitieren und zwar anhand harter finanzieller Kennzahlen wie Umsatz und Profitabilität. Rocio Lorenzo und Martin Reeves zeigten ebenfalls in “How and Where Diversity Drives Financial Performance” (10), dass Arbeitsumgebungen mit mehr Diversität finanziell bessere Ergebnisse erkennen lassen. Trotzdem hängen viele Technologieunternehmen bei der Umsetzung solcher wünschenswerter Standards nach.  

Auch wir können da als wunschlösung noch eine Schippe drauflegen. Wenn ihr also Java oder Angular Devs seid oder sonst jemanden kennt, der etwas kann, von dem ihr glaubt, dass wir das brauchen könnten - meldet euch! Wie ihr ausseht, woher ihr kommt oder welche Orientierung ihr habt, spielt für die wunschlösung keine entscheidende Rolle. Nur Leidenschaft für das was ihr tut müsst ihr mitbringen. Nähere Infos zu offenen Stellen findet ihr hier

Fazit

Auch in der Technologie ist Rassismus (immer noch) ein Problem. Um das zu ändern, müssen Menschen aller Ethnien und Hautfarben aktiver in Produktions- und Verwaltungsprozesse einbezogen werden. Ein Bewusstsein muss geschaffen werden für die systematische Ungleichheit und den Umgang damit. Aktive Schritte müssen unternommen werden, um in Zukunft bias-ärmere Verfahren zu entwickeln und anzuwenden.

 Falls ihr Lust zum Vertiefen habt:

1) Laura Schelenz, Prof. Regina Ammicht Quinn “Black Lives, Trans Rights und Algorithmen”, https://uni-tuebingen.de/de/198256 

2) Steve Lohr, “Facial Recognition Is Accurate, If You’re a White Guy,” The New York Times, June 8, 2018, sec. Technology, https://www.nytimes.com/2018/02/09/technology/facial-recognition-race-artificial-intelligence.html.

 3) Brenda Medina and Thomas Frank, “TSA Agents Say They’re Not Discriminating Against Black Women, But Their Body Scanners Might Be,” ProPublica, April 17, 2019, https://www.propublica.org/article/tsa-not-discriminating-against-blackwomen-but-their-body-scanners-might-be

4) Peter Hanink, “Don’t Trust the Police: Stop Question Frisk, Compstat, and the High Cost of Statistical Over-Reliance in the NYPD,” Journal of the Institute of Justice and International Studies, 13 (2013): 99, https://www.researchgate.net/publication/327189605_Don%27t_trust_the_police_Stop_question_frisk_COMPSTAT_and_the_high_cost_of_statistical_over-reliance_in_the_NYPD.

5) Latanya Sweeney, “Discrimination in Online Ad Delivery,” SSRN Scholarly Paper (Rochester, NY: Social Science Research Network, January 28, 2013), http://papers.ssrn.com/abstract=2208240.

6) James Vincent, “Twitter Taught Microsoft’s Friendly AI Chatbot to Be a Racist Asshole in Less than a Day,” The Verge, March 24, 2016, https://www.theverge.com/2016/3/24/11297050/tay-microsoft-chatbot-racist.

7) Jessie Daniels, Mutale Nkonde, Darakhshan Mir, “ADVANCING RACIAL LITERACY IN TECH” https://datasociety.net/wp-content/uploads/2019/05/Racial_Literacy_Tech_Final_0522.pdf

8) Mutale Nkonde (im Interview mit dem Spiegel) „Künstliche Intelligenz – Wie viel Rassismus steckt in Algorithmen?“, https://www.spiegel.de/netzwelt/netzpolitik/rassistische-algorithmen-ki-forscherin-mutale-nkonde-im-interview-a-1271778.html

9) Paul Gompers and Silpa Kovvali, “The Other Diversity Dividend,” Harvard Business Review, July 1, 2018, https://hbr. org/2018/07/the-other-diversity-dividend.

10) Rocio Lorenzo and Martin Reeves, “How and Where Diversity Drives Financial Performance,” Harvard Business Review, January 30, 2018, https://hbr.org/2018/01/how-and-where-diversity-drives-financial-performance.