Alexandria Ocasio-Cortez sagt, dass Algorithmen rassistisch sein können. Hier ist, warum sie Recht hat.

  • Peter Tucker
  • 0
  • 4164
  • 1055

Letzte Woche machte die neu gewählte US-Repräsentantin Alexandria Ocasio-Cortez Schlagzeilen, als sie im Rahmen der vierten jährlichen MLK Now-Veranstaltung sagte, dass Gesichtserkennungstechnologien und -algorithmen "immer diese rassischen Ungleichheiten aufweisen, die übersetzt werden, weil noch Algorithmen erstellt werden von Menschen, und diese Algorithmen sind immer noch an grundlegende menschliche Annahmen gebunden. Sie sind nur automatisiert. Und automatisierte Annahmen - wenn Sie die Verzerrung nicht beheben, automatisieren Sie nur die Verzerrung. "

Bedeutet das, dass Algorithmen, die theoretisch auf den objektiven Wahrheiten der Mathematik basieren, "rassistisch" sein können? Und wenn ja, was kann getan werden, um diese Verzerrung zu beseitigen? [Die 11 schönsten mathematischen Gleichungen]

Es stellt sich heraus, dass die Ausgabe von Algorithmen tatsächlich zu verzerrten Ergebnissen führen kann. Datenwissenschaftler sagen, dass Computerprogramme, neuronale Netze, Algorithmen für maschinelles Lernen und künstliche Intelligenz (KI) funktionieren, weil sie lernen, sich anhand der ihnen gegebenen Daten zu verhalten. Software wird von Menschen geschrieben, die Vorurteile haben, und Trainingsdaten werden auch von Menschen generiert, die Vorurteile haben.

Die beiden Phasen des maschinellen Lernens zeigen, wie sich diese Tendenz in einen scheinbar automatisierten Prozess einschleichen kann. In der ersten Phase, der Trainingsphase, lernt ein Algorithmus basierend auf einem Datensatz oder bestimmten Regeln oder Einschränkungen. Die zweite Stufe ist die Inferenzstufe, in der ein Algorithmus das Gelernte in der Praxis anwendet. Diese zweite Stufe zeigt die Vorurteile eines Algorithmus. Wenn ein Algorithmus beispielsweise nur mit Bildern von Frauen mit langen Haaren trainiert wird, wird er annehmen, dass jeder mit kurzen Haaren ein Mann ist.

Google geriet 2015 unter Beschuss, als Google Fotos schwarze Menschen als Gorillas bezeichnete, wahrscheinlich weil dies die einzigen dunkelhäutigen Wesen im Trainingsset waren.

Und Voreingenommenheit kann sich durch viele Wege einschleichen. "Ein häufiger Fehler ist das Trainieren eines Algorithmus, um Vorhersagen zu treffen, die auf früheren Entscheidungen voreingenommener Menschen basieren", sagte Sophie Searcy, eine leitende Datenwissenschaftlerin beim Data-Science-Training-Bootcamp Metis. "Wenn ich einen Algorithmus zur Automatisierung von Entscheidungen mache, die zuvor von einer Gruppe von Kreditsachbearbeitern getroffen wurden, kann ich den einfachen Weg gehen und den Algorithmus auf frühere Entscheidungen dieser Kreditsachbearbeiter trainieren. Aber wenn diese Kreditsachbearbeiter dann voreingenommen wären, dann natürlich." Der Algorithmus, den ich baue, wird diese Verzerrungen fortsetzen. "

Searcy führte das Beispiel von COMPAS an, einem Vorhersagewerkzeug, das im gesamten US-amerikanischen Strafjustizsystem für Verurteilungen verwendet wird und das versucht, vorherzusagen, wo Verbrechen auftreten werden. ProPublica führte eine Analyse zu COMPAS durch und stellte fest, dass das Tool nach Kontrolle anderer statistischer Erklärungen das Risiko eines Rückfalls bei schwarzen Angeklagten überschätzte und das Risiko bei weißen Angeklagten immer wieder unterschätzte.

Um algorithmische Verzerrungen zu bekämpfen, sollten Ingenieure und Datenwissenschaftler, so Searcy, vielfältigere Datensätze für neue Probleme erstellen und versuchen, die in vorhandene Datensätze eingebauten Verzerrungen zu verstehen und zu mildern.

In erster Linie, so Ira Cohen, Datenwissenschaftler beim Predictive Analytics-Unternehmen Anodot, sollten Ingenieure über ein Trainingsset mit relativ einheitlicher Darstellung aller Bevölkerungsarten verfügen, wenn sie einen Algorithmus zur Identifizierung ethnischer oder geschlechtsspezifischer Attribute trainieren. "Es ist wichtig, genügend Beispiele aus jeder Bevölkerungsgruppe zu repräsentieren, auch wenn sie eine Minderheit in der untersuchten Gesamtbevölkerung darstellen", sagte Cohen. Schließlich empfiehlt Cohen, einen Testsatz, an dem Personen aus all diesen Gruppen teilnehmen, auf Verzerrungen zu überprüfen. "Wenn für ein bestimmtes Rennen die Genauigkeit statistisch signifikant niedriger ist als für die anderen Kategorien, kann der Algorithmus eine Verzerrung aufweisen, und ich würde die dafür verwendeten Trainingsdaten auswerten", sagte Cohen gegenüber LiveScience. Wenn der Algorithmus beispielsweise 900 von 1.000 weißen Gesichtern korrekt identifizieren kann, aber nur 600 von 1.000 asiatischen Gesichtern korrekt erkennt, kann der Algorithmus eine Tendenz "gegen" Asiaten aufweisen, fügte Cohen hinzu.

Das Entfernen von Verzerrungen kann für die KI eine unglaubliche Herausforderung sein.

Selbst Google, das als Vorläufer der kommerziellen KI gilt, konnte offenbar keine umfassende Lösung für sein Gorilla-Problem aus dem Jahr 2015 finden. Wired stellte fest, dass Google, anstatt einen Weg zu finden, mit seinen Algorithmen zwischen Farbigen und Gorillas zu unterscheiden, einfach blockierte seine Bilderkennungsalgorithmen von der Identifizierung von Gorillas überhaupt.

Das Beispiel von Google ist eine gute Erinnerung daran, dass das Trainieren von KI-Software eine schwierige Übung sein kann, insbesondere wenn Software nicht von einem Vertreter und einer vielfältigen Gruppe von Personen getestet oder trainiert wird.

  • Künstliche Intelligenz: Freundlich oder beängstigend?
  • Superintelligente Maschinen: 7 Roboter-Futures
  • 10 verrückte neue Fähigkeiten, die Roboter 2018 erworben haben

Ursprünglich veröffentlicht am .




Bisher hat noch niemand einen Kommentar zu diesem Artikel abgegeben.

Die interessantesten Artikel über Geheimnisse und Entdeckungen. Viele nützliche Informationen über alles
Artikel über Wissenschaft, Raumfahrt, Technologie, Gesundheit, Umwelt, Kultur und Geschichte. Erklären Sie Tausende von Themen, damit Sie wissen, wie alles funktioniert