Die Gesichtserkennung bei Facebook hält People of Colour für Primaten
Vor allem im Bereich des maschinellen Lernens ist irren ein wichtiger Prozess. Doch die meisten Unternehmen möchten nicht, dass diese Fehler öffentlich werden. Bei Facebook ist es zu einer solchen öffentlichen Panne gekommen. Wer sich im Juni 2020 ein Video über Rassismus gegen schwarze Männer angesehen hatte, wurde von der Facebook-Automatik gefragt, ob er weiterhin “Videos über Primaten” sehen möchte.
Facebook deaktiviert zunächst die Empfehlungsfunktion
Es ist nicht verwunderlich, dass Facebook nach dem Bekanntwerden dieses Problems schnell handeln musste. Die Empfehlungs-Funktion für Videos wurde zunächst einmal deaktiviert, um den Fehler im System zu finden. Wie ein Sprecher von Facebook mitteilte, wurden die Empfehlungen von der KI auf Basis von Gesichtserkennungsdaten ausgewählt. Der Konzern entschuldigte sich für den “inakzeptablen” Fehler. Nun wird intern der gesamte Algorithmus überprüft, damit ein solcher Fehler nicht noch einmal vorkomme. Allerdings werden auch Stimmen aus dem Unternehmen selbst laut, dass Facebook an und für sich zu wenig machen würde, um solche Fehler bereits im Vorfeld zu finden und zu verhindern. Dies macht deutlich, wie komplex und schwierig der Umgang mit der künstlichen Intelligenz und dem maschinellen Lernen noch immer ist.
Diskriminierung durch KI-Systeme ist kein Einzelphänomen
Facebook steht mit diesem Problem allerdings nicht alleine dar. Beinahe alle großen Unternehmen wie Google, Amazon oder auch andere große Technologiefirmen setzen immer häufiger auf das maschinelle Lernen und KI-Systeme in den unterschiedlichsten Formen. Und hier wurden in den letzten Jahren immer wieder neue Skandale produziert, weil die KI häufig diskriminierend arbeiteten und unter anderem auch im Bereich der Gesichtserkennung bei Menschen mit einer hohen Pigmentierung der Haut falsche Zuordnungen produzierten. Unter anderem stufte im Jahr 2015 die Foto App von Google Bilder von People of Colour unter der Kategorie “Gorilla” ein.
Fazit: Wenn Unternehmen auf KI setzen, ist eine engmaschige Kontrolle wichtig
KI-Systeme werden nicht nur von den großen Technologie-Unternehmen eingesetzt, sondern auch von vielen kleinen und mittelständischen Unternehmen. Also Unternehmen, welche oftmals nicht so schnell und so umfassend reagieren können, wie die großen Tech-Riesen. Aus diesem Grund ist eine umfassende Kontrolle und Überwachung der KI-Systeme in jedem Fall notwendig und wichtig. Aus diesem Grund sollten sich Unternehmen unter anderem viel stärker mit den Möglichkeiten, aber auch mit den Grenzen solcher Systeme beschäftigen und diese nicht von Grund auf für fehlerfrei halten.
Quelle: © anttoniart / Adobe Stock