Biased Algorithms – Wenn eine Künstliche Intelligenz Vorurteile erlernt

Wie Vorurteile auch die Entscheidungen von künstlichen Intelligenzen beeinflussen können

 Wie intelligent sind Software-Roboter?

Künstliche Intelligenz revolutioniert zahlreiche Geschäftsprozesse und unterstützt mitunter auch bei der Automatisierung von Geschäftsprozessen. Allerdings greifen die intelligenten Algorithmen auf das zur Verfügung gestellte Datenmaterial zurück, um spezifische Muster zu erkennen und passende Modelle abzuleiten. Dementsprechend kann es vorkommen, dass Maschinen menschliche Züge aufweisen und Vorurteile in den Entscheidungsprozess einfließen lassen. Die verwendete Datenbasis beeinflusst damit maßgeblich das Verhalten der KI – wie prominente Beispiele verdeutlichen.

Wie Daten die „Intelligenz“ einer Maschine beeinflussen

Bereits seit einigen Jahren gewinnen KI-basierte Systeme in zahlreichen Branchen an Relevanz. Viele Unternehmen fassen die Automatisierung bestehender Geschäftsprozesse ins Auge oder möchten die Digitalisierung des Kerngeschäfts vorantreiben. Als Schlüsseltechnologie spielt KI hierbei eine besonders wichtige Rolle. Nichtsdestotrotz weist auch Künstliche Intelligenz einige Nachteile auf, die auf den ersten Blick nicht offensichtlich sind. Entscheidend ist die Anlernphase der KI, in der das System mit Daten zur Erkennung von Mustern versorgt wird.

Aber eben diese Anlernphase birgt ein gewisses Risikopotenzial, dessen Auswirkungen einige Unternehmen bereits am eigenen Leib erfahren durften. In der Regel werden für ein KI-System Daten aus der Vergangenheit herangezogen, um Auswahlmuster zu identifizieren. Aus diesen Mustern kann das System ein Modell ableiten und somit Entscheidungen begründen. Beinhalten die verwendeten Datensätze zudem stark eingeschränkte Daten, so kann das System gewisse Vorurteile adaptieren und sich unter Umständen diskriminierend gegenüber ausgewählten Personengruppen verhalten.

Wenn die Blackbox zum Problem wird

Einige Experten sehen den Einsatz von KI-Systemen, die über die Zukunft von Menschen entscheiden, als äußerst problematisch an. So ließe sich bei aktuellen Systemen zwar festlegen, welche Daten für das Training eines Algorithmus genutzt werden. Dabei kann zwar das eingetretene Ergebnis hinsichtlich der persönlichen Erwartungen untersucht und angepasst werden, unklar bleibe jedoch der Entscheidungsprozess des Systems. Dementsprechend lässt sich nicht beantworten, wie das System zu dem Ergebnis gekommen ist.

Folglich setzen sich einige KI-Experten dafür ein, dass KI-Systeme nicht in Bereichen wie dem Bildungs- oder Gesundheitswesen eingesetzt werden, da die dort getroffenen Entscheidungen unmittelbaren Einfluss auf die Bevölkerung haben. Besonders kritisch sind Systeme, die das Blockbox-Problem aufweisen. Bei den meisten digitalen Algorithmen weiß man genau, warum sie auf ein bestimmtes Ergebnis gekommen sind. Die Komplexität der Systeme führt in einigen Fällen aber dazu, dass wir nicht nachvollziehen können, welcher Entscheidungsweg warum genommen wurde. Die vermeintlich bestmögliche Entscheidung geht in diesen Fällen zu Lasten der Nachvollziehbarkeit. In diesen Fällen sind lediglich der Input und der Output bekannt – die Maschine ist dagegen eine Blackbox. Aufgrund der mangelnden Transparenz des Entscheidungswegs fordern Experten, dass kein sogenannter Blackbox-Algorithmus an Entscheidungen beteiligt ist, die in welcher Form auch immer das Wohl und Wehe eines Menschen tangieren.

Biased Algorithms und deren Folgen für die Qualität eines Systems

Grundsätzlich bilden KI-basierte Systeme die Gesellschaft und deren bestehenden Ungerechtigkeiten ab. Zeigen lässt sich dies anhand bestehender Vorurteile, die sich in der Gesellschaft manifestiert haben. Finden diese Vorurteile Eingang in die Daten beim Anlernen eines KI-Systems Anwendung, so berücksichtigt das Deep Learning aufgrund von sogenannten Biased Algorithms automatisch die impliziten Vorurteile bei der Entscheidungsfindung. Die Verzerrung in diesen Algorithmen sind damit das Ergebnis von voreingenommenen Trainingsdaten, die von Menschen erstellt wurden.

Verdeutlichen lässt sich dieser Umstand anhand des Prognosesystems des österreichischen Arbeitsmarktservice (AMS). Dieser verwendete Bestandsdaten des Arbeitsmarktes, um die Chancen von Bewerbern auf dem Arbeitsmarkt zu errechnen. Aufgrund der strukturellen Gegebenheit des Arbeitsmarkts sowie bestehender Vorurteile gegenüber Frauen räumte die KI arbeitssuchenden Frauen geringe Chancen auf dem Arbeitsmarkt ein. Diese Prognose führt zu schlechteren Vermittlungshilfen und bot somit keinerlei Vorteile gegenüber subjektiven Einschätzungen von Sachbearbeitern. Insbesondere die Objektivität, die zu den grundsätzlichen Zügen einer KI gehören soll, ließ sich somit nicht gewährleisten.

Wie ein selbstlernendes System Microsoft vor eine Herausforderung stellte

Auch selbstlernende Systeme stellen eine Herausforderung im Betrieb dar. So musste Microsoft beim Chatbot Tay lernen, dass die Kommentare von Twitter-Nutzern den Algorithmus der KI nachteilig beeinflussen. In einem Versuch stellte Microsoft einen Chatbot mit einer KI ins Netz, um die Kommunikation junger Menschen zwischen 18 und 24 Jahren zu erlernen. Allerdings musste der Software-Konzern nach nur 24 Stunden den Chatbot wieder offline nehmen, da dieser rassistische Ausprägungen entwickelte.

Dabei sollte die KI von Menschen mit Fragen und Texten trainiert werden – ein Ansatz, der in der KI-Forschung durchaus normal ist. Allerdings musste Microsoft schnell einsehen, dass nicht nur seriöse Menschen an einer solchen Anlernphase teilnahmen. Durch das Keyword „repeat after me“ konnten Nutzer der KI neue Sachen beibringen. Machine Learning sorgte dafür, dass die KI eigenständig Antworten geben konnte, welche auf den vorherigen Aussagen der Nutzer basierten. Für Microsoft waren manche der getätigten Tweets schlimm genug, um aktiv einzuschreiten. So tätigte der Chatbot rassistische Aussagen, die beispielsweise den Holocaust bestätigten. Weiterhin zeigten 96.000 weitere Tweets, dass Tay zumeist nur oberflächliche Antworten geben konnte.

Außerdem bestätigte eine Mitarbeiterin des Cortana-Redaktionsteams, dass viele Nutzer die Sprachassistentin mit kontroversen Fragen konfrontieren. Auch Beleidigungen und Beschimpfungen gehören hier zum Alltag. Der Software-Konzern bemühe sich aus diesen Gründen, die Gespräche in eine positive Richtung zu lenken. Bleibt das Bemühen erfolglos, so soll Cortana das Gespräch eigenständig abbrechen.

Amazon verwendete „sexistische“ KI bei Bewerbungen

Auch beim E-Commerce-Giganten Amazon wurden in der Vergangenheit KI-Systeme zu einer echten Herausforderung. Um Bewerbungen automatisiert und objektiv zu bearbeiten, hatte der Konzern im Jahr 2014 ein Projekt gestartet. Dabei sollte ein Algorithmus die Personalabteilung entlasten und passende Bewerber anhand vorheriger Entscheidungen herausfiltern, die dann eingestellt werden sollten. Allerdings stellte der Konzern das Projekt bereits 2018 ein, denn die KI benachteiligte Bewerberinnen, obwohl dieses Verhalten von den Programmierern so nicht vorgegeben worden war. Vielmehr sorgte das Machine Learning selbstständig für eine Veränderung des Algorithmus. Auch eine nachträgliche Anpassung veränderte die Entscheidungsfindung der KI nicht mehr, sodass Amazon das Projekt einstellte.

Als Grund für das ungewollte Verhalten identifizierte Amazon Bewerbungen aus der Vergangenheit. Demnach hat die KI die bisherigen Einstellungen sowie die dazugehörigen Bewerbungen berücksichtigt. Die analysierten Daten nutzte der Algorithmus, um Muster zu entwickeln. Es stellte sich heraus, dass grundsätzlich mehr Männer eingestellt wurden. Dementsprechend hinterlegte die KI das Attribut „männlich“ als positiv.

Weissenberg Intelligence – Ihr kompetenter Partner in allen Fragen der digitalen Transformation Anmeldung

Weissenberg Intelligence – Ihr kompetenter Partner in allen Fragen der digitalen Transformation

Möchten auch Sie die Wettbewerbsfähigkeit Ihres Unternehmens im digitalen Zeitalter stärken? Wir beraten Sie gern zur digitalen Transformation Ihres Unternehmens.

Fazit: Vorurteile sind auch bei KI-Algorithmen eine Herausforderung

Die aufgezeigten Beispiele verdeutlichen, dass der Einsatz künstlicher Intelligenzen für die Unternehmen noch einige Herausforderungen hinsichtlich der notwendigen Objektivität bereithält. Auch wenn bei der Programmierung eines KI-Systems besonderes Augenmerk auf die Objektivität gelegt wird, können die verwendeten Daten und der Input externer Nutzer einen Algorithmus maßgeblich beeinflussen und Vorurteile etablieren.

Um sogenannte Biased Algorithms zu vermeiden, müssen die zum Training des Systems verwendeten Daten sorgfältig auf mögliches Diskriminierungspotenzial hin geprüft werden, da in absehbarer Zeit nicht damit zu rechnen ist, dass negative gesellschaftliche Erscheinungsformen wie Vorurteile und Diskriminierung von heute auf morgen aus unserem Leben verschwinden werden. Das Wissen um diese negativen möglichen Auswirkungen von KI verpflichtet Entwickler von KI-Systemen, deren Auftraggeber und Anwender gleichermaßen die Entscheidungswege von KI-Systemen ständig kritisch zu hinterfragen und vor allem Systeme mit Blackbox-Algorithmen genauestens unter die Lupe zu nehmen, um unerwünschte, negative Entwicklungen frühzeitig zu erkennen und entsprechend intervenieren zu können.

Beitrag weiterempfehlen