der bias effekt im machine learning 182

In den letzten Jahrzehnten hat die künstliche Intelligenz einen Sieg nach dem anderen gefeiert: Selbstfahrende Autos oder das Entsperren von Smartphones durch Gesichtserkennung zum Beispiel waren noch vor wenigen Jahren in Science-Fiction-Filmen undenkbar. Diese mathematischen Techniken kombinieren zwei Kernfacetten:

  1. Selbstvervollkommnung durch Studium: Unzählige gezielte Anstrengungen werden unternommen, um die beste mathematische Gleichung zwischen Eingangsdaten und Modellausgabe zu finden. Die angepasste und gefundene Gleichung wird dann als „Modell“ bezeichnet.
  2. Dunkle Box: Während ein Ingenieur oft mathematische Zusammenhänge auf physikalischen Prinzipien wie dem Theorem der Energieeinsparung aufbaut, haben maschinelle Lerneinheiten nicht unbedingt diesen Anspruch. Hier ist es oft nicht ganz nachvollziehbar, warum ein Modell bestimmte Dinge tut und andere nicht. Es nutzt, was funktioniert.

Bias und die Herausforderung an der Black Box

Es ist genau dieser Black-Box-Aspekt vieler maschineller Lernprozesse, der es so schwierig macht, sicherzustellen, dass sich Modelle wie erwartet verhalten. Erkennt ein autonomes Automobil beispielsweise einen roten Ballon für ein Stoppsignal und löst einen Notstopp aus, verhält es sich offensichtlich nicht wie geplant.

Es kann viele Gründe für ein solches Fehlverhalten des Modells geben. Einige von ihnen fallen unter das englische Wort“Bias“.

  1. Bias – basierend darauf, wie wir die Welt sehen, basierend auf unseren Erfahrungen, kommen wir zu unterschiedlichen Schlussfolgerungen.
  2. Verzerrung – im statistischen Sinne für eine mittlere systematische Abweichung zwischen dem erwarteten („rechten“) Modellergebnis und dem mittleren tatsächlichen Modellergebnis.

Beginnen wir gleich bei der Eingabe. Eine maschinell lernende Version kann nur die Zusammenhänge in den bereitgestellten Informationen finden. Soll beispielsweise ein Produktempfehlungssystem aufgebaut werden, beurteilen wir idealerweise das Kaufverhalten jedes einzelnen potenziellen Kunden. Das ist natürlich nicht möglich – stattdessen müssen wir mit dem Kaufverhalten einer Auswahl von Konsumenten zufrieden sein.

Wenn Sie am falschen“Ort“ messen, produzieren Sie eine sogenannte Samplingbias. Dann sind die für das Modell ausgewählten Informationen nicht repräsentativ für das Szenario, in dem das Modell später verwendet wird. Diese Lücke zwischen den gesammelten Daten und dem wahren Problem kann aus vielen verschiedenen Gründen entstehen. Abbildung 2 veranschaulicht ein Beispiel: Auch wenn die eigentliche Zielgruppe Menschen und Männer umfasst, wurden nur die Daten von Männern erhoben.

Dieser Effekt tritt häufig auf, wenn Kunden beispielsweise Beta-Anwendungen einer Vielzahl von Produkten beantragen können, bei denen neue Produkte in einem kleinen Kreis getestet werden sollen. Wenn Sie Verhaltensinformationen dieser Kunden nutzen wollen, um eine Version zu erhalten, müssen Sie vorsichtig sein: Diese Kunden beschäftigen sich freiwillig (Selbstauswahl). Dies können z.B. Kunden mit einer spezifischen Affinität zur Technik oder auch besonders junge oder alte Kunden sein. Ihr Nutzerverhalten kann sich deutlich vom Nutzerverhalten der allgemeinen Kundschaft unterscheiden. Mit solchen verdrehten Eingangsdaten erfährt das Modell falsche Korrelationen, die das gewünschte Einsatzszenario nicht abdecken können.

Die Kunst der Quantifizierung

Auch wenn man die richtigen Personen ausgewählt hat oder sie an den idealen Ort bringt, ist es alles andere als sicher, dass man auch den entsprechenden Datenwert sammelt. Die meisten von uns kennen Maßungenauigkeiten von physikalischen Messgeräten: sei es ein Temperaturthermometer, ein Tachometer im Auto oder eine Uhr. Der gleiche Effekt kann auftreten, wenn Personen befragt werden. Wir können den Menschen nicht in die Köpfe schauen, sondern verlassen uns auf Ihre ehrliche Antwort. In Drogenstudien kann vielleicht nicht jedes Thema immer die volle Wahrheit über die tatsächliche Ernährung und Medikamenteneinnahme aufzeichnen. Auch hier haben wir einen Messfehler. Dieser Effekt ist auch in Abbildung 2 dargestellt: Eine Person handelt danach anders, als sie es in der Umfrage angekündigt hat.

Eine weitere Art von Messfehler im weiteren Sinne kann bei der Objekterkennung auftreten. Hier muss ein Satz von Bildern in einen maschinellen Lernalgorithmus eingegeben werden, wobei das richtige Objekt („Automobil“,“Motorc „le“,… “ ist bereits für jedes Bild markiert. Das Erkennen und Markieren von Items in den sogenannten Trainingsbildern, aus denen der Algorithmus lernen wird, ist auch heute noch ein manueller Prozess. Wenn es keine einheitlichen Regeln für diesen Prozess gibt, werden verschiedene Personen verschiedene Objekte systematisch unterschiedlich markieren. Dieser Effekt deutet auch darauf hin, dass die Version später systematisch falsche Zusammenhänge in den Daten aufdecken wird.

Expertenvorurteile

Selbst Experten sind nicht immun gegen Verzerrungen. Verschiedene maschinelle Lernmethoden sind für verschiedene Probleme auf unterschiedliche Weise akzeptabel. Im Idealfall würden Sie immer den absolut maßgeschneiderten Algorithmus aus Ihrer Toolbox verwenden. Aber natürlich hat jeder Spezialist seinen Geschmack, seine Erfahrung und seine äußeren Einschränkungen hinsichtlich der verfügbaren Werkzeuge. Nicht nur die Wahl der Algorithmen macht die Lösung eines Problems einfacher oder schwieriger: Geschickte Transformationen dieses Problems führen oft zu völlig neuen Lösungen. Dies erfordert die Erfahrung und Kreativität der Spezialisten, um den Bias-Effekt gering zu halten.

Ein signifikanter Bias-Effekt liegt auch in der direkten Bedeutung des Wortes als“Vorurteil“ vor. Künstliche Intelligenz beeinflusst bereits heute das Leben der meisten Menschen – weniger offensichtlich. Von Bonitätsbeurteilungen über Nachrichtenempfehlungen bis hin zu Angriffsprognosen. Überall können Algorithmen unser eigenes Leben fördern oder uns Hindernisse in den Weg legen.

Andererseits ermöglicht der Einsatz von künstlicher Intelligenz durchaus viele Aktivitäten überhaupt erst oder führt zu einer erheblichen Optimierung von Verfahren und Prozessen. Damit all diese Vorteile der künstlichen Intelligenz langfristig von der Gesellschaft akzeptiert werden, müssen sich Algorithmen „eher“ verhalten. Wenn der Algorithmus nicht ehrlich ist, beurteilt er mit eingebauten Vorurteilen.

Fairness ist ein Satz, der nicht klar definiert werden kann. Ausgehend vom Ziel kann es Konflikte geben, die nicht gelöst werden können. Bedeutet Gerechtigkeit beispielsweise, dass identische Personen gleich behandelt werden sollen – oder bedeutet Fairness, dass unterschiedliche soziale Gruppen im Durchschnitt gleich behandelt werden sollen?

Unabhängig von der endgültigen Antwort auf diese Frage sind sie von grundlegender Bedeutung für den Einsatz der künstlichen Intelligenz. Hier ist ein Beispiel aus einem Roman von Zhao et al…. In den Weiten des Internets gibt es eine große Anzahl von Bildern, die in den umgebenden Text eingebettet sind.

Sehr oft besteht ein Zusammenhang zwischen einem Bild und dem umgebenden Text: Der Text bezieht sich auf das Bild oder das Bild veranschaulicht den Text. 1 Job für künstliche Intelligenz ist nun in der Lage, zu versuchen, Bilder mit allen möglichen Schlüsselwörtern zu klassifizieren. Zum Beispiel für das Bild in Abbildung 4: Ort – Küche, individuelles Handeln – Mensch.

Wenn wir nun die Daten aus dem World Wide Web für unser Modell nutzen, fällt auf, dass nicht jedes zweite Küchenbild eine Person zeigt, sondern fast jedes dritte Küchenbild. So werden Jungs in der Küche seltener dargestellt als Mädchen. Diese Daten wurden nun für die Aufnahme einer Version verwendet. Aber wenn man dann Küchenbilder in das fertige Modell einbringt, erkennt ein Mann es fälschlicherweise nur in einem von sechs Küchenbildern und nicht in einem von drei.

Fazit: Bias enthüllt – KI erfordert Vertrauen und Wissen

Künstliche Intelligenz kann einerseits einen großen Mehrwert bringen, andererseits verhält sie sich aber immer plötzlich. Um diese (bösen) Überraschungen minimieren zu können, ist es wichtig, sich mit der Methodik und den Auswirkungen vertraut zu machen, die zu einer systematischen Verzerrung des Modellverhaltens führen. Eine Reihe dieser Effekte fallen unter das Wort“Vorurteil“.

Dies umfasst einerseits Verzerrungen im statistischen Sinne, aber auch Auswirkungen wie implizite soziale Vorurteile.

Das bedeutet, dass künstliche Intelligenz dazu führen kann, dass bestehende Vorurteile durch den Algorithmus verstärkt werden. Dies führt zu einem selbstverstärkenden Effekt.

Fairness für künstliche Intelligenz ist ein aktuelles Forschungsthema. Es gibt viele Methoden, um diese Folgen zu mildern und zu verhindern, aber auch hier gilt: Gerade wenn diese Auswirkungen bekannt sind, werden sie angesprochen und beseitigt. Um das soziale Vertrauen in die künstliche Intelligenz zu stärken, ist es besonders wichtig, diese Effekte zu verstehen und ihnen aktiv entgegenzuwirken.