Fairness im Machine Learning


Cornelius Braun


In einem vorherigen Blog-Beitrag haben wir die Fülle menschlicher Vorurteile erläutert, die in realen Datensätzen oft vorhanden sind.

Da Praktiker gezwungen sein können, mit verzerrten Daten zu arbeiten, ist es wichtig zu wissen, wie die Fairness von Modellentscheidungen dennoch gewährleistet werden kann. In diesem Beitrag erkläre ich daher die wichtigsten Ideen rund um Fairness beim maschinellen Lernen (ML). Dazu gehört eine kurze Zusammenfassung der wichtigsten Metriken zur Messung der Fairness Ihrer Modellentscheidungen und ein Überblick über Tools, die Ihnen helfen können, die Fairness Ihres Modells zu garantieren oder zu verbessern.


1. Überblick


Im Jahr 2023 werden ML-Modelle in den meisten Bereichen unseres täglichen Lebens eine Vielzahl von Prozessen hinter den Kulissen ausführen. Wenn Sie dies lesen, ist die Wahrscheinlichkeit groß, dass Sie heute schon mit den Ergebnissen eines ML-Modells in Berührung gekommen sind, z. B. als Sie Ihr Telefon mit Hilfe der Gesichtserkennung entsperrt haben oder als Sie mit einem großen Sprachmodell wie GPT herumgespielt haben.

Auch wenn es sich bei den oben genannten Beispielen nicht um kritische Anwendungen handelt, werden ML-Modelle wahrscheinlich auch in sensiblen Bereichen Ihres Lebens eingesetzt. So werden ML-Modelle heute eingesetzt, um Ärzten bei der Festlegung von Behandlungsstrategien für Patienten zu helfen, um Vorschläge für die Länge von Strafen für Straftäter zu machen oder um Bewerber für eine Stelle auszuwählen. Während mathematische Modelle im Idealfall die Entscheidungen in jedem dieser Beispiele objektiver machen, ist dies in der Praxis leider nicht immer der Fall. Berühmte Beispiele für voreingenommene und unfaire ML-Modelle sind:

  1. Der COMPAS-Algorithmus sagte für afroamerikanische Straftäter höhere Rückfallquoten voraus als für Kaukasier mit ähnlichem Strafregister (Angwin et al., 2016).

  2. Die Bewerbungsplattform Xing stuft männliche Bewerber mit ähnlichen Qualifikationen höher ein als weibliche (Lahoti et al., 2019).

  3. Google Translate übersetzte englische, geschlechtsneutrale Sätze in türkische Phrasen, die starke Geschlechterstereotypen enthielten, wie z. B. "der Arzt", der mit der männlichen Form des Substantivs übersetzt wurde (Caliskan et al., 2017), wie in Abb. 1 dargestellt.

 Gender-biased Google translate image

Abbildung 1: Google Translate macht geschlechtsspezifische Übersetzungen. Entnommen aus Barocas et al. (2017). Hinweis: Das Problem wurde seit der Veröffentlichung von Caliskan et al. (2017) behoben, sodass Sie dieses Verhalten nicht mehr reproduzieren können.

Der Grund für solche problematischen Modellvorhersagen ist in der Regel die Voreingenommenheit von Modellen oder Daten (Mehrabi et al., 2021). Es gibt viele Arten von Verzerrungen und noch mehr Gründe, warum sie bei mathematischen Modellvorhersagen auftreten können. Zu den wichtigsten Verzerrungen im Machine Learning gehören die Verzerrung von Datensätzen oder Verzerrungen aufgrund schlecht gewählter Zielfunktionen, die Vorhersagefehler für eine Gruppe stärker gewichten als für eine andere (Suresh & Guttag, 2021). Wenn Sie mehr über Verzerrungen im Machine Learning wissen wollen, empfehle ich Ihnen einen früheren Artikel in unserem Blog, in dem dieses Thema ausführlicher behandelt wird.

Bis 2023 hat die ML-Gemeinschaft das Problem erkannt, und es besteht ein zunehmendes Interesse an der Forschung darüber, wie faire Modellvorhersagen garantiert werden können. So enthalten die meisten neuen Veröffentlichungen von großen Forschungsunternehmen wie Meta oder Google obligatorische Modellkarten, die Informationen zu fairnessbezogenen Aspekten wie der Verteilung der Trainingsdaten liefern. Um Ihnen ein besseres Verständnis für die Forschung zu diesem wichtigen Thema (und für Tools, die Ihnen bei der Entwicklung helfen) zu vermitteln, gebe ich in diesem Beitrag einen kurzen Überblick über den aktuellen Stand der Technik. Dieser Beitrag ist wie folgt aufgebaut:

  1. Einführung

  2. Was ist Fairness?

  3. Häufige Fallstricke

  4. Methoden zur Verbesserung der Fairness im ML

  5. Bewährte Praktiken

  6. Zusammenfassung


2. Was ist Fairness?


Bevor wir uns damit befassen, wie ML-Modelle gerechter gestaltet werden können, möchte ich versuchen, Ihnen zu erklären, was Fairness bedeutet. Fairness ist ein Begriff, dem man in vielen Bereichen begegnet, von der Philosophie über das Recht bis hin zur Mathematik, und jeder dieser Bereiche hat (mehrere) eigene Definitionen für diesen Begriff entwickelt. Dennoch haben alle diese Definitionen den gleichen Grundgedanken: Ein faires Verfahren soll alle Beteiligten gerecht und gleich behandeln.

Sie fragen sich vielleicht, wie diese einfache Idee auf die Welt der ML mit ihren Black-Box-Modellen und riesigen Datensätzen übertragen werden kann. Und Sie haben Recht, das ist nicht einfach. Es gibt eine Vielzahl von Definitionen/Kriterien für Fairness im ML, die alle ihre Vor- und Nachteile haben. Den meisten Ansätzen ist gemeinsam, dass sie sich auf quantitative Fairnesskriterien konzentrieren (Caton & Haas, 2020). Der Vorteil der Verwendung quantitativer Maße liegt darin, dass sie eine direkte Quantifizierung der Leistung eines Modells in Bezug auf die jeweilige Metrik ermöglichen. Auf diese Weise können verschiedene Maßnahmen objektiver verglichen werden, und die Modellgerechtigkeit kann verbessert werden, indem sie als Teil des Optimierungsproblems behandelt wird. 

Im Folgenden gebe ich Ihnen einen Überblick über die wichtigsten Metriken anhand eines Beispiels.

2.1. Terminologie

Um die folgenden Metrik-Definitionen intuitiver zu verstehen, möchte ich zunächst ein Beispiel geben. Nehmen wir an, Sie führen einen Bewerbungsprozess durch. Da sich so viele Personen bewerben, möchten Sie ein ML-Modell verwenden, das eine Vorauswahl trifft, d. h. Sie möchten ein Modell erstellen, das vorhersagt, ob ein Kandidat bei der Stelle erfolgreich sein wird oder nicht. 

Formal handelt es sich um ein binäres Klassifikationsproblem, bei dem das ML-Modell $$f$$ für jeden Kandidaten $$i$$ ein Label $$Y_i$$ vorhersagen muss, wobei $$Y_i=1$$ bedeutet, dass ein Bewerber wirklich für die Rolle qualifiziert ist, und $$Y_i=0$$ bedeutet, dass er es nicht ist. Lassen Sie $$Y_i \in \{0, 1\}$$ angeben, ob ein Bewerber wirklich für die Rolle qualifiziert ist, wobei $$Y_i=1$$ bedeutet, dass er qualifiziert ist, und $$Y_i=0$$ bedeutet, dass er nicht qualifiziert ist. Um ein faires Auswahlverfahren zu gewährleisten, muss vermieden werden, dass eine Vorhersage $$\hat{Y_i}$$ nur auf der Grundlage der sensiblen Attribute $$A_i \subset X_i$$ des Bewerbers $$i$$ getroffen wird, wobei $$X_i$$ die Menge der mit dem Bewerber $$i$$ verbundenen Attribute oder Merkmale darstellt. Diese sensiblen Attribute können Informationen wie das Geschlecht oder das Alter enthalten. Betrachten wir nun die verfügbaren Daten als $$(X_i=x_i, Y_i=y_i)$$. Wenn wir uns die Vorhersage des Modells $$$hat{y}_i = f(x_i) \in {0, 1}$$ ansehen, können wir die Fairness der Vorhersagen des Modells mithilfe von Fairness-Metriken bewerten. Diese Metriken helfen bei der Bewertung, ob die Vorhersagen des Modells durch die sensiblen Attribute beeinflusst werden oder ob das Modell unabhängig von diesen Attributen faire und unvoreingenommene Vorhersagen macht.

Anhand dieses Beispiels werden wir nun einige der wichtigsten Fairness-Kennzahlen näher betrachten.

2.2. Gruppenbasierte Fairness-Metriken

In der Forschung werden Fairness-Metriken üblicherweise in zwei Hauptkategorien unterteilt: Gruppenbasierte Fairness und individuelle Fairness (Barocas et al., 2017).

Gruppenbasierte Fairness-Kennzahlen sind sehr beliebt, um die Fairness eines Modells zu quantifizieren, da sie relativ einfach zu messen sind und wichtige Erkenntnisse über die Modellfairness liefern (Caton & Haas, 2020). Im Folgenden skizziere ich die wichtigsten gruppenbasierten Metriken für Sie, aber bitte beachten Sie, dass es viele mehr gibt. Insbesondere gibt es eine Vielzahl spezieller Metriken für bestimmte Anwendungsfälle, z.B. eine spezifische Metrik für die Bewertung von Rankingsystemen (Zhu et al., 2020).

Statistische/demografische Parität:

Dieser Begriff definiert Fairness als die Wahrscheinlichkeit, dass eine bestimmte Vorhersage für alle Gruppen gleich ist. Mit anderen Worten, die statistische Parität definiert Fairness als Unabhängigkeit zwischen sensiblen Merkmalen und Vorhersagen. In unserem Beispiel bedeutet dies, dass die Wahrscheinlichkeit, für die Stelle angenommen zu werden, für alle Gruppen gleich ist, d.h. die Gruppe der Männer und die Gruppe der Frauen haben die gleiche Chance, angenommen zu werden. Mathematisch gesehen entspricht dies der demografischen Parität:

$$P\left[\hat{Y}_i=y \mid A_i=a \right] = P\left[\hat{Y}_j=y \mid A_j=b\right], \tag*{$\forall y \in \{0,1\}. \forall a, b. \forall i\neq j$}$$

Da Wahrscheinlichkeitsverteilungen über den diskreten Bereich der Datenpunkte relativ leicht zu messen sind, ist die statistische Parität eine einfache Methode zur Bewertung der Fairness eines ML-Modells. Gleichzeitig wurde die Metrik kritisiert, weil sie potenziell unfair gegenüber Einzelpersonen ist, denn Fairness auf Gruppenebene garantiert nicht die faire Behandlung aller Einzelpersonen (Dwork et al., 2012). Wenn sich beispielsweise nur ein einziger qualifizierter Bewerber aus einer bestimmten Gruppe bewirbt, ist die Basisrate in dieser Gruppe sehr niedrig, und die Anpassung des Modells an die statistische Parität kann zu vielen falsch negativen Ergebnissen in anderen Gruppen mit hohen Basisraten qualifizierter Bewerber führen. Tatsächlich schließen sich bei unterschiedlichen Basisraten statistische Parität und optimale Klassifizierung gegenseitig aus (Garg et al., 2020).

Chancengleichheit (Hardt et al., 2016):

Die Chancengleichheit vergleicht die wahr-positiven Raten (TPR) für die verschiedenen Gruppen in Ihren Daten. Im Kontext der Fairness-Evaluation misst die TPR den Anteil der positiven Ergebnisse, die von einem ML-Modell für eine bestimmte Gruppe oder Kategorie korrekt identifiziert werden:

$$TPR = \frac{\textit{number of true positives}}{\textit{number of true positives + number of false negatives}}$$

Mit anderen Worten, die TPR zeigt, wie gut das Modell in der Lage ist, die Mitglieder dieser Gruppe, die tatsächlich zum positiven Ergebnis gehören (z. B. qualifizierte Bewerber), korrekt zu identifizieren. Fairness im Sinne der Chancengleichheitsmetrik ist definiert als die TPR, die für alle Gruppen gleich ist, was wie folgt ausgedrückt werden kann:

$$P\left[\hat{Y}_i=y \mid A_i=a, Y_i=y \right] = P\left[\hat{Y}_j=y \mid A_j=b, Y_j=y\right], \tag*{$\forall y \in \{0, 1\}. \forall a, b. \forall i \neq j.$}$$

Hier haben die sensitiven Attribute $$A$$ keinen Einfluss auf die Modellvorhersagen $$\hat{Y}$$. Obwohl diese Metrik einige wertvolle Erkenntnisse liefern kann, ist sie in der Vergangenheit kritisiert worden: Da die TPR von den Ground-Truth-Daten abhängt, die möglicherweise selbst nicht ausreichend unverzerrt sind, kann die Chancengleichheitsmetrik unfaire Entscheidungen nicht erkennen (Barocas et al., 2017). Durch die ausschließliche Fokussierung auf die TPR kann diese Metrik außerdem nicht die Art aller unfairen Entscheidungen erfassen, z. B. wenn mehr unqualifizierte Bewerber aus einer Gruppe als aus der anderen Gruppe angenommen werden (dies würde sich in der Falsch-Positiv-Rate; FPR widerspiegeln, die analog zur TPR definiert ist).

Equalized Odds (Hardt et al., 2016):

Diese Metrik entschärft einige der Probleme der Chancengleichheit, indem sie die zusätzliche Bedingung der gleichen FPR für alle Gruppen auferlegt. Mit anderen Worten: Chancengleichheit ist dann und nur dann gegeben, wenn die Modellvorhersage $$\hat{Y}$$ und die sensitiven Attribute $$A$$ unabhängig von der wahren Kennzeichnung $$Y$$ sind, eine Eigenschaft, die Separation genannt wird (Barocas et al., 2017). In unserem binären Beispiel ist der binäre Fall wenn:

$$\begin{aligned}&P\left[\hat{Y}_i=y \mid A_i = a, Y=y\right] = P\left[\hat{Y}_j=y \mid A_j = b, Y_j=y\right],\\ &P\left[\hat{Y}_i \neq y \mid A_i = a, Y=y\right] = P\left[\hat{Y}_j \neq y \mid A_j = b, Y_j=y\right]\end{aligned} \tag*{$\forall y \in \{0, 1\}. \forall a, b. \forall i \neq j.$}$$

Diese Metrik behebt den oben erwähnten Mangel des Kriteriums der Chancengleichheit, indem sie nicht nur die TPR, sondern auch die FPR des Modells betrachtet. Dennoch bleibt das Problem bestehen, dass dieser Fairness-Wert nur so gut ist wie die verfügbaren Testdaten, die der Wahrheit entsprechen. Wenn diese Daten selbst verzerrt sind, dann sagen vollständig ausgeglichene Quoten möglicherweise nicht alles aus (Barocas et al., 2017). Trotz dieser Problematik hat sich die Equal-Odds-Metrik in dem berühmten Beispiel des COMPAS-Algorithmus bewährt, der zur Vorhersage der Rückfallquote von Straftätern verwendet wurde. Während der Algorithmus für Weiße und Afroamerikaner die gleiche TPR vorhersagte, war die FPR für Afroamerikaner fast doppelt so hoch, was zu mehreren ungerechten Verurteilungen führte. Während der Maßstab der Chancengleichheit diese ungerechte Behandlung nicht erfassen kann, ist dies bei der Chancengleichheit der Fall.

Prädiktive Ratenparität (Chouldechova, 2017):

Die Parität der Vorhersagerate ist erreicht, wenn die Wahrscheinlichkeit eines positiven Ergebnisses bei einer positiven Vorhersage (wenn Sie Statistiker sind, werden Sie dies unter dem Namen positiver Vorhersagewert kennen) in allen Gruppen gleich ist. Dieses Kriterium ist gleichbedeutend mit der Forderung nach Unabhängigkeit zwischen $$Y$$ und $$A$$, bedingt durch $$\hat{Y}$$, was auch als Suffizienz oder Kalibrierung bezeichnet wird (Barocas et al., 2017). Intuitiv gesprochen bedeutet dies, dass der Anteil der positiven Vorhersagen im Verhältnis zum Anteil der positiven Beispiele in allen Gruppen gleich sein sollte (Dawid, 1982; Caton & Haas, 2020). Mathematisch gesehen kann dieses Kriterium formuliert werden als:

$$\begin{aligned}&P\left[Y_i=y \mid A_i = a, \hat{Y}=y\right] = P\left[Y_j=y \mid A_j = b, \hat{Y}_j=y\right],\\ &P\left[Y_i \neq y \mid A_i = a, \hat{Y}=y\right] = P\left[Y_j \neq y \mid A_j = b, \hat{Y}_j=y\right]\end{aligned} \tag*{$\forall y \in \{0, 1\}. \forall a, b. \forall i \neq j.$}$$

In unserem Beispiel impliziert die Vorhersageratenparität, dass die Wahrscheinlichkeit, dass ein Bewerber mit einer guten Vorhersagerate kompetent ist, für privilegierte und unprivilegierte Personen gleich groß sein sollte. Abbildung 2 veranschaulicht, was passiert, wenn dieses Kriterium verletzt wird: Wenn wir Bewerber mit einem Klassifikatorwert $$\geq 0,6$$ einstellen würden, würden wir alle Bewerber mit nicht privilegiertem Hintergrund ablehnen, trotz ihrer hohen Qualifikation für die Stelle. Dieses Beispiel veranschaulicht, warum die Prädiktionsratenparität ein wichtiges Fairnesskriterium ist. Ein weiterer Vorteil der Verwendung dieser Metrik ist, dass sie mit einem optimalen Klassifikator kompatibel ist, d. h. wenn $$y=\hat{y}$$, folgt die prädiktive Parität direkt (Barocas et al., 2017).

 Example of a classifier score that violates predictive rate parity.

Abbildung 2: Der Prädiktor für die berufliche Qualifikation in diesem Dummy-Beispiel verstößt gegen das Fairnesskriterium der Prädiktionsratenparität. Angepasst aus Pessach & Shmueli (2022).

2.3. Individuelle Fairness

Im Gegensatz zu den Begriffen, die die Gleichbehandlung verschiedener Gruppen betonen, versuchen individuelle Fairness-Metriken, die ungerechte Behandlung einzelner Personen widerzuspiegeln. Ausgehend von einer zuverlässigen Distanzmetrik, die die Ähnlichkeit zwischen zwei Personen quantifiziert (Dwork et al.), wird individuelle Fairness in der Regel wie folgt definiert:

$$\lvert P\left[\hat{Y}_i=y \mid X_i\backslash A_i \right] - P\left[\hat{Y}_j=y \mid X_j\backslash A_j \right] \rvert < \epsilon, \tag*{$\forall y. \forall i \neq j. \quad d(X_i, X_j)\leq \epsilon$}$$

wobei $$d(X_i, X_j)$$ eine geeignete Distanzmetrik ist, die die Ähnlichkeit zwischen den Kandidaten $$i$$ und $$j$$ auf der Basis ihrer nicht-sensitiven Attribute quantifiziert. Der Grundgedanke ist, dass Individuen, die ähnliche nicht-sensitive Attribute oder Merkmale aufweisen, ähnliche Vorhersagen vom Modell erhalten sollten. Dieses Konzept ist in Abbildung 3 dargestellt. Die Auswahl ähnlicher Datenpunkte zur Bewertung dieser Metrik kann schwierig sein, vor allem, wenn es viele Daten gibt. Daher konzentrieren sich die meisten Forschungsarbeiten in dieser Richtung darauf, wie man ähnliche Individuen identifizieren kann. Während es schwierig sein kann, eine geeignete Distanzmetrik zu definieren (Pessach & Shmueli), kann der Begriff der individuellen Fairness Fairness zwischen allen Individuen und nicht nur zwischen Gruppen garantieren. Da die Fairness-Metrik alle Eigenschaften eines Individuums und nicht nur die Gruppenzugehörigkeit berücksichtigt, kann sie von großem Wert sein (Dwork et al.).

 Individual fairness

Abbildung 3: Intuition der individuellen Fairness: Alle ähnlichen Individuen sollten ähnlich behandelt werden, d.h. ähnliche Eingaben sollten zu ähnlichen Vorhersagen führen. Die Idee ist, dass Ähnlichkeit entlang aller Attribute definiert wird, mit Ausnahme der sensiblen Attribute.

2.4. Warum Metriken nicht alles über Fairness aussagen

Um Aussagen über die Fairness eines bestimmten Modells oder Algorithmus zu treffen, sind Fairness-Metriken unerlässlich. Diese Metriken sagen jedoch nicht immer alles über die wahre Fairness aus. Oben habe ich bereits einige Unzulänglichkeiten einiger der oben genannten Metriken genannt, aber es gibt noch grundlegendere Probleme.

Erstens schließen sich einige dieser Begriffe von Fairness gegenseitig aus (Pessach & Shmueli, 2022). Dieses Ergebnis wurde als Unmöglichkeitstheorem bezeichnet. So kann beispielsweise gezeigt werden, dass equalized odds und demographische Parität nicht in jedem Szenario gleichzeitig erfüllt sein können (Barocas et al., 2017). Diese gegenseitige Ausschließlichkeit kann zu eklatanter Unfairness führen. Betrachten wir zum Beispiel ein Bewerbungsszenario, in dem es viel mehr qualifizierte Bewerber aus einer Gruppe gibt als aus der anderen. Wenn wir einen Klassifikator haben, der alle Bewerber perfekt klassifizieren kann, und alle qualifizierten Bewerber eingestellt werden, sind die FPR- und TPR-Raten in allen Gruppen gleich (TPR=1, FPR=0), so dass die Gleichheit der Chancen erfüllt ist. Das Kriterium der demografischen Parität wird jedoch verletzt, da der Bewerbungserfolg und die Gruppenzugehörigkeit stark korreliert sind. Ist unser Klassifikator in diesem Szenario also fair? Dies hängt von Ihren Werten ab und kann daher nicht allgemein beantwortet werden.

 Fairness metric tradeoffs

Abbildung 4: Die Abwägungen zwischen den verschiedenen Fairnesskriterien. Angepasst aus Pessach & Shmueli (2022).

Abb. 4 gibt einen Überblick über die Abwägungen, die im Rahmen der binären Klassifikation getroffen werden müssen. Das Unmöglichkeitstheorem ist in der Praxis sehr wichtig, weil es Sie zwingt, gründlich darüber nachzudenken, welche Metrik(en) Sie verwenden wollen. Es bedeutet insbesondere, dass die Erfüllung einer bestimmten Vorstellung von Fairness keine völlig fairen Entscheidungen garantiert und dass die Verletzung einer bestimmten Fairness-Metrik nicht unbedingt vermieden werden sollte.

Ich hoffe, es ist inzwischen klar, dass alle Fairness-Kennzahlen Vor- und Nachteile haben und dass Sie nicht alle auswählen können, um das Beste aus den Fairness-Tests herauszuholen. Welche Messgrößen Sie für Fairness-Tests verwenden sollten, hängt von der jeweiligen Aufgabe ab. Sie müssen bedenken, dass Ihre Messgrößen wahrscheinlich nicht alle Aspekte der Fairness gleichermaßen gut abbilden. Um eine praktische Vorstellung von den verschiedenen Stärken und Schwächen dieser Begriffe zu bekommen, empfehle ich diese interaktive Demonstration.


3. Häufige Fallstricke bei der Modellentwicklung


Da Sie nun wissen, wie die Fairness eines ML-Modells bewertet werden kann, könnten Sie sich in einem Szenario befinden, in dem Sie feststellen, dass die Fairness Ihres Modells verbessert werden sollte. Aber wie kann man das tun? Zuvor werde ich einige Dinge aufzählen, die Sie bei der Entwicklung unbedingt vermeiden sollten.

3.1. Fairness durch Unkenntnis

Das erste, was den meisten Menschen in den Sinn kommt, ist der Versuch, sensible Attribute zu entfernen, um sicherzustellen, dass die Modelle sie nicht für diskriminierende Entscheidungen nutzen können. Diese Praxis des Ignorierens sensibler Attribute wird oft als Fairness durch Unkenntnis bezeichnet, und sie könnte einfach eine schreckliche Idee sein. Erstens ist es unwahrscheinlich, dass die Unkenntnis durch das Entfernen sensibler Attribute das Ergebnis gerechter macht, da es viele andere Attribute geben kann, die nicht explizit sensibel sind, aber als Stellvertreter für sensible Attribute fungieren können, was bedeutet, dass sie hoch mit letzteren korreliert sind. Daher reicht es möglicherweise nicht aus, nur die explizit identifizierten sensiblen Attribute zu entfernen, um Fairness zu erreichen. Darüber hinaus kann es sein, dass Ihr Modell sogar noch wahrscheinlicher wird, unfaire Entscheidungen zu treffen, ohne dass Sie es bemerken, weil Informationen über die Gruppenzugehörigkeit verloren gehen, wenn sensible Attribute entfernt werden (Kleinberg et al., 2018).

So erging es Amazon in dem berühmten Beispiel der Auswahl von Regionen für die Erprobung seines Lieferdienstes am selben Tag: Auf der Grundlage von Vorhersagen über das Verbraucherverhalten bot Amazon diesen Service schließlich vor allem in Gegenden an, die mehrheitlich von Weißen bewohnt werden (siehe Abb. 5). Als Bloomberg das Unternehmen darauf hinwies, gab es große öffentliche Empörung, und Amazon änderte rasch seine Einführungsstrategie. Dieser Fehler hätte vermieden werden können, wenn die Modellentwickler diese Informationen genutzt hätten, um unfaire Entscheidungen zu vermeiden. Es sollte also immer vermieden werden, sensible Attribute einfach zu ignorieren, um Modellentscheidungen gerechter zu machen.

 Same-day delivery bias

Abbildung 5: Die Einführung der taggleichen Lieferung durch Amazon schloss viele Gebiete, in denen hauptsächlich Schwarze leben, vom Zugang zu diesem Service aus, wie dieses Beispiel aus Atlanta zeigt. Quelle: Bloomberg.

3.2. Fokus auf nur Fairness

Ein Vorbehalt bei Ansätzen zur Verbesserung der Fairness ist, dass typischerweise die Modellleistung mit zunehmender Modellfairness abnimmt (Zafar et al., 2017; Kamiran & Calders, 2012). Dieser Fall wird durch den Extremfall eines Modells veranschaulicht, das für jede Eingabe die gleiche Vorhersage ausgibt. Natürlich ist dieses Modell fair, aber die Modellgenauigkeit liegt auf der Ebene des Ratens. Für eine theoretische Untersuchung dieses Kompromisses verweise ich Sie auf die Analyse von Kamiran & Calders (2012) und die Arbeit von Liu & Vicente (2022).

Dieser Genauigkeits-/Fairness-Kompromiss impliziert, dass die Konzentration auf Fairness allein nicht in allen Anwendungsfällen die beste Idee sein kann. Bei der Vorhersage der Rückfälligkeit von Straftätern beispielsweise besteht ein Kompromiss zwischen Genauigkeit, d. h. der Sicherheit der Gesellschaft, und Fairness für alle Beteiligten (Corbett-Davies et al., 2017). In diesem Fall könnte es sinnvoll sein, die Modellgenauigkeit so hoch wie möglich zu halten. In anderen Szenarien ist dies möglicherweise nicht der Fall.

 Fairness accuracy tradeoff.

Abbildung 6: Kompromiss zwischen Fairness und Genauigkeit. Die Entschärfung der Grundwahrheit mildert den Kompromiss und macht Fairness und Genauigkeit vereinbar. Quelle: Wick et al. (2019).

Bevor Sie entmutigt sind, sollten Sie beachten, dass dies kein Theorem im mathematischen Sinne ist, da sich Genauigkeit und Fairness nicht immer gegenseitig ausschließen (daher schrieb ich typischerweise im obigen Absatz). Tatsächlich haben Corbett-Davies et al. (2017) festgestellt, dass durch die Sammlung von mehr Daten die Genauigkeit des Klassifikators verbessert werden kann, ohne die Fairness zu verringern. Wick et al. (2019) zeigten darüber hinaus, dass eine Entschärfung der Grundwahrheitsdaten Genauigkeit und Fairness miteinander in Einklang bringen kann (siehe Abb. 6). Dennoch sollten Sie sich generell bewusst sein, dass Sie auf Situationen stoßen können, in denen Sie einen Kompromiss zwischen Genauigkeit und Fairness eingehen müssen.


4. Methoden zur Fairnessverbesserung im ML


Da Sie nun wissen, wie die Fairness eines ML-Modells bewertet werden kann, bleibt die Hauptfrage, wie Sie diese Metriken nutzen können, um die Fairness Ihres Algorithmus zu verbessern. Dies ist nach wie vor ein aktuelles Forschungsthema, weshalb es viele Ansätze gibt (Barocas et al., 2017), die sich wie folgt gruppieren lassen:

- Vorverarbeitungsmethoden: Transformieren Sie Ihre Daten so, dass faire Vorhersagen in jeder nachgelagerten Aufgabe möglich sind.

- In-Processing-Methoden: Trainieren Sie ein Modell, das selbst nach Ihren Maßstäben fair ist.

- Nachbearbeitungsmethoden: Transformieren Sie die Modellergebnisse so, dass die Vorhersagen gemäß Ihrer Metrik(en) fair sind.

4.1. Vorverarbeitungsmethoden:

Vorverarbeitungsmethoden versuchen im Allgemeinen, das Problem der Verzerrungen im Datensatz zu lösen (Caton & Haas, 2020). Das Ziel von Vorverarbeitungsmethoden ist es, die Verteilungen der Trainingsdaten durch Transformationen so anzupassen, dass die Trainingsdaten nicht mehr verzerrt sind (Pessach & Shmueli, 2022). Ein Vorteil von Vorverarbeitungsmethoden ist, dass sie nur die Daten transformieren und somit volle Freiheit bei der nachgelagerten Aufgabe bieten (Caton & Haas, 2020). Dies kann zum Beispiel in Szenarien von Vorteil sein, in denen ein bestimmter Typ von Prädiktoren verwendet werden soll.

Fair Representation Learning (FRL)

Eine sehr verbreitete Vorverarbeitungsmethode ist das fair representation learning (FRL). Die Idee ist, eine Einbettung $$Z$$ der Eingabedaten $$X$$ zu lernen, so dass alle Korrelationen zwischen sensitiven Merkmalen und Ausgaben entfernt werden, wie in Abb. 7 dargestellt. Eine der ersten FRL-Methoden wurde von Zemel et al. (2013) vorgestellt, die faire Darstellungen durch die Lösung eines Optimierungsproblems zur Maximierung der beibehaltenen Informationen (mit Ausnahme sensibler Attribute) bei gleichzeitiger Minimierung der Differenz zwischen den Kodierungen sensibler Informationen erhielten. Die resultierende Einbettung ist für alle Individuen, die sich nur in sensiblen Merkmalen unterscheiden, so ähnlich wie möglich. Algorithmen, die dieser Idee folgen, sind auch in Fairness-Softwarepaketen implementiert, falls Sie sie in Ihrem Projekt verwenden möchten. Lahoti et al. (2019) haben einen weiteren Ansatz zum Lernen fairer Repräsentationen vorgestellt. Mit dem Schwerpunkt auf individueller Fairness besteht die Idee ihrer Methode darin, eine Clusterung der Daten so zu optimieren, dass alle Mitglieder eines bestimmten Clusters einander ähnlich sind, unabhängig von ihren empfindlichen Attributen. Folglich sind die Clusterschwerpunkte faire Repräsentationen, die als Input für Klassifikatoren verwendet werden können. Ein weiteres berühmtes Beispiel für FRL ist der fair variational autoencoder (VAE), der Prioritäten verwendet, die eine Trennung zwischen den sensitiven Attributen und der latenten Kodierung erzwingen. Für weitere Arbeiten, die faire Darstellungen verwenden, um Fairness-Probleme zu mildern, empfehle ich Ihnen die Abschnitte zu verwandten Arbeiten in den oben genannten Papieren sowie die Umfragen von Caton & Haas (2020) und Pessach & Shmueli (2022).

 Representation learning for fairness

Abbildung 7: Das Konzept des Repräsentationslernens für Fairness. Adaptiert aus Cisse & Koyejo (2019).

Resampling

Eine einfache Möglichkeit, Verzerrungen im Datensatz zu reduzieren, ist das Resampling (Pessach &; Shmueli, 2022). Die Idee hinter dem (Re-)Sampling ist es, aus der Grundgesamtheit Stichproben zu ziehen, die in Bezug auf alle sensiblen Attribute fair sind und gleichzeitig einen repräsentativen Bereich von Attributwerten abbilden (Caton &; Haas, 2020). Ein klassisches, von der Lerntheorie inspiriertes Resampling-Verfahren wurde von Kamiran & Calders (2012) entwickelt, der beobachtete, dass Datenpunkte nahe der Entscheidungsgrenze am ehesten einer unfairen Klassifizierung unterliegen. Um dieses Problem zu mildern, schlugen die Autoren vor, einen vorläufigen Klassifikator zu verwenden, um eine angemessene Entscheidungsgrenze zu bestimmen, und dann mithilfe von Bootstrapping eine Stichprobe von Datenpunkten in der Nähe dieser Grenze zu ziehen. In jüngerer Zeit haben Chakraborty et al. (2021) den Fair-SMOTE-Algorithmus vorgestellt, der synthetisch neue Stichproben erzeugt, so dass alle empfindlichen Untergruppen gleichmäßig vertreten sind, und anschließend alle voreingenommenen Stichproben aus diesem Datensatz mit Hilfe einer Technik namens Situationstest löscht. Eng verwandt mit stichprobenbasierten Fairnessmethoden sind die Begriffe geometrische Diversität und kombinatorische Diversität, die zur Messung der Diversität eines bestimmten Datensatzes verwendet werden können. Es hat sich gezeigt, dass die Maximierung dieser Größen, beispielsweise durch determinantal point process-based sampling (DPPs), die Fairness der resultierenden ML-Modellentscheidungen erhöhen kann (Celis et al., 2016). Natürlich wird es nicht in allen praktischen Szenarien möglich sein, neue Daten zu beproben oder zu simulieren, aber wenn dies möglich ist, ist Resampling eine sehr wirksame Methode zur Verbesserung der Fairness (z. B. An et al., 2021; Romano et al., 2020).

Reweighing

Reweighing-Methoden vermeiden die Entnahme neuer Daten, indem sie den vorhandenen Stichproben Gewichte zuweisen, so dass der resultierende Datensatz weniger verzerrt ist. Mit diesem Ziel vor Augen schlug beispielsweise Kamiran & Calders (2012) vor, jeden Datenpunkt mit dem folgenden Gewicht zu gewichten:

$$w_i(a_i, y_i) = \frac{P_{expected}[a_i, y_i]}{P_{observed}[a_i, y_i]} = \frac{P[x_i \mid a_i]P[x_i \mid y_i]}{P[x_i \mid a_i, y_i]}$$

Mit anderen Worten: Jeder Instanz wird ein Gewicht zugewiesen, das den Unterschied zwischen der erwarteten und der beobachteten Wahrscheinlichkeit, ein bestimmtes Ergebnis zu erhalten, ausgleicht. Auf diese Weise kompensieren die Gewichte die unterschiedlichen Basisraten in der Population, und $$y$$ und $$a$$ werden unabhängig. Um die Konditionale in der obigen Gleichung zu schätzen, reicht es aus, die Häufigkeit von Attribut-Label-Kombinationen im Datensatz zu zählen, wenn die Klassifikation durchgeführt wird. Ein Vorteil der Verwendung von Reweighing-Methoden besteht darin, dass potenziell schwierige Stichproben vermieden werden, während eine faire Behandlung garantiert werden kann (Caton & Haas, 2020).

Andere Methoden

Andere bemerkenswerte Vorverarbeitungen sind Relabelling-Ansätze, die versuchen, den Wert der abhängigen Variable anzupassen (Caton & Haas, 2020), und kausale Methoden, die kausale Modelle verwenden, um zu garantieren, dass Fairness-Bedingungen erfüllt werden, z. B, indem sie ein Verständnis dafür liefern, welche Attribute wirklich unfaire Vorhersagen verursachen und entfernt werden sollten (Kusner et al., 2017; Chiappa & Isaac, 2019). Für ausführlichere Informationen empfehle ich Ihnen die ausgezeichnete Übersicht von Caton & Haas (2020).

4.2. In-Processing-Methoden

In-Processing-Methoden zielen darauf ab, das eigentliche ML-Modell so zu verändern, dass die resultierenden Vorhersagen niemanden diskriminieren. Ein Vorteil von In-Processing-Methoden ist, dass sie die volle Kontrolle über den Kompromiss zwischen Genauigkeit und Fairness bieten und daher in der Regel sowohl bei der Genauigkeit als auch bei der Fairness gut abschneiden (Caton & Haas, 2020).

Verbesserung der Modellverallgemeinerung

Ein eleganter Ansatz zur Bekämpfung verzerrter Modellvorhersagen besteht darin, die Generalisierungs- und Robustheitsfähigkeiten des Modells zu verbessern. Dieser Ansatz basiert auf der Arbeit von Lan & Huan (2017), der feststellte, dass eine der Hauptursachen für unfaire Modellvorhersagen Verteilungsverschiebungen sind. Daraus folgt, dass die Entwicklung von Methoden, die gegenüber Verteilungsverschiebungen robust sind, nicht nur in Bezug auf die Genauigkeit, sondern auch in Bezug auf die Fairness besser abschneiden. Mögliche Lösungen für dieses Problem umfassen allgemeine Techniken zur Erhöhung der Modellrobustheit, beispielsweise durch die Verwendung spezifischer Datenerweiterungen (Qin et al., 2022; Zhong et al., 2020; Rebuffi et al., 2021). Andere Arbeiten befassen sich explizit mit dem Fairness-Transfer über Verteilungen hinweg, indem sie adversariales Lernen verwenden, um die Fairness-Eigenschaften von Modellen über Datenverteilungen hinweg zu übertragen (Madras et al., 2018; Schumann et al., 2019). Ich denke, dass der auf Verallgemeinerung basierende Ansatz im Allgemeinen sehr elegant ist, weil man gleichzeitig die Modellleistung und die Fairness optimiert.

Faire Optimierung

Faire Optimierungsmethoden sind Methoden, die die Fairness des Modells verbessern, indem sie in das Optimierungsproblem integriert werden, das in der Regel zum Trainieren von Modellen gelöst wird. Die einfachste Art, dies zu tun, ist das Hinzufügen eines oder mehrerer Regularisierungsterme zum Optimierungsziel, um faire Ergebnisse zu erzwingen (Berk et al., 2017; Beutel et al., 2019; Kamishima et al., 2011). Dieser Ansatz hat den Vorteil, dass die Modellarchitektur und das Optimierungsverfahren unverändert bleiben können. Darüber hinaus erlaubt er es, die Fairness über einen Parameter $$\lambda$$ zu "tunen" (ähnlich der Regularisierung bei der Ridge-Regression). Die Idee dieser auf Regularisierung basierenden Ansätze wird durch den folgenden Ausdruck veranschaulicht, wobei $$Fairness(\cdot, \cdot) \mapsto (0,1))$$ eine Funktion ist, die die Fairness einer gegebenen Vorhersage $$f$$ bei gegebenen Modellgewichten $$w$$ misst:

$$\min_{w}\quad Loss(y_i, f(x_i, w)) + \lambda \left[1-Fairness\left(y_i, f\left(x_i, w\right)\right)\right]$$

Da Fairness bei dieser Zielsetzung im Wesentlichen als Modellregularisierer fungiert, wird die Modellgenauigkeit bei Verwendung solcher Ansätze wahrscheinlich verringert (Zemel et al., 2013). Alternativ kann Fairness durch Hinzufügen von Fairness-Beschränkungen zum Optimierungsproblem erzwungen werden (Perrone et al., 2021; Donini et al., 2018; Komiyama et al., 2018). Beschränkungsmethoden haben den großen Vorteil, dass sie eine gute Lösung garantieren. Allerdings sind eingeschränkte Optimierungsprobleme in der Regel schwieriger zu lösen, sodass das Optimierungsverfahren angepasst werden muss.

Erklärbare AI

Obwohl sie die Fairness nicht direkt optimieren, können erklärbare ML-Methoden die Fairness von ML-Modellen indirekt erheblich verbessern (Zhou et al., 2022). Indem sie ein Verständnis dafür bieten, welche Attribute bei der Vorhersage verwendet werden, können unfaire Vorhersagen schneller erkannt und möglicherweise besser korrigiert werden. Im Idealfall können Erklärungsmethoden für ML aufzeigen, wo Ihr Modell unfair ist, so dass Sie es während der Entwicklung anpassen können. Daher kann es sich lohnen, über den Einsatz von Methoden nachzudenken, die in Kombination mit Erklärbarkeitstools wie Shap oder Lime verwendet werden können. Beispielsweise kann das Was-wäre-wenn-Tool von Google dabei helfen, die Modellvorhersagen pro Gruppe zu visualisieren, was wiederum genutzt werden kann, um ein Verständnis der Vorhersagegerechtigkeit zu erhalten. Dies ist in Abbildung 8 dargestellt.

 Google's what if tool.

Abbildung 8: Das Was-wäre-wenn-Tool von Google kann unterschiedliche Vorhersageraten zwischen den Gruppen aufdecken. Entnommen aus Wexler et al. (2020).

Adversariales Lernen

Streng genommen handelt es sich dabei eher um eine Familie von Lernalgorithmen als um eine Klasse von Fairness-induzierenden Methoden. In den letzten fünf Jahren hat das adversariales Lernen zur Verbesserung der Modellfairness an Popularität gewonnen. Beutel et al. (2017) trainierten zwei adversarische Netzwerke, um die Fähigkeit des Prädiktors zur genauen Vorhersage der Ausgangsklassen zu maximieren und gleichzeitig Datenrepräsentationen zu lernen, die die Fähigkeit des Diskriminators zur Vorhersage des sensitiven Merkmals minimieren. Celis & Keswani (2019) lösten ein ähnliches Min-Max-Optimierungsproblem, aber anstatt die Datendarstellung im Aktualisierungsschritt zu optimieren, aktualisieren sie den Klassifikator direkt. Für andere Arbeiten, die adversariales Lernen verwenden, empfehle ich Ihnen die Übersicht von Pessach & Shmueli (2022).

Andere Methoden

Die oben genannten Methoden sind recht allgemein gehalten und erlegen Ihrer Modellarchitektur nicht unbedingt Beschränkungen auf. Obwohl dies als Stärke angesehen werden kann, kann es vorkommen, dass Sie Fairness-Methoden verwenden möchten, die auf Ihren Anwendungsfall zugeschnitten sind. Zu diesem Zweck gibt es immer mehr Forschungsarbeiten, die sich mit Fairness für bestimmte Aufgaben befassen, wie z.B. faire Worteinbettungen für die Verarbeitung natürlicher Sprache (NLP), faires Clustering oder faire Empfehlungssysteme. Kürzlich wurde die Arbeit in diesem Bereich in einem interessanten Übersichtsartikel zusammengefasst, den ich sehr empfehlen kann.

4.3. Nachbearbeitungsmethoden

Post-Processing-Methoden transformieren die Posterior-Verteilung eines Modells so, dass Fairness-Kriterien erfüllt werden, was auch als Posterior-Editing bezeichnet wird (Barocas et al., 2017). Wie Pre-Processing-Methoden können auch Post-Processing-Methoden für jede Vorhersageaufgabe verwendet werden und bieten daher schöne Flexibilitätseigenschaften, z.B. sind sie mit jedem Modell kompatibel (Caton & Haas, 2020). Darüber hinaus sind Post-Processing-Methoden attraktiv, weil sie Fairness erreichen, ohne dass das Modell neu trainiert werden muss (Petersen et al., 2021).

Schwellenwert

Schwellenwertverfahren versuchen, für jede Gruppe Klassifizierungsschwellenwerte zu finden, so dass die Fairnessbedingungen erfüllt werden (Caton & Haas, 2020). Das klassische Beispiel für eine Schwellenwertmethode stammt von Hardt et al. (2016) Ihr Ansatz ermöglicht es, Vorhersagen zu erstellen, die den Fairnesskriterien Chancengleichheit und Chancengleichheit genügen. Der Algorithmus funktioniert durch die Anpassung der Entscheidungsschwellen des Klassifikators auf der Grundlage der beobachteten TPR und FPR. Um die genauen Schwellenwerte zu bestimmen, wird ein Optimierungsproblem gelöst, das Entscheidungsschwellenwerte findet, die den Verlust unter der Bedingung der Chancengleichheit (oder der Chancengleichheit) minimieren. Für die binäre Klassifikation hat die Lösung des Optimierungsproblems der Chancengleichheit eine schöne geometrische Interpretation, bei der die optimale Lösung dem Schnittpunkt der ROC-Kurven für beide empfindlichen Gruppen entspricht, wie in Abb. 9 dargestellt. Der Algorithmus ist bis heute sehr populär und wird in Fairness-Tools wie Fairlearn und AIF360 eingesetzt;

 Thresholding example

Abbildung 9: Die geometrische Intuition des Ansatzes von Hardt et al. zur Fairness durch Schwellenwerte. Bei gleichen Quoten liegt das Optimum im Schnittpunkt der ROC-Kurven der beiden empfindlichen Gruppen $$A=0$$ und $$A=1$$. Entnommen aus Hardt et al. (2016).

In ähnlicher Weise stellten Fish et al. (2016) einen Algorithmus vor, der als Eingabe die Vorhersagezuverlässigkeit eines Klassifizierers (z. B. SVM oder Boosted-Tree-Ensembles) akzeptiert und die minimale Fehlerentscheidungsgrenzverschiebung findet, mit der demografische Parität erreicht wird, indem die Ausgabekennzeichnungen von Datenpunkten mit geringer Zuverlässigkeit umgedreht werden. Das Ergebnis ist ein rechnerisch leichtgewichtiger Algorithmus, der die Kontrolle über den Kompromiss zwischen Modellgerechtigkeit und Genauigkeit nach dem Modelltraining bietet.

Für weitere Schwellenwertmethoden, die andere Optimierungsprobleme oder andere Lösungstechniken verwenden, empfehle ich Ihnen die Arbeiten von Kamiran et al. (2012), Corbett-Davies et al. (2017), und Alabdulmohsin & Lucic (2021).

Kalibrierung

Ich habe den Begriff der Klassifikator-Kalibrierung eingeführt, als ich das Kriterium der Gleichheit der Vorhersagerate vorstellte, wobei ich feststellte, dass die beiden Begriffe als gleichwertig verwendet werden (Barocas et al., 2017). Pleiss et al. (2017) stellten fest, dass Nachbearbeitungsmethoden, die gleiche Quoten erreichen, wie der Ansatz von Hardt et al., oft unkalibrierte Klassifikatoren erzeugen, die die Vorhersageratenparität verletzen. Die Autoren zeigen, dass es einen Kompromiss zwischen Kalibrierung und gleichen Quoten gibt. Um dieses Problem zu entschärfen, stellten die Autoren einen Algorithmus vor, der die kalibrierten Klassifikatorausgaben optimiert, um Wahrscheinlichkeiten mit Ausgangsbezeichnungen zu finden, die umgedreht werden sollten, um die Gleichheit der Chancen zu maximieren. Obwohl Kalibrierungsmethoden in bestimmten Szenarien funktionieren können und in das AIF360-Toolkit aufgenommen wurden, weisen die Autoren darauf hin, dass es je nach Problem besser sein kann, entweder Kalibrierung oder Schwellenwertbildung für gleiche Chancen durchzuführen.

Andere Methoden

Da die Schwellenwertbildung nur im Zusammenhang mit der Klassifizierung funktioniert, wurden auch andere Nachbearbeitungsmethoden für andere Situationen entwickelt. So schlugen Johnson et al. (2016) einen Ansatz zur Korrektur von Regressionsergebnissen a-posteriori vor, Nandy et al. (2022) präsentierten einen Ansatz zur Verbesserung der Fairness bei der Anpassung von Rangfolgen, und Wei et al. (2020) entwickelten eine Methode zur Anpassung von vorhergesagten Wahrscheinlichkeitswerten, wie sie im ML üblich sind.


5. Best Practices


Wir haben gesehen, dass Fairness ein beliebtes Thema geworden ist und dass es in der Forschung mehrere Ansätze gibt, wie die Fairness von Modellen bewertet und verbessert werden kann. Nun komme ich zum letzten und vielleicht wichtigsten Teil dieses Artikels: Was können Sie als Praktiker tun?

Diese Frage ist von zentraler Bedeutung, denn es sind die Praktiker, die die ML-Systeme entwickeln, die das Leben der Menschen beeinflussen. Daher sollten die Praktiker bewährte Verfahren anwenden, die verhindern, dass ihre Modelle diskriminierende Ergebnisse produzieren. In diesem Abschnitt habe ich Ratschläge aus der Wissenschaft und der Softwareentwicklung zusammengestellt (z. B. Google; UC Berkeley; Barocas et al., 2017), die Ihnen helfen können, bessere Modelle und Software zu entwickeln.

Prüfen Sie Ihre Daten

Auch wenn dies trivial klingen mag, ist dies vielleicht die wichtigste Praxis für eine faire ML. Bevor Sie mit der Entwicklung eines Modells beginnen, sollten Sie eine gut formulierte Problemstellung haben, die angibt, wer Ihr Produkt letztendlich nutzen wird, damit Sie sicherstellen können, dass Ihre Daten diese Population gut genug repräsentieren. Sobald Sie einen repräsentativen Datensatz gesammelt haben, müssen Sie überprüfen, ob diese Daten keine Verzerrungen enthalten. Zur Überprüfung auf Verzerrungen können Sie einige der Tools verwenden, die ich am Ende dieses Artikels vorstelle, zum Beispiel Aequitas oder Know your data.

Seien Sie sich des Zwecks und der Grenzen Ihres Modells bewusst

Kein Modell ist perfekt für alles. Dies sollten Sie bei der Entwicklung und dem Einsatz von ML-Modellen immer im Hinterkopf behalten. Das bedeutet, dass Sie die Möglichkeiten Ihres Modells nicht überschätzen sollten, z.B. wenn Ihr Modell Korrelationen erkennen kann, sollten Sie es nicht für kausale Vorhersagen verwenden. Wenn Sie sich der Grenzen Ihres Modells bewusst sind, sollten Sie sich auch der Unzulänglichkeiten von ML im Allgemeinen bewusst sein. Wie Ruha Benjamin (2019) hervorhob, mögen mathematische Modelle objektiv und neutral erscheinen, aber bei jedem Schritt der Modellentwicklung wirken sich Ihre Designentscheidungen auf das resultierende Modell aus, was sich in seinen Vorhersagen widerspiegelt. Dies sollte immer dann bedacht werden, wenn ein ML-Modell in der realen Welt eingesetzt wird.

Testen Sie Ihr Modell (mehrere Male)

Wenn Sie Modelle für maschinelles Lernen entwickeln, die in der realen Welt eingesetzt werden sollen, müssen Sie Ihre Modelle testen. Das gilt für die Fairness ebenso wie für die Genauigkeit. Richtiges Testen bedeutet, dass Sie:

  • Bewerten Sie Ihr Modell für mehrere Klassifizierungsschwellenwerte, um zu verstehen, wie sich verschiedene Schwellenwerte auf verschiedene Gruppen auswirken.

  • Testen Sie mehrere Datensätze, z. B. verwenden Sie diesen Datensatz, um ein Gesichtserkennungssystem zusätzlich zu testen, um sicherzustellen, dass Sie Personen mit unterschiedlichem Aussehen korrekt klassifizieren können;

  • Testen Sie Ihr Modell vor, aber auch während des Einsatzes, um zu prüfen, ob es aufgrund von Verteilungsverschiebungen unfaire Entscheidungen gibt. Für den Fall, dass während der Bereitstellung Probleme auftreten, sollten Sie einen klaren Fahrplan haben, was zu tun ist.

Für die Durchführung von Modelltests gibt es mehrere Tools, die Sie verwenden können, z. B. die Tensorflow Fairness-Indikatoren, die in Ihre Vertex AI-Pipeline integriert werden können, oder das Fairlearn-Paket, wenn Sie vollständig auf Open-Source setzen wollen.

Wählen Sie die richtigen Metriken

Wie oben betont, gibt es Kompromisse zwischen den verschiedenen Metriken, was die Auswahl der Metrik nicht trivial macht. So muss die geeignete Fairness-Metrik je nach Kontext gewählt werden. Trotz der oben erwähnten Kompromisse können einige Begriffe in bestimmten Anwendungsfällen auch kombiniert werden. Bei der Auswahl einer Fairness-Metrik sollten Sie sich fragen, was die einzelnen Metriken messen. Fragen Sie sich zum Beispiel, ob es bei den Ihnen vorliegenden Daten sinnvoll ist, eine auf der Basis der Grundwahrheit basierende Metrik (z. B. equalized odds) zu verwenden, oder ob Sie sich lieber auf die Kalibrierung konzentrieren sollten.

Berichten Sie Ihre Ergebnisse

Modellkarten wurden eingeführt, um strukturierte Zusammenfassungen von ML-Modelleigenschaften zu erstellen. Diese Karten können Informationen über die Datenverteilung enthalten, die für die Modellschulung verwendet wurde, oder über die Umweltauswirkungen der Modellschulung. Die Bereitstellung einer solchen Modellkarte kann dazu beitragen, Ihren Entwicklungsprozess transparenter zu machen und Fairnessprobleme schneller zu erkennen.

Werkzeuge verwenden

Ab 2023 gibt es eine breite Palette von Instrumenten, die Ihnen helfen können, sicherzustellen, dass Ihr Modell fair ist. Diese Tools sind darauf ausgelegt, Diskriminierung und Verzerrungen in Ihrem Modell entweder zu erkennen und/oder abzuschwächen. Es gibt mehrere Übersichten über Fairness-Tools (z. B. hier, hier, und hier). Die für mich wichtigsten sind (in alphabetischer Reihenfolge):

  • Aequitas: Dieses Open-Source-Bias-Audit-Toolkit stellt Ihnen eine Python-Bibliothek zur Verfügung, mit der Sie die Fairness-Metriken Ihrer Daten und Modelle messen können. Darüber hinaus bietet das Toolkit eine CLI, mit der Sie Ihre Daten und Modelle prüfen können. Dieser Schritt kann bequem in eine CI/CD-Pipeline integriert werden, sodass Sie kontinuierlich auf Verzerrungen und Fairness prüfen können.

  • AI Fairness 360 toolkit (AIF360): Mit diesem Python-Toolkit können einige der oben beschriebenen Vor- und Nachbearbeitungsmethoden, wie z. B. die Posterior-Bearbeitung, implementiert werden. Unterstützung für Mehrklassen-Klassifizierungsprobleme, Metriken für individuelle Fairness und eine grafische Benutzeroberfläche machen das AIF360-Toolkit sehr nützlich.

  • Fairlearn: Ein weiteres Python-Paket mit Metriken zur Messung der Fairness und Werkzeugen zu ihrer Verbesserung. Ursprünglich von Microsoft ins Leben gerufen, wird es jetzt vollständig von der Community betrieben. Neben der Unterstützung von Klassifikationsproblemen können Sie auch in Regressionseinstellungen auf Fairness testen, was mit einigen anderen Tools möglich ist.

  • Tensorflow Fairness-Indikatoren: Diese Python-Bibliothek ermöglicht es Ihnen, die wichtigsten Fairness-Metriken auf Ihren Daten in binären und Mehrklassen-Klassifikationsaufgaben zu berechnen. Sie lässt sich gut mit Tensorflow integrieren, und es gibt Plugins für Tensorboard und andere Bibliotheken.

  • Kennen Sie Ihre Daten: Dieses Dashboard-basierte Tool von Google konzentriert sich auf den Aspekt der Fairness von Datensätzen. Mit diesem Tool können Sie Ihre Daten untersuchen, um Verzerrungen und andere Probleme in Ihren Daten zu erkennen, bevor Sie in die Produktion gehen. Einige der Funktionen des Tools sind auch in Googles Vertex AI für MLOps enthalten.

  • Was-wäre-wenn-Tool: Dieses Tool ermöglicht es Ihnen, die Entscheidungen Ihres Modells in verschiedenen Einstellungen zu visualisieren, so dass Sie ein Verständnis dafür bekommen, wie es funktioniert. So können Sie zum Beispiel testen, wie sich die Modellvorhersagen verändern, wenn ein bestimmtes Merkmal konstant gehalten wird. Es gibt eine breite Palette von Visualisierungen, die Sie auswählen können, z. B. die in Abb. 8. Das WENN-Tool ist sehr attraktiv, weil Sie damit ein qualitatives Verständnis der Leistung Ihres Modells gewinnen können.

Vorsicht: Diese Liste ist nicht vollständig und spiegelt meine persönliche Meinung zum Stand Mai 2023 wider. Bitte beachten Sie, dass alle diese Tools mit Einschränkungen verbunden sind.

Auf den Schultern von Giganten stehen

Es gibt noch viel mehr über Fairness in ML zu sagen, als ich in einem kurzen Überblicksartikel wie diesem behandeln kann. Es gibt diesen ausgezeichneten MLSS-Vortrag von Moritz Hardt. Es gibt mehrere Bücher wie Cathy O'Neils Weapons of Math Destruction (2016), Virginia Eubanks' Automating Inequality (2018), und Ruha Benjamins Race After Technology (2019). Ich habe in diesem Artikel bereits auf bestehende Übersichtsarbeiten verwiesen und empfehle Ihnen erneut die Werke von Caton & Haas (2020), Pessach & Shmueli (2022) und Barocas et al. (2017). Neben der Mathematik und der Informatik gibt es noch mehr Arbeiten zum Thema Fairness in vielen anderen Disziplinen. Diese Disziplinen sind schon viel länger an Fairness interessiert, so dass es sinnvoll sein kann, sich von der Soziologie oder den Rechtswissenschaften inspirieren zu lassen. Denken Sie also immer daran, auf den Schultern von Giganten zu stehen.


6. Fazit


Da die Nutzung solcher Modelle weiter zunimmt, ist die Gewährleistung der Fairness von Modellentscheidungen wichtiger denn je. In diesem Beitrag habe ich die wichtigsten Metriken zur Überwachung der Fairness von Modellvorhersagen sowie wichtige Techniken zur Verbesserung der Modellfairness, insbesondere durch Pre-, In- und Post-Processing-Methoden, vorgestellt. Abschließend habe ich einige Tools und Software aufgeführt, die Sie als Praktiker nutzen können. Ich hoffe, dieser Artikel hat Ihnen gezeigt, dass Fairness heutzutage ein sehr wichtiges Thema im ML ist und dass es Möglichkeiten gibt, die Fairness Ihres Modells zu verbessern, ohne dass Sie zu viel an Ihrem Arbeitsablauf ändern müssen.