Wer treibt Künstlicher Intelligenz die Diskriminierung aus?

Was haben eine KI-Software in Österreichs Arbeitsamt und das Bewerbungs-Tool von Amazon gemeinsam? Den Produkten wird Diskriminierung vorgeworfen, unter anderem von Frauen und älteren Mitarbeitern. Welche Konsequenzen zieht man aus der Kritik an der Künstlichen Intelligenz?

Die österreichische Arbeitsagentur AMS nutzt ab 2019 ein Software-Tool, das Arbeitsmarktchancen von Arbeitslosen bewertet. Die Basis für seine Prognosen ist ein Algorithmus, der sich aus Informationen speist, die über den Arbeitssuchenden vorliegen: erlernter Beruf, letzte Arbeitsstelle, Dauer der Arbeitslosigkeit. Außerdem werde auf der Negativseite verbucht, wer weiblich ist und/oder älter, berichtet die Süddeutsche Zeitung, der das Begleitdokument des Programms vorliegt.

Die Diskriminierung von Frauen ist für Kritiker das Beispiel schlechthin für das Versagen Künstlicher Intelligenz

Die vom AMS erwartete Zeitersparnis bei der Bewertung geht aus der Sicht der Kritiker zu Lasten von Arbeitssuchenden mit ungünstiger Prognose, also Frauen und ältere Menschen: Werfe das KI-System schlechte Chancen aus, sei der Aufwand, beispielsweise durch Fortbildungsmaßnahmen die Aussichten zu erhöhen, zu groß und die Arbeitslosen fielen durchs Raster.

Dass Frauen diskriminiert werden, ist für Kritiker ohnehin ein Paradebeispiel für das Versagen von KI. Die Ankündigung des AMS passt nur zu gut in die Debatte um faire, selbstlernende Systeme. Anfang Oktober erst wurde erneut diskutiert, nachdem Amazon sein Bewerbungs-Tool abschalten musste. Die Software hatte auf der Suche nach neuen Mitarbeitern Männer bevorzugt, da das System mit Daten gefüttert worden war, die sich über einen Zeitraum von zehn Jahren angesammelt hatten – und Männer lange Zeit die Tech-Branche dominierten. Das System hatte sich durch die Analyse der vorhandenen Daten selbst beigebracht, Männer besser zu bewerten. Es konnten also gar keine kompetenten Frauen dabei herauskommen.

Was macht man mit solchen Erfahrungen, die gerade auf dem Arbeitsmarkt immer häufiger auftreten? Nicht nur Amazon und das AMS müssen sich das fragen lassen. Beispiel „Robo Recruiting“: Hierbei setzen Personaler auf den Einsatz algorithmischer Anwendungen in der Personalgewinnung. Algorithmen, die vorsortieren, wer es überhaupt bis zum Gespräch mit der Personalabteilung schafft oder im Unternehmen ordentlich „performt“.

KI-Lösungen müssen transparent, verständlich und kontrollierbar werden

Wieviel Verantwortung man in welchen Bereichen Algorithmen überlässt, ist eine der wichtigsten Fragen im Zusammenhang mit KI. Der Ansatz zur Beantwortung dieser Frage wirft eine weitere auf. Sind Programmierer dran schuld, wenn KI-Systeme voreingenommen sind? Kann man fragen, bringt einen aber nicht weiter, denn selbst ein ethisch-moralisch-technisch perfekter IT-Experte kann nicht jegliche Möglichkeit von Diskriminierung ausschließen. Und wenn die Systeme selbst lernen sollen, müssten alle Eventualitäten mit einkalkuliert werden. Kurz: wir würden ganz Old-School-mäßig eine eierlegende Wollmilchsau erwarten und wir wissen, dass dieses Tier ein Fabelwesen ist.

KI ist so hipp, da drücken Mitarbeiter auch mal ein Auge zu

Müssten sich nicht die Beschäftigten oder Arbeitssuchenden deutlicher wehren oder darauf drängen zu erfahren, wenn in ihrem Umfeld KI zum Einsatz kommt? Die meisten haben allerdings KI schon akzeptiert. Sie kennen Apples Siri oder Google Assistant oder Alexa, die Sprachassistentin von Amazon, aus dem privaten Umfeld und lassen sich von intelligenten Navis leiten. Für Unternehmen ist es somit leicht, Künstliche Intelligenz einzusetzen, mit großem Widerstand ist nicht zu rechnen – obwohl die Diskussion um die Vernichtung von Arbeitsplätzen durch smarte Algorithmen allgegenwärtig ist. Nur dann, wenn es an die eigene Durchleuchtung geht und Jobchancen auf dem Prüfstand stehen, wird der eine oder andere hellhörig. Dann ist es aber oft schon zu spät.

Soll die Politik einschreiten und Einsatzgebiete gesetzlich festlegen? Schwierig. Der potenzielle Anwendungsbereich von KI ist vielfältig und absolut unvollständig. Die rasante Entwicklung tut ihr Übriges, dass sich KI-Felder schneller ändern, als das Gesetz beschlossen werden würde. So haben Verbände ihre Forderungen, Hersteller schließen sich zu Lobbygruppen zusammen, die nicht als solche bezeichnet werden wollen, und Forschungseinrichtungen arbeiten sich an verständlichen Lösungen ab. Einige Beispiele:

  • Klaus Müller, Chef des Verbraucherzentrale Bundesverbands (vzbv) fordert schon länger einen Algorithmen-TÜV für digitalisierte Entscheidungsprozesse.
  • Das AI Now Institute, 2017 gegründet von den Wissenschaftlerinnen Kate Crawford und Meredith Whittaker, forscht zu KI-Themen wie Rechte, Automation, Voreingenommenheit und Infrastruktur mit dem Ziel, die sozialen Auswirkungen von Künstlicher Intelligenz auf die Gesellschaft offenzulegen.
  • Im Silicon Valley, dem Geburtsort der KI-Technologie, wartet man nicht erst auf – möglicherweise nachteilige – Regulierungsbemühungen durch die Regierung, sondern nimmt die Sache selbst in die Hand. 2016 gründeten die IT-Schwergewichte Amazon, DeepMind/Google, Facebook, IBM und Microsoft die „Partnership on Artificial Intelligence to Benefit People and Society“ (PAI). Gemeinsam mit Wissenschaftlern und Non-Profit-Organisationen will man sich eine Selbstverpflichtung geben und Best Practises beim Einsatz von KI empfehlen. Die Fachgebiete: Ethik, Fairness, Inklusion, Transparenz, Privatsphäre und Interoperabilität. Außerdem beschäftigt sich die Gruppe mit der Zusammenarbeit Mensch/Maschine. Neuestes Mitglied seit Oktober 2018: der chinesische Technologieriese Baidu.
  •  Zu den Initiativen, die sich darin versuchen, KI zu erklären, gehört die DARPA. Die Behörde, Teil des US-Verteidigungsministeriums, ist eher für militärische Forschungsprojekte bekannt. Sie hat sich aber mit dem Programm „Explainable Artificial Intelligence“, XAI, zur Aufgabe gemacht, selbstlernende Technologien zu entwickeln, deren Arbeit nachvollziehbar ist und die Menschen ermöglicht, KI-Entscheidungen zu verstehen, ihr zu vertrauen und sie zu verwalten.
  • Für mehr Transparenz will IBM mit der „Black Box“ sorgen. Die cloudbasierte Software soll in Echtzeit anzeigen, auf welcher Basis Entscheidungsvorschläge zustande gekommen sind und bei Bedarf Datenfehler entdecken und Anpassungen empfehlen. Auf diese Weise sollen Anwender Vertrauen gewinnen und die Software kontrollierbar und beherrschbar machen.

Amazon hat höchstens ein kleines Image-Schädchen zu erwarten

Es gibt weitere Gruppierungen, die sich mit Eigenschaften und Einfluss von KI beschäftigen. Doch selbst die größten der Großen stecken vornehmlich noch in der Forschung fest, was nicht schlecht ist. Und daran erkennt man schon, wie neu und unbekannt KI ist.

Amazon hat außer der Abschaltung seines Tools und vielleicht einem kleinen Image-Schädchen (da gab es durchaus größere) keine Konsequenzen zu erwarten. Beim österreichischen AMS befindet man sich nach eigenen Angaben derzeit in einer Testphase, die Bewertungen sollen noch nicht bindend sein. 2020 könnte der Effizienzdruck aber so groß sein, dass die Anwendung stärker zum Tragen kommt, berichtet der Standard. Das Thema Künstliche Intelligenz bleibt ein Dauerbrenner.

Das könnte Sie auch interessieren

Was meinen Sie dazu?

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Back to top button