Hilft uns Technologie, unsere Vorurteile zu überwinden?

Algorithmen werden von Menschen geschrieben und unterliegen deswegen denselben Einschränkungen wie ihre Autoren – was häufig zu Diskriminierungen führt. Dennoch kann das Problem technisch gelöst werden, durch Augmented Intelligence. 

Als Menschen sind wir von Natur aus nicht perfekt – wir machen Fehler, besitzen aber auch die Fähigkeit, daraus zu lernen. Genau daraus gehen Kreativität und Innovation hervor: Schließlich sind einige der größten Erfindungen und Entdeckungen der Geschichte aus menschlichen Fehlern entstanden. 

Durch KI werden menschliche Fehler schneller in die Technologie übertragen.

Alles, was vom Menschen geschaffen wird, wird Fehler enthalten. Das gilt besonders bei technischen Fragen: Ob bewusst oder unbewusst, jede Technologie ist von bestehenden menschlichen Denkmustern und Vorurteilen geprägt. Zum Beispiel gibt es Systeme, die basierend auf Berufsbezeichnungen Geschlechter falsch registrieren, oder auch Software zur Gesichtserkennung, die Schwierigkeiten damit hat, nichtweiße Personen zu erkennen.

In einer Zeit, in der Künstliche Intelligenz immer mehr Anwendung findet, ist das eine große Herausforderung. Künstliche Intelligenz soll uns das Leben erleichtern und unsere Handlungen automatisieren, um Prozesse zu beschleunigen. Das bedeutet aber auch, dass Fehler schneller übertragen werden. Beispielsweise wird eben eine Technologie zur Gesichtserkennung, die vorwiegend an männlichen und blassen Personen getestet wurde, Gesichter mit anderen Eigenschaften nur schwer erkennen.

Mensch und Technologie im Zusammenspiel

Die Lösung lässt sich in zwei Bereiche einteilen: Mensch und Technologie. Im Bereich des Menschen ist es entscheidend, dass man sich Themen wie Diversität und Inklusion bewusst ist. Es ist wichtig, dass wir unsere globalen Zielgruppen genauer reflektieren. Nicht nur auf der Ebene der Programmierung, sondern auch in der Leitung, Planung, Konzeption und Durchführung. Diversität im Team ist notwendig, um ein Bewusstsein für die blinden Flecke des jeweils anderen zu schaffen und diese auszugleichen.

Auch wenn die Vorurteile kaum bewusst im System integriert sind, müssen Technologieunternehmen bereit sein, ihre eigenen Annahmen und Vorurteile zu reflektieren und zu hinterfragen – gerade in Hinblick darauf, dass sich der Einsatz von Künstlicher Intelligenz und maschinellem Lernen stark erweitert hat und von Bewerbungsprozessen über Kreditgenehmigungen Hilfestellung leistet. Um Feinheiten zu verstehen und Empathie in die Arbeit einfließen zu lassen, braucht es den Menschen. Er kann Vorurteile nicht nur erkennen, sondern diese Erkenntnis auch positiv nutzen, um zu einer Verbesserung beizutragen.

Technologiefirmen müssen bereit sein, ihre eigenen Annahmen und Vorurteile zu reflektieren und zu hinterfragen.

Aus technologischer Perspektive ist es von Bedeutung, wie Technologie uns beim Erkennen von Vorurteilen helfen kann, bevor sie im System angekommen sind. Das heißt: Technologie muss über Instrumente verfügen, die uns dazu zwingen, das, was wir zu wissen glauben, zu überdenken. 

Daten, die sich selbst definieren

Ein Beispiel dafür sind Suchmaschinen. Durch Algorithmen und Cookies werden die Ergebnisse unserer Suchanfragen mit der Zeit gefiltert. Dies wurde zunächst eingeführt, um die Suche persönlicher zu gestalten und uns nur die für uns relevanten Informationen zur Verfügung zu stellen. Allerdings führt das zu Filterblasen, in denen nur erscheint, was unserem persönlichen Rahmen entspricht. 

Ein anderer Ansatz wäre, das zu implementieren, was als „Associative Engine“ bekannt ist. Diese erlaubt Daten, sich selbst zu definieren. Dabei wird eine Frage immer noch vom Menschen gestellt, doch anstatt die Antworten durch einen Algorithmus zu filtern, der auf vorher definierte Datenstrukturen basiert, werden die unterschiedlichsten Datenzusammenhänge dargestellt werden. Das bedeutet, dass die Daten so verbunden sind, dass Algorithmen auch ungefragte Erkenntnisse finden und dem Nutzer darstellen können.

Dies ist Teil des Konzepts der Augmented Intelligence, die die Macht der künstlichen Intelligenz nutzt, um den Menschen zu unterstützen, statt ihn zu ersetzen. Denn darin liegt eines der größten Bedenken in Verbindung mit künstlicher Intelligenz: Dass Maschinen so intelligent werden, dass sie uns in allen Entscheidungsprozessen ersetzen können. 

Daten müssen so verbunden sein, dass Algorithmen auch ungefragte Erkenntnisse finden können.

Mit Augmented Intelligence erreichen wir die Geschwindigkeit und den Maßstab von künstlicher Intelligenz und maschinellem Lernen. Aber nur, um zu verbessern, was der Mensch versucht zu erreichen. Im Kontext vom Kampf gegen Vorurteile heißt das fähig zu sein, diverse Teams zu unterstützen, schnell riesige Datensätze nach Vorurteilen zu überprüfen, diese zu erkennen und zu entfernen, bevor mit diesen Daten gearbeitet wird.

Ist die Zukunft frei von Vorurteilen?

Menschen sind keine perfekte Spezies. Aber gerade durch die Fehler, die sie machen, werden sie wertvoll. Die Fehler geben ihnen Kreativität und die Fähigkeit zur Innovation – etwas, das nicht durch Maschinen ersetzt werden kann. 

Zusätzlich dazu ist der Mensch in der Lage, Dinge bewusst zu hinterfragen und Feinheiten zu erkennen. Während Technologien nur mit den erfassten Daten arbeiten können und auf das begrenzt sind, womit sie programmiert werden, sind Menschen zur Reflexion fähig und können Ergebnisse auch bewerten. 

Dennoch müssen wir uns unserer Schwächen und Vorurteile bewusst sein. Der einzige Weg ist, die menschliche Fähigkeit zur Empathie mit dem Maßstab und der Geschwindigkeit von Technologie zu kombinieren. In anderen Worten: Augmented Intelligence.


Über den Autor

Wolfgang Kobek ist Senior Vice President Europe, Middle East & Africa (EMEA) beim Analytics-Anbieter Qlik.

 

Das könnte Sie auch interessieren

Was meinen Sie dazu?

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Back to top button
Close