Künstliche Intelligenz braucht ethische Leitplanken
Künstlicher Intelligenz ist bislang noch kein moralisches Gewissen angezüchtet worden. Wie auch? Bisher haben die allgemeinen Richtlinien gefehlt, die es in die Algorithmen zu implementieren gilt. Doch es tut sich was.
Künstliche Intelligenz erlebt in den letzten Jahren einen enormen Aufschwung und hat sich binnen kürzester Zeit zur zukunftsweisenden Technologie unserer Gesellschaft entwickelt. Jüngst hat die Europäische Kommission einen Gesetzesentwurf vorgestellt, der vor allem die Regulierung von KI-Anwendungen, die mit Risiken für den Menschen verbunden sind, in den Vordergrund stellt.
Es ist auch ein geschäftlicher Imperativ: Kein Unternehmen will für den unethischen Einsatz von KI in den Schlagzeilen stehen.
Auch die Bundesregierung will Deutschland und Europa mithilfe der „Strategie Künstliche Intelligenz“ zu einem führenden Standort für KI machen und unter anderem die vielfältigen Einsatzmöglichkeiten der Technologie in allen Bereichen der Gesellschaft fördern. Laut einer Gartner-Umfrage haben 24 Prozent der befragten Unternehmen selbst in der Pandemie ihre Investitionen in KI noch einmal erhöht, 75 Prozent planen weitere oder neue KI-Initiativen, wenn sie nach der Pandemie in die Erholungsphase eintreten.
Gefahrenpotenzial der KI kategorisieren
Vor dem Einsatz von Künstlicher Intelligenz sollten Unternehmen jedoch eine ausführliche Diskussion über die Vor- und Nachteile der Technologie aus ethisch-moralischer Perspektive führen. Denn noch immer gibt es berechtigte Bedenken gegenüber der Technologie: so wird beispielsweise befürchtet, dass die Datengrundlage die menschliche Vorurteile widerspiegeln könnte und sich daraus rassistisch voreingenommene Software oder antisemitische Chatbots entstehen. Umso wichtiger ist es, dass CTOs mit dem notwendigen Verständnis und Wissen ausgestattet sind, derartige KI-Anwendungsfälle zu erkennen.
Mit dem neuen Gesetz möchte die EU-Kommission Regeln für den sicheren und vertrauenswürdigen Umgang mit Künstlicher Intelligenz einführen. Daher geht es laut Vizepräsidentin Margrethe Vestager auch nicht um die KI an sich, sondern um deren Anwendungen, die ein großes Risikopotenzial aufweisen. Das Risiko wird entsprechend kategorisiert; dabei würden die meisten KI-Systeme in die Kategorie „kleines“ oder „gar kein“ Risiko fallen. Dazu gehören beispielsweise Videospiele oder Filter für Spam-Nachrichten.
Weitere Anwendungsfälle sind Auswahlverfahren bei Bewerbungsprozessen für Universitäten oder Jobs, Systeme zur Bewertung der Kreditwürdigkeit oder für selbstfahrende Autos, die per Gesetzesentwurf zu den Hochrisikoanwendungen zählen. Trotz des vorgesehenen Verbots des Einsatzes einer KI bei der generalisierten Überwachung der Bevölkerung werden noch immer mahnende Stimmen laut, denn das klare Verbot der Gesichtserkennung im öffentlichen Raum wird nicht berücksichtigt und birgt die Gefahr der Massenüberwachung über biometrische KI-Algorithmen.
Gleiche Chancen bei der Kreditvergabe & im Bewerbungsprozess
Der Einsatz von KI ist heute bereits Alltag. Kreditvergaben erfolgen beispielsweise auf Grundlage eines KI-Algorithmus, der jedoch nur so gut funktioniert, wie er programmiert wurde. Je nach Datengrundlage kann der Algorithmus Gebiete aufgrund von ethnischen Merkmalen auswählen oder unterschiedliche Dienstleistungen je nach Wohnungsviertel anbieten. So kann ein Bewohner eines sozialen Brennpunkts Dienstleistungen unter Umständen nicht oder nur in geringerer Qualität erhalten, während dieselben Dienstleistungen für Bewohner der wohlhabenden Gegenden verteuert angeboten werden.
KI-Rassismus spiegelt menschliche Vorurteile wider, die in den Daten und Algorithmen manifestiert sind.
Der weit bekanntere Fall umfasst Vorurteile bei der Rekrutierung und Einstellung von Mitarbeitern. Immer mehr Unternehmen setzen auf allen Ebenen des HR-Prozesses auf algorithmische Entscheidungssysteme. Seit 2016 werden 72 Prozent der Lebensläufe von Bewerbern von Computern aussortiert. Stellenbewerber haben somit immer seltener mit Menschen zu tun und fallen je nach Lebenslauf und Algorithmus durch das Raster.
Der Großteil der Unternehmen bemüht sich, solche Vorfälle zu vermeiden. Analyseplattformen versuchen, die Verwendung von bestimmten Indikatoren zu vermeiden, die Anlass zur Benachteiligung aufgrund von Geschlecht, Alter oder Rasse geben könnten. Ein Beispiel ist die Plattform LinkedIn, die Systeme nutzt, um geschlechtsspezifische Informationen in LinkedIn-Profilen nicht gezielt zu sammeln und zu nutzen, um eine mögliche Benachteiligung oder Bevorzugung zu klassifizieren und zu korrigieren. Auch Google denkt um, nachdem Google AdWords des Sexismus bezichtigt wurde. Hintergrund war, dass Forscher herausfanden, dass männlichen Arbeitssuchenden tendenziell mehr Anzeigen für hochbezahlte Führungspositionen angezeigt wurden als Frauen.
Unternehmen geben Richtlinien vor
Technologieunternehmen haben das Problem erkannt und befassen sich zunehmend mit der ethischen Verwendung von Daten. Ein bekanntes Beispiel ist Microsoft, das innerhalb des Unternehmens sechs Prinzipien festgelegt hat: Diskriminierungsfreiheit, Zuverlässigkeit, Datenschutz, Barrierefreiheit, Transparenz und Verantwortlichkeit. Ein gutes Beispiel für jede Führungskraft im Technologie-Bereich.
Google AdWords fiel dadurch auf, dass männlichen Arbeitssuchenden mehr Anzeigen für Führungspositionen angezeigt wurden als Frauen.
Nicht zu vernachlässigen ist ein ganzheitlicher Ansatz, um wertfrei agieren zu können. Die KI ist nur so gut wie die Modell-Daten, daher müssen diese Daten fair und repräsentativ für alle Menschen und Kulturen sein. In erster Linie müssen Unternehmen sich fragen, ob der von ihnen angestrebte KI-Gebrauch moralisch, sicher und richtig ist. Basiert die Datengrundlage auf einer algorithmischen Verzerrung? Gibt es eine interne Prüfung auf ethische Richtlinien und wie die potenziellen Auswirkungen auf Kunden sind? Wie sind die Kontrollmechanismen und macht es Sinn, externe Berater mit ins Boot zu holen, die speziell auf KI-Lösungen geschult sind?
Die Einführung von Richtlinien auf Europa-Ebene stellt daher einen wichtigen ersten Schritt dar. Doch auch Unternehmen sollten sich hinterfragen, inwieweit sie die rechtliche und moralische Verpflichtung haben, KI gemäß ethischen Grundsätzen zu nutzen. Denn für jedes Unternehmen sollte an erster Stelle ein gleichberechtigter und diskriminierungsfreier Einsatz von KI stehen.
Die Allgemeine Erklärung der Menschenrechte als Schutzwall
Führende Technologieunternehmen befassen sich zunehmend mit der ethischen Verwendung von Daten. Unternehmen wie Bosch oder SAP haben sich dazu Leitlinien gegeben und einen KI-Kodex entwickelt, der unter anderem der Frage widmet, wie sich künstliche und menschliche Intelligenz ergänzen. Über diesen Leitlinien steht immer das Kriterium, dass KI-Produkte oder deren Verwendung nicht im Widerspruch zu den Artikeln der „Allgemeinen Erklärung der Menschenrechte“ steht.
72 Prozent der Lebensläufe von Bewerbern werden nicht von Menschen, sondern von Computern überprüft.
Hierunter fällt auch der Aspekt der Vorurteilsfreiheit: Unternehmen müssen einen ganzheitlichen Ansatz für die KI-Technologie unterstützen, um wertfrei agieren zu können. Eine KI ist immer nur so gut wie die ihr zur Verfügung stehenden Daten. Diese sollten auf jeden Fall fair und repräsentativ für alle Menschen und Kulturen sein.
Daher sollten CTOs sich fragen, ob der von ihnen angestrebte KI-Gebrauch moralisch, sicher und richtig, also absolut notwendig ist.
→ Sind die Daten hinter Ihrer KI-Technologie belastbar oder haben sie eine algorithmische Verzerrung?
→ Werden die KI-Algorithmen geprüft, um sicherzustellen, dass sie richtig eingestellt sind, um erwartete Ergebnisse mit vordefinierten Testsätzen zu erzielen?
→ Wird DSGVO-konform transparent gemacht, wie sich die KI-Technologie auf das Unternehmen intern und auf Kunden und Partner extern auswirkt?
→ Gibt es einen speziellen KI-Kontroll- und Beratungsausschuss, dem funktionsübergreifende Führungskräfte und externe Berater angehören, die die Kontrolle von KI-gestützten Lösungen einrichten und überwachen?
Letztendlich haben Unternehmen die rechtliche und moralische Verpflichtung, KI gemäß ethischen Grundsätzen zu nutzen – aber es ist auch ein geschäftlicher Imperativ. Kein CTO will für einen schlechten, diskriminierenden und unethischen Einsatz von KI bekannt werden.
Korrektur: In einer früheren Version des Artikels hieß es, dass „72 Prozent der Lebensläufe von Bewerbern nicht mehr von Menschen, sondern ausschließlich von Computern überprüft werden“. Tatsächlich werden 72 Prozent der Lebensläufe von Computern aussortiert, bevor sie von einem Menschen gelesen werden. Wir danken unseren Leser Ralf (siehe Kommentar unten) für den Hinweis.
„72 Prozent der Lebensläufe von Bewerbern werden nicht von Menschen, sondern von Computern überprüft.“
Das mag evtl. in manchen Branchen so zutreffend sein. Allerdings wird auf der von Ihnen dazu verlinkten Seite unter „72 Prozent“ (https://hbr.org/2016/12/hiring-algorithms-are-not-neutral) nicht davon gesprochen. Hier wird gesagt, dass 72% der Lebensläufe durch KI-Systeme aussortiert werden bevor sie ein Mensch je zu sehen bekommt.
Für mich ist das eine etwas andere Aussage.
Vielen Dank für den Hinweis! Ist korrigiert.