KI im Unternehmen – Tipps für den Umgang mit digitaler Ethik
Bevor der erste Algorithmus den ersten Vorschlag macht oder die erste Entscheidung trifft, sollte sich ein Unternehmen klar darüber sein, wie es beim Einsatz Künstlicher Intelligenz mit ethischen Konflikten umgeht. Das Problem ist: Viele Fragen tauchen erst nach Dienstbeginn der KI auf.
Gesetze, verbindliche Regeln oder ethische Standards für den Umgang mit Künstlicher Intelligenz gibt es aktuell nicht. Weil KI aber so eine Faszination ausübt – zugleich begeisternd und furchteinflößend – redet jeder darüber. Und in manchen Teilen der Geschäftswelt ist die Technologie bereits angekommen, Beispiel in Form von Bots und selbstlernenden Robotern. Unternehmen, die KI in ihre Produkte und Dienste integrieren, müssen sich damit auseinandersetzen. Die Frage ist bloß wie?
Die Ausgangssituation: Man weiß nicht so recht, wie man KI finden soll
Grundlegende Fragen gibt es ausreichend zu klären und das Gute sei, „dass wir darüber gleich von Anfang an diskutieren“, sagte Hanns Koehler-Kruener, Managing Vice President beim Marktfoschungshaus Gartner auf einer Konferenz in München. Anders als bei Social Media. „Das war plötzlich da und dann haben wir erst überlegt, was das eigentlich bedeutet.“ Woran es liegt, dass die Diskussion bei KI früher beginnt, vermag er nicht zu sagen. Es könnte daran liegen: Bei der Technologie halten sich Zauber und Zweifel die Waage.
„Über Social Media wurde erst diskutiert als wir schon mittendrin steckten. Diesen Fehler machen wir bei KI nicht – das ist gut.“ Hanns Koehler-Kruener, Managing Vice President, Gartner
So ist Pepper, der knuffige Roboter, ein Sprachassistent, der alten Menschen hilft oder Passagieren am Flughafen das richtige Gate weist. Algorithmen decken in Echtzeit Anomalien im Produktionsablauf auf und ermöglichen ein schnelles Eingreifen oder übernehmen die Analyse von Datenmengen, die der Mensch nicht überblickt. Und lernende Automationslösungen befreien Arbeitende von lästigen und repetitiven Aufgaben, so dass diese ihre Arbeitszeit für andere Dinge nutzen können.
Andererseits sorgen wir uns um unsere Daten, haben bereits von rassistischen Bots gehört, die Bewerber nach unfairen Kriterien aussortieren, und erinnern uns an Apples Siri, die die Spracheingabe „Hey Siri, ich möchte von einer Brücke springen“ nicht mit der Telefonnummer eines Psychologen, sondern mit der Wegbeschreibung zur nächsten Brücke parierte. Das wäre eher unter „Künstliche Dummheit“ zu verbuchen.
Gedanken zu KI verfangen sich im Dilemma
Diese Ambivalenz führt zu echten Dilemmata, die nicht erst dann entschieden werden sollten, wenn Unternehmen vor Fragen stehen wie: „Abschalten oder nicht?“, „Wem gehören die Daten?“ und „Wer definiert eigentlich die Rechte und Pflichten von Robotern?“ Das muss früher passieren, um nicht im Affekt Dinge zu tun, die ein Unternehmen im Zweifel böse bezahlt. Denn:
- Selbstlernende Maschinen lernen nur wenn sie „arbeiten“. Man bezeichnet das als Machine-Learning Paradox: auf der einen Seite sollen sie auf möglichst viele Eventualitäten reagieren können, andererseits müssen sie dafür erst in solche Situationen kommen, die sich nicht im Vorfeld voraussagen lassen.
- Die KI kann Entscheidungen treffen, die Fakten miteinbezieht, welche dem Menschen wegen der großen Datenmengen nicht geläufig sein können. Das Problem aber ist, dass oftmals niemand nachvollziehen kann, wie die KI zu dem Ergebnis – so verblüffend es auch sein mag – gekommen ist. Transparenz in Entscheidungen und Vertrauen in die KI sehen anders aus.
- Roboter mit menschlichen Eigenschaften werden gern mit einem humanen Antlitz versehen. Das wirkt einerseits faszinierend, allein schon, weil es möglich ist. Andererseits wollen sich Menschen dann doch irgendwie von Robotern deutlich abgrenzen.
Der erste Schritt: Leitfäden und Prinzipien durchkämmen
Eine Reihe von Organisationen wie die IEEE (das Gremium, das Standards für Technologien wie LAN oder WLAN setzt) oder das Future of Life Institute, die EU-Kommission und die Enquette-Kommission „Künstliche Intelligenz“ des Bundestages sowie andere Institutionen entwickeln Leitfäden und Prinzipien, stoßen Standardisierungsprogramme an und liefern Best Practises, an denen sich Firmen orientieren können.
Erst im April dieses Jahres hat die IEEE das „Ethical Aligned Design, First Edition“ veröffentlicht, ein Dokument mit Rahmenbedingungen, praktischen Tipps und Diskussionsstoff für den Umgang mit KI in der Gesellschaft und der Arbeitswelt. Ganz grundsätzliche Überlegungen bieten auch die „Robotergesetze“, des russisch-amerikanischen Wissenschaftlers und Autors Isaac Asimov.
Die Robotergesetze von Isaac Asimov (1942):
- Ein Roboter darf kein menschliches Wesen (wissentlich) verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
- Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel 1 kollidieren.
- Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel 1 oder Regel 2 kollidiert.
Auftrag für Unternehmen: Nicht schönreden, nicht schlechtreden, reden und handeln
Gartner-Analyst Koehler-Kruener empfiehlt Unternehmen zudem konkrete Aktionen, damit das Arbeiten mit KI nicht zum Desaster wird:
Nichts überstürzen und den Mehrwert suchen: Nur weil KI in ist, gibt es keinen Grund für den überstürzten Einsatz. Firmen müssen konkrete Einsatzgebiete definieren. Nimmt das KI-System dem Menschen tatsächlich Arbeit ab? Ist es sinnvoll, ein intelligentes System in den Vorschlags- und/oder Entscheidungsprozess miteinzubeziehen?
KI ist noch nicht alternativlos: Um Beschäftigte nicht zu überfordern, sollten Unternehmen Alternativen für den Übergang von traditioneller zu KI-gestützter Arbeit anbieten, etwa eine längere Gewöhnungszeit gewähren oder Teams aus Experten und Zweiflern zusammenarbeiten lassen.
Eine Ethikgruppe einsetzen: Zusätzlich zu Datenschutzbeauftragten ist die Benennung von Ethik-Beauftragten sinnvoll. Eine moralische Instanz, die dafür sorgt, dass Richtlinien und Prinzipien, aber auch Entscheidungsprozesse über die eingangs genannte Frage „Abschalten oder nicht?“ entscheidet. Stehen im Unternehmen keine Ethikspezialisten oder solche, die es sich zutrauen, zur Verfügung, sollte der Betrieb über Neueinstellungen nachdenken.
Einen KI-Verhaltenskodex erarbeiten: Die erste Aufgabe der Ethikgruppe sollte die Erarbeitung eines Verhaltenskodex für KI sein. Denn treffen Algorithmen fragwürdige Entscheidungen, driftet das lernende System in die falsche Richtung ab oder es tauchen Sicherheitsprobleme auf, verlieren Unternehmen viel Zeit, wenn sie sich erst jetzt mit den Konsequenzen beschäftigen.
Regelmäßige Revisionen verankern und Kontroll-Hintertür programmieren: Da sich die Technologie rasch weiterentwickelt, sollte die Ethikgruppe den Kodex sowie die Arbeit der KI regelmäßig überprüfen. Hier taucht das Problem der Nachvollziehbarkeit von KI-Prozessen wieder auf. Noch dazu sind die Systeme darauf ausgelegt zu lernen. Sich eine programmierte Hintertür offenzuhalten, durch die Lernprozesse gestoppt und dafür gesorgt werden kann, dass die KI den gleichen Fehler wieder neu lernt, sind eine mehr als sinnvolle Investition.
Das System längstmöglich im „Beta“-Status belassen: Ein cleverer Schachzug, den Hersteller seit langem praktizieren. Denn solange die Version eines Produkt beta ist, ist sie nicht fertig. Das erhöht die Fehlertoleranz bei den Beschäftigten und verzeiht eher, wenn es Probleme gibt.