KI macht Datenanalyse „menschlicher“ – mit Risiken und Nebenwirkungen

Künstliche Intelligenz „denkt“ per Definition selbstständig. Sie analysiert Daten, erkennt Zusammenhänge, gewinnt Erkenntnisse und gibt Handlungsempfehlungen. Doch wie gut können Menschen diese Empfehlungen nachvollziehen?

Unternehmerische Entscheidungen brauchen ein solides Fundament. In einer digitalisierten Wirtschaft werden Erfahrungswerte und das „Bauchgefühl“ von Entscheidungsträgern immer häufiger durch Erkenntnisse aus der Analyse digitaler Daten ersetzt. Die systematische Datenanalyse und die Tools dazu rücken zunehmend in den Vordergrund und Anbieter wie Qlik und Tableau, deren Tools die Datenanalyse für den einfachen Nutzer viel zugänglicher gestalten konnten, erfreuen sich großer Beliebtheit. 

Anwender fordern eine „erklärbare“ Künstliche Intelligenz.

Trotzdem bleibt Datenanalyse für viele Unternehmen und ihre Nutzer ein Bereich, der erst erschlossen werden muss. Zum einen weil der Datenbasis im Unternehmen noch die Form fehlt, in der sie auch in Datenanalyse-Programmen verarbeitet werden kann; zum anderen weil Datenanalyse in die Arbeitsweise und den -alltag der Mitarbeiter eingeführt werden muss. Mit der Verfügbarkeit von Analyse-Tools allein ist es nicht getan, wenn diese nicht genutzt werden. Die Mitarbeiter sollten auch entsprechend geschult und ihre Arbeitsmethoden angepasst werden.

Wie weiß ich, dass die KI nicht irgendwann falsch abgebogen ist?

Nicht zuletzt um den eigenen Erfolg zu sichern sind die Anbieter darum bemüht, ihre Datenanalyse-Tools für den einfachen Mitarbeiter im Umgang so einfach wie möglich zu gestalten. Beim Blick auf die wichtigsten Trends bei der Entwicklung von BI-Tools (BI = Business Intelligence) sind Dinge zu finden wie die automatische Erkennung und Aufbereitung relevanter Daten (Augmented Analytics), die Nutzung natürlicher Sprache für den Dialog mit der Software oder die automatische Erkennung des richtigen Kontext einer Analyse. 

All diese Features setzen die Verwendung von maschinellem Lernen und Künstlicher Intelligenz voraus, und die Integration von KI in Datenanalyse-Software gilt inzwischen als wichtigster Trend für diesem Bereich. Bedenkt man allerdings den angestrebten Automatisierungsgrad (Datensortierung → Datenauswertung → Herstellung von Kontext → Einsichten → Handlungsempfehlungen) und setzt diesen in Verhältnis mit der Tragweite von so mancher Entscheidung im Unternehmen, kann einem schnell mulmig werden. Wie zuverlässig arbeitet eine Künstliche Intelligenz während all dieser Schritte? Wie kann man sicher sein, dass sie nicht doch irgendwann die falschen Schlüsse gezogen hat? Und vor allem: Wie lässt sich nachvollziehen, auf welchen Kriterien und Erkenntnissen genau eine Handlungsempfehlung zustande gekommen ist? 

Wir stehen noch ganz am Anfang

Die Problematik ist den Herstellern natürlich bewusst und sie geben gerne zu, dass die Entwicklung in einem noch sehr frühen Stadium ist, „Es geht nicht darum, automatisierte Entscheidungs-Maschinen zu bauen, die unabhängig von menschlicher Einsicht agieren“, sagt Robert Schmitz, Area Vice President für Südeuropa bei Qlik. „Im Vordergrund steht vielmehr, mithilfe kognitiver Systeme schnell, vollständig und unter Einbeziehung aller Datenquellen optimale, datenbasierte Entscheidungs-Grundlagen zu schaffen.“ Die Rolle der Tools sieht Schmitz nach jetzigem Stand der Technik eher darin, KI-basierte Empfehlungen zur Visualisierung von Daten oder Vorschläge zur sinnvollen Kombination von Datenquellen abzugeben, damit Mitarbeiter von aufwändigen und fehleranfälligen Prozessen bei der Erforschung komplexer Datenquellen entlastet werden.

„Analytics und KI sollten den menschlichen Sachverstand ergänzen, aber keineswegs vollständig ersetzen.“ Richard Tibbetts, Product Manager für KI bei Tableau

Auch macht sich kaum jemand vor, dass Anwenderfirmen KI-basierte Tools einfach so annehmen würden. „Entscheidungsträger sind zurecht skeptisch, wenn von einer KI oder durch Machine Learning gelieferte Antworten nicht erklärbar sind“, sagt Richard Tibbetts, Product Manager für KI bei Tableau. Deswegen gelte Transparenz als „die wesentliche Voraussetzung für eine effektive Bereitstellung intelligenter Systeme in der Praxis“. Entscheidungsträger wollten hinterfragen können, warum ein Modell eine bestimmte Aussage trifft, wie verlässlich diese sei und welche Aussage das Modell unter anderen Ausgangsbedingungen treffen würde – ganz so, wie eine Führungskraft einen menschlichen Experten ausfragen würde, wenn ein wichtiger Entschluss gefasst werden soll. 

Anzeige

Auf Basis welcher Erkenntnisse ist diese Diagnose entstanden?

Diese Art Anforderungen an die Künstliche Intelligenz werden nicht allein von Anbietern und Anwender von BI-Tools gestellt. Sie sind für jeglichen Einsatz von KI relevant und haben zur Entwicklung der „erklärbaren künstlichen Intelligenz“ (Explainable Artificial Intelligence, XAI) geführt. Damit sind Verfahren gemeint, die Einblicke in Machine-Learning-Modelle und damit ein Verständnis von deren Funktionsweise ermöglichen. Eine erste Kostprobe, wie XAI innerhalb kommerzieller Anwendungen funktionieren könnte, hat letztes Jahr IBM mit ihrem Watson geliefert. Mittels eines Hilfsmittels namens AI Openscale werden KI-gestützte Diagnosen bei Gesundheitsanwendungen oder Handlungsempfehlungen bei der automatisierten Bearbeitung von Versicherungsfällen hinterfragt. 

Ketan Karkhanis, Chef der Analytics-Sparte bei Salesforce, fasst die Anforderungen an KI-gestützte Analytics-Tools in drei Punkten zusammen:
Transparenz: Die Software sollte es dem Benutzer ermöglichen, vollen Zugriff auf das zugrundeliegende Modell zu haben, das entweder zur Erstellung der Diagnosegeschichte bzw. der Vorhersage verwendet wurde. Das Modell sollte zudem exportierbar sein, damit ein Kunde eine unabhängige Validierung durchführen kann.
Erklärung: Das Modell sollte sich selbst in einer einfachen menschlichen Sprache erklären können. Zugleich sollte die Software eine Erklärung aller Faktoren liefern können, die zu einem bestimmten Ergebnis führten.
Verantwortlichkeit beim Einsatz von KI-Systemen: Ein Feedback-System sollte feststellen können, welche Empfehlungen zu welchen Maßnahmen geführt haben und ob die gewünschte Wirkung erzielt wurde. Zudem sollte die Software Funktionen enthalten, die vor Diskriminierung schützen und ermöglichen, dass bestimmte Kriterien wie z.B. Rasse, Geschlecht oder Wohnort nicht verwendet oder missbraucht werden können.

Tags

Das könnte Sie auch interessieren

Was meinen Sie dazu?

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Back to top button
Close