Was Künstliche Intelligenz in der Datenanalyse wirklich bedeutet
Die dritte Generation von Business Intelligence
Datenanalyse tritt in eine neue Phase ein, in der Künstliche Intelligenz eine tragende Rolle spielen wird. Doch wer analysiert dann die Daten wirklich – die KI oder der Mensch? Damit Nutzer das volle Potenzial aus ihren Daten schöpfen können, sind einige Voraussetzungen zu beachten.
Business Intelligence (BI) hilft, durch Erfassen, Speichern und Analysieren von Daten bessere Geschäftsentscheidungen zu treffen. So die Theorie. Doch in der Praxis gestaltet es sich oft schwierig, Daten in anwendbare Informationen umzuwandeln. Zu unterschiedlich sind die Anforderungen der Unternehmen, zu vielfältig die Datenquellen.
Data Analytics wird heute schon nicht mehr ohne den Faktor Mensch betrachtet. Doch es kommt besser.
Dabei haben die ersten beiden Generationen von BI bereits einige Schwierigkeiten überwunden: Zum Beispiel wurden die Datenanbindung oder die Big-Data-Fähigkeiten erweitert. Doch weder die erste noch die zweite Welle der BI-Lösungen schafften es, dem Anspruch aus der oben genannten BI-Theorie gerecht zu werden, sowie menschliche Wahrnehmung in den Analytics-Prozess einzubeziehen. Erst die dritte Generation erfüllt die Anforderungen: Künstliche Intelligenz und Machine Learning sind nicht länger Ersatz des Faktors Mensch, sondern dienen als Basis für dessen datengetriebene Entscheidungsfindung.
Was unterscheidet die dritte Generation von Business Intelligence von ihren Vorgängern? Wie hat sich BI weiterentwickelt? Blicken wir zurück und betrachten die drei Entwicklungsstufen einmal etwas genauer.
Entwicklung von BI: Es wird dezentralisiert
In der ersten Phase sammelten IT-Abteilungen die Daten zentral und werteten sie aus. Dies hatte zur Folge, dass die Erkenntnisse aus den Daten nicht für jeden zugänglich, sondern den IT-Experten vorbehalten waren. Wer an Informationen gelangen wollte, musste einen vielschichtigen Prozess über mehrere Anlaufstellen in Gang setzen. Ein Manager hatte in der Regel nicht das notwendige Fachwissen, sich selbst Antworten auf seine Fragen aus den Datenanalysen zu erschließen. Er musste sie deshalb an die Datenanalysten weitergeben, die als einzige im Unternehmen das entsprechende Know-how besaßen. Der Frage-Antwort-Prozess verlief dementsprechend langsam. Die wichtigen Einblicke in die Datenanalysen waren nur für einen Bruchteil der Belegschaft zugänglich.
Erst die dritte Analytics-Generation bezieht die kognitiven Fähigkeiten des Menschen mit ein.
Deshalb versuchte die zweite Generation, Data Analytics zu dezentralisieren und somit für eine breitere Zielgruppe, ohne notwendiges Fachwissen, verständlich zu machen. Die Reduzierung der Komplexität und die nutzerfreundliche Aufbereitung der Daten standen in dieser Phase im Mittelpunkt. Das Ergebnis war, dass intuitive und visuelle Möglichkeiten geschaffen wurden, um interaktiv datenbezogene Erkenntnisse für einen erweiterten Kreis von Mitarbeitern bereitzustellen. Somit waren die Bedingungen gegeben, neben den Data Scientists auch Power-Usern und Business Analysten datengetriebenes Arbeiten zu ermöglichen. Die Auflösung des Technologie-Stacks, also der technischen Basis für die Datenanalyse, bot die Grundlage für einen assoziativen Denkansatz, in dem Data Analytics nicht mehr ohne den Faktor Mensch betrachtet wird.
Erst mit der dritten Generation erreicht BI ihr Ziel
Damit war der erste Schritt hin zu einer Kultur, die den Self-Service-Gedanken von BI unterstreicht, getan. Doch erst die dritte Generation setzt diesen Ansatz konsequent um. Denn nun werden alle Infrastrukturhürden, die sich den Mitarbeitern zu einer unternehmensweiten Datenanalyse-Kultur in den Weg stellen, überwunden. Die kognitiven Fähigkeiten des Menschen im Umgang mit Daten und den daraus abzuleitenden Informationen werden damit neu in den Fokus gerückt. Dafür ist eine Erweiterung der technologischen Voraussetzungen nötig: Erst KI-basierte Systeme mit Cloud- und Multi-Cloud-Fähigkeiten sowie eine plattformbasierte Architektur ermöglichen eine Sicherung der Datenqualität und ein intuitives Durchforsten von Big-Data-Umgebungen.
Mehr Datenkompetenz bedeutet Demokratisierung, Augmented Intelligence und Integration
Drei Komponenten sind entscheidend, um Datenkompetenz in der Unternehmenskultur zu integrieren. Zum einen sollten die Daten dafür „demokratisiert“ werden: Das bedeutet, dass alle Anwender über regulierte Kataloge auf sämtliche Daten und Informationen zugreifen können – ganz unabhängig von Größe, Speicherort oder Datenquelle.
Die letzte Entscheidung obliegt dem Menschen
Zum anderen spielt Augmented Intelligence, also das Verständnis dafür, dass das volle Potenzial künstlicher Intelligenz erst durch den Faktor Mensch ausgeschöpft wird, eine tragende Rolle. Nach diesem Konzept werden Daten durch künstliche Intelligenz und maschinellem Lernen aufbereitet, Einsichten ermöglicht und auch Empfehlungen angestellt. Doch die Untersuchung der Informationen sowie die Entscheidungen, die anhand dieser Erkenntnisse getroffen werden, obliegen immer noch dem Anwender. Der große Unterschied zu den Vorgänger-Generationen ist aber, dass in der dritten Phase von BI, auch Mitarbeiter mit rudimentären Data Analytics-Kenntnissen die Daten ergründen können.
Die dritte Komponente ist die Integration von Datenanalyse in geschäftliche Anwendungen – kurz Embedded Analytics. Durch eine Architektur, die auf Microservices und Containerstrukturen baut, geht Embedded Analytics bis an die Peripherie und kann direkt in jeder Fachabteilung und auf jeder hierarchischen Ebene in das operative Geschäft eingebunden werden.
Fazit: Mit der dritten Generation hält Business Intelligence erstmalig, was sie verspricht. Sie versteht, anders als die Vorgängerphasen, dass erst eine dem Menschen zugängliche Datenanalyse Unternehmen tatsächlich hilft, erfolgreich datenbasierte Geschäftsentscheidungen zu treffen und somit den vollen Wert aus den Daten zu generieren.