Datenanalyse: Klar machen zum nächsten Level!
Die breite Nutzung von Analytics hat Unternehmen viele Vorteile gebracht, sie aber auch vor neue Herausforderungen gestellt. Zwei Anwendungsfälle illustrieren die Problematik und die dazugehörigen Lösungen.
Datenanalyse ist in den letzten Jahren dank der Verfügbarkeit von Produkten wie Qlik, Tableau oder Microsoft PowerBI demokratisiert worden. Sie ist nicht mehr ausschließlich eine Domäne von Experten und das Wissen über den Umgang mit Daten nimmt unter „normalen“ Wissensarbeitern in den Fachabteilungen kontinuierlich zu. Doch Analysesoftware zu benutzen, um bessere Entscheidungen treffen zu können, ist nur eine erste Voraussetzung in der Arbeit mit Daten.
In einem erweiterten Kontext geht es um Fragen wie:
→ Wie kann ich möglichst viele verschiedene Datenquellen für meine Analysen einbeziehen?
→ Wie kann ich große Datenmengen bereitstellen, sodass sie möglichst schnell und effizient zur Analyse verwendet werden können?
→ Wie kann ich wiederkehrende Entscheidungsmuster identifizieren und die daraus resultierenden Entscheidungen automatisieren?
→ Welche Mittel kann ich den Nutzern in den Fachbereichen an die Hand geben, damit sie die volle inhaltliche Kontrolle über diese Prozesse behalten und sie weiter verbessern können?
Das Backend wird zum Flaschenhals
Mit solchen Fragen kommen die Fachabteilungen auf die IT-Teams im Backend der Datenanalyse zu, und das wird langsam zum Problem. „Die Demokratisierung von Analytics hat einen Engpass im Backend geschaffen“, sagt Mathias Golombek, Chief Technology Officer des Datenbankspezialisten Exasol. Es gehe inzwischen um komplexere Projekte als um die einfache Erstellung von Reports und Dashboards. „Die Anfragen kommen aus der gesamten Organisation und das führt dazu, dass die Data Teams in der zentralen IT Land unter sind. Das muss sich die nächsten Jahre ändern.“
Dazu will freilich Golombeks Arbeitgeber ebenso beitragen wie eine Reihe anderer Spezialfirmen wie Alteryx, Informatica oder DataRobot. Diese gehen gezielt Themen wie Datenverfügbarkeit, Datenaufbereitung, Performance-Steigerung oder analysebasierte Prozessautomatisierung an. Ihre Produkte, ebenso wie die Tools etablierter Firmen wie SAS, SAP BusinessObjects oder IBM, stellen die Basis fürs nächste Level der Datenanalyse.
Das Kernprodukt von Exasol ist eine für Analytics optimierte Datenbank, die die Themen Datenverfügbarkeit und Performance angeht. Das Nürnberger Unternehmen ist das, was man hierzulande einen „Hidden Champion“ nennt. Seine Datenbank setzt sich regelmäßig gegen Platzhirsche wie Oracle, Microsoft oder Teradata durch, es zählt namhafte Firmen wie Adidas oder Otto zu seinen Kunden und wird von Marktexperten ebenso hoch gehandelt wie von Finanzanalysten, speziell nach seinem Börsengang im letzten Jahr.
Wie Online-Händler Otto seine Daten zähmt
Der Anwendungsfall beim Online-Händler Otto ist ein recht typischer für Exasol: Die Zahl der Datenquellen ebenso wie die Menge an Daten erreichten bei Otto irgendwann eine Größenordnung, die über die vorhandene Infrastruktur nicht mehr gehandhabt werden konnte. Die ursprüngliche Idee des dortigen IT-Teams war, die Exasol-Datenbank die Rolle eines „Access Layers“ spielen zu lassen, also einer hochverfügbaren Datenbasis zwischen der Analysesoftware und dem Data Warehouse, in dem alle zu analysierenden Daten gehalten werden. Darauf würden die Analysesysteme zugreifen, um schnell komplexe Analysen durchführen zu können.
Die Menge an Daten erreichte bei Otto eine Größenordnung, die kaum noch gehandhabt werden konnte.
Dank ihrer In-Memory-Technologie, bei der regelmäßig benötigte Daten direkt im Hauptspeicher gehalten und verarbeitet werden, war die Exasol-Datenbank für diesen Zweck prädestiniert. Doch bald stellte sich heraus, dass die Datenbank aufgrund ihrer Leistungsfähigkeit zugleich auch als Data Warehouse verwendet werden konnte. Damit hat Otto die Komplexität reduziert und zugleich Kosten gespart.
In der Praxis sieht es nun so aus, dass bei Bedarf tausende Nutzer gleichzeitig auf die Daten zugreifen können, ohne dass der Abfrage-Durchsatz unter der Zugriffslast leidet. Dass die Datenbank nicht zusammenbricht liegt mitunter daran, dass intelligente Algorithmen ihre Leistungsfähigkeit permanent überwachen, sodass ihre Konfiguration bei Bedarf automatisch angepasst werden kann – was dem IT-Team viel Administrationsaufwand abnimmt.
Routinearbeiten automatisieren
Noch um einiges komplexer war die Aufgabenstellung bei Siemens Energy. Da ca. ein Sechstel der weltweit erzeugten Elektrizität auf Siemens-Technologie basiert, erzeugen die Stromversorgungssysteme des Unternehmens Millionen von Datenpunkten. Die manuelle Verarbeitung und Analyse all dieser Daten, um die komplizierten Beziehungen zwischen Kunden und ihrem Energiebedarf besser zu verstehen, erforderte früher viel langwierige manuelle Routinearbeit. Im inzwischen sehr dynamischen Energiemarkt war das nicht unbedingt der richtige Weg, um auf sich ständig ändernde Marktanforderungen zu reagieren.
Doch allein die Datenanalyse zu beschleunigen, wäre in diesem Fall zu kurz gedacht. Nötig war vielmehr auch die Automatisierung aller Prozesse, bei welchen menschliche Arbeit und Intelligenz nicht unbedingt nötig sind. Siemens Energy machte das mithilfe der APA-Plattform (Analytic Process Automation) von Alteryx. Diese fungiert jetzt als zentrale Lösung für Self-Service-Datenanalyse und Prozessautomatisierung. In Kombination mit einer RPA-Lösung (Robotic Process Automation) von UiPath hat Siemens Energy die Automatisierung von Geschäftsprozessen erhöht und Analytics-Abläufe vereinfacht.
Erst Upskilling, dann Demokratisierung
„Die APA-Plattform ersetzt zeitaufwändige, wiederkehrende manuelle Prozesse, sodass sich jeder Mitarbeiter darauf konzentrieren kann, schneller tiefere Einblicke in vorhandene Daten zu erhalten“, erklärt Tom Becker, Regional Vice President Central Europe bei Alteryx. „Durch die Automatisierung der mehrstufigen Konsolidierung und Analyse von Kundendaten hat sich beispielsweise das Projekt-Reporting von über 20 Arbeitsstunden auf nur noch fünf Stunden verringert“. Datenmitarbeiter konnten so von stundenlangen manuellen Routineaufgaben befreit werden und können sich nun auf die digitale (Daten-)Transformation bei Siemens Energy konzentrieren.
Auch diese Aufgabe wird nun methodisch angegangen. „Zusammen mit Siemens Energy haben wir einen Plan erarbeitet, nach dem die Self-Service-Tools zur Datenanalyse allen Mitarbeitern zu Verfügung gestellt sollen“, sagt Becker. „Das passiert in drei Phasen. Die erste war eben die Automatisierung der Prozesse, um zeitliche Freiräume für die Mitarbeiter zu schaffen. Diese können sie in die zweite Phase investieren, nämlich die Aneignung von Fachkenntnissen im Umgang mit den neuen Tools. Dieses Upskilling wurde in ein Programm gegossen, das von der Belegschaft neben der Arbeit in zwei bis drei Monaten absolviert werden kann. Die letzte Phase ist schließlich die Demokratisierung der Datenanalyse, von der wir uns viele weitere positive Effekte versprechen.“