Aktivieren Sie Ihre Daten! Ihr Business wird es Ihnen danken
Wertschöpfung durch Daten zu erzielen ist eine der Hauptaufgaben der Digitalisierung. Nur müssen die Daten hierfür genutzt und „aktiv unterwegs“ sein – in einem Tresor eingesperrt sind sie nur bedingt etwas wert.
Nach zwei turbulenten Corona-Jahren scheint 2022 ein Jahr der Konsolidierung und Optimierung zu werden. Nun gilt es, die digitalen Geschäftsmodelle hochzufahren, die dazugehörigen Geschäftsprozesse so effizient wie möglich zu gestalten und die bestmögliche Wertschöpfung aus den vorhandenen technischen Mitteln zu erzielen.
Das zumindest ist das Fazit einer aktuellen Studie von ThoughtLab unter 900 Top-Managern aus 13 Ländern, die der Plattform-Anbieter ServiceNow in Auftrag gegeben hat. Chris Bedi, CIO von ServiceNow, empfiehlt Unternehmen, das hierzu passende Betriebsmodell einzuführen. Dieses basiert auf den drei Säulen Information, Benutzerfreundlichkeit und Personalisierung.
Wenn Daten das neue Öl sind, sollten sie besser verwertet werden
Während sich Benutzerfreundlichkeit und Personalisierung eher auf die Umsetzung der digitalen Geschäftsmodelle beziehen, setzt „Information“ auf einer grundlegenderen Ebene an und ist herausfordernder: „Wenn Daten das neue Öl sind, müssen Unternehmen besser darin werden, ihre Daten bereitzustellen und zu monetarisieren“, so Bedi.
Diejenigen, die seiner Ansicht nach bisher den besten Job in Sachen Datennutzung geleistet haben, seien Streaming-Dienste wie Netflix oder Online-Händler wie Amazon. Immerhin verdanken die genannten Unternehmen mittlerweile einen großen Teil ihrer Popularität bzw. ihres Umsatzes den ausgeklügelten Personalisierungs- und Empfehlungsalgorithmen auf ihren Plattformen. „In vielen anderen Branchen sitzen aber Unternehmen auf jahrzehntelang archivierte Daten, die sie bisher nicht effektiv digitalisieren und verwerten konnten“, gibt Bedi zu bedenken. In einigen Fällen hätten Unternehmen laut Bedi sogar digitale Dienste entwickelt, die keine Möglichkeiten nutzen, um das Verhalten ihrer Kunden zu verstehen – eine vertane Chance.
Vierstufiger Plan zur Datenaktivierung
Bedis Beobachtung wird von TDWI, einem auf Daten spezialisierten Fortbildungs- und Marktforschungsinstitut, bestätigt. Demnach bleiben mehr als 80 Prozent der von Unternehmen generierten Daten ungenutzt. Dennoch gebe es Grund zur Zuversicht: „Die Situation wird sich in den nächsten drei Jahren drastisch ändern und ein Großteil dieser Daten wird zum Einsatz kommen“, schreibt Ryan Wilkinson, CTO des US-Flottenmanagement-Spezialisten IntelliShift, in einem Blogbeitrag für TDWI. Unternehmen empfiehlt einen vierstufigen Ansatz, um ihre Daten zu aktivieren:
- Zweck und Ziele definieren. Welche Erkenntnisse sollen aus den vorhandenen Daten gewonnen, welche Prozesse oder Geschäftsmodelle befähigt werden?
- Die Qualität der vorhandenen Daten evaluieren. Haben die Daten das Potenzial, die angestrebten Prozesse und Geschäftsmodelle zu unterstützen? Welche Art Daten fehlen noch?
- Die Verfügbarkeit der Daten sicherstellen. Die Daten sollten idealerweise über eine übersichtliche Anzahl gut zugänglicher Quellen in einem einheitlichen Format zur Weiterverarbeitung zur Verfügung stehen.
- Kreativ mit den Daten arbeiten. Sobald die Daten zur Verfügung stehen stellt man häufig fest, dass sie viel mehr Einsichten liefern und ein größeres Nutzungspotenzial bieten als ursprünglich gedacht – man muss es nur ausschöpfen. Nur braucht auch diese Arbeit Ressourcen, die vorher gesichert werden sollten.
Wo sollten die Daten lagern?
Bei der Umsetzung dürften die Punkte 3 und 4 die anspruchsvollsten sein. Um beispielsweise die Verfügbarkeit sicherzustellen, migrieren immer mehr Unternehmen die Daten, die sie aktiv in Geschäftsmodellen nutzen wollen, in die Cloud. Besonders unter dem Aspekt des einfachen Zugriffs von überall aus rechnet sich diese Vorgehensweise auch bei großen Datenmengen. So migrierte Daimler zum Beispiel 110 Terabyte an kritischen Daten in Microsofts Azure-Cloud und hat nun die fünffache Speicherkapazität bei 30 Prozent geringeren Kosten zur Verfügung, berichtet WANdisco, ein auf Datenmigrationen spezialisierter Dienstleister.
Dabei ist die Sache mit der „fünffachen Speicherkapazität“ nicht einmal übertrieben. „Cloud-Datenspeicherung ist inzwischen so günstig, dass die Unternehmen praktisch alles speichern“, erklärt Mathias Golombek, CTO des des Nürnberger Analytics-Spezialisten Exasol, dessen Datenbank für besonders schnelle Datenanalysen optimiert ist. Sind die Daten erst einmal in der Cloud, lassen sie sich nicht nur leichter auf ihr Potenzial hin evaluieren, sondern auch in digitale Services einbinden, auf die meist über das Internet zugegriffen wird.
Wir sind bei Operational Analytics angekommen
An diesem Punkt setzt auch Exasol SaaS an, das neue Angebot der Nürnberger, das die Exasol-Datenbank als Cloud-Service über die AWS-Cloud verfügbar macht. Golombek sieht das SaaS-Angebot als „Brücke, die Kunden ermöglicht, Analytics-Prozesse ohne Risiko, ohne Reibungsverluste und ohne Performance-Einbußen in die Cloud zu verlagern“. Den Bedarf dafür scheint auch AWS selbst als recht hoch einzuschätzen und sich einiges von der Kooperation mit Exasol zu versprechen. Immerhin wurde Exasol 2021 als „Technologiepartner des Jahres“ ausgezeichnet und wird im Rahmen des AWS Acceleration-Programms besonders gefördert.
Auch Mathias Golombek sieht die Exasol-Datenbank immer mehr als Teil der aktiven Nutzung von Daten im Business-Betrieb. „Bei Operational Analytics geht es nicht um Datenanalyse im klassischen Sinn von Business Intelligence, sondern um die Steuerung von Geschäftsanwendungen über Algorithmen“, erklärt er. „Die Analysen passen das Verhalten der Anwendung der jeweiligen Datenlage an. So etwas passiert zum Beispiel bei der dynamischen Preisgestaltung, wo je nach Angebot und Nachfrage der Preis eines Produkts verändert wird, um die Gewinnmarge zu optimieren.“
Dynamisch heißt vor allem schnell
Das Wort „dynamisch“ deutet bereits an, dass Performance hier eminent wichtig ist. Wenn ein Unternehmen zum Beispiel ein Produkt über eine Preisvergleichsseite wie check24.de anbietet, sollte das Angebot innerhalb von Millisekunden auf der Ergebnisseite verfügbar sein, und zwar zu einem wettbewerbsfähigen Preis. Solche Anwendungsfälle git es immer häufiger, sowohl im B2B- als auch im B2C-Sektor, und das ist auch mit ein Grund für den Optimismus von Exasol und AWS. Während die Exasol-Datenbank die Analysen beschleunigt, um beispielsweise das Verhalten eines Kunden während des Einkaufs zu verstehen und ihm das passende Angebot zu unterbreiten, sorgt AWS für die Verfügbarkeit und die flexible Skalierbarkeit der digitalen Dienste.
Trotz allen Optimismus weis Mathias Golombek jedoch auf zwei Herausforderungen hin, die auf dem Weg zur besseren Datenaktivierung genommen werden müssen. Die erste betrifft die Etablierung einer richtigen Datenkultur im Unternehmen, sodass Datennutzung für die Mitarbeitenden zur Selbstverständlichkeit wird.
Data Engineering als Königsdisziplin
Die zweite ist das sogenannte Data Engineering: „Hier geht es um Experten, die nicht einfach nur Daten analysieren, sondern die Daten in Aktion setzen, also die Datennutzung orchestrieren“, erklärt Mathias Golombek. „Davon gibt es bei weitem nicht genug im Vergleich zur Nachfrage und deswegen haben solche Projekte in Unternehmen meistens lange Vorlaufzeiten. Mitunter liegt dies daran, dass diese Art der Arbeit sehr komplex und vielseitig ist. Data Engineers müssen beispielsweise die richtigen Datenquellen anbinden, die Datenqualität sicherstellen, das passende Data Warehouse für die Analyse modellieren, die dazu passenden Reports und Dashboards bauen, etc. Sie müssen also die Anforderungen des Business technisch übersetzen und umsetzen.“
Das sei eine Riesenherausforderung, weswegen momentan neue Konzepte wie Data Mesh hoch im Kurs stehen. „Das sind organisatorische Ansätze, um dieses Problem zu lösen. Nach dem Data Mesh Konzept soll die Data Ownership, also die Datenhoheit, in die Fachbereiche eingebracht werden. Damit würden die Fachbereiche selbst ihre Daten verwalten. Exasol arbeitet momentan an einer Lösung, nach der die Fachbereiche ihre Data Warenhauses selbst bauen können, um diesen Flaschenhals zu eliminieren.“