So lässt sich KI in Produkte und Arbeitsprozesse einbauen
Die Integration von KI-Funktionalität kann die Tätigkeit der Arbeitenden aufwerten, doch sie ist mit einer Reihe von Herausforderungen geknüpft. Software-Anbieter wie Exasol zeichnen einen gangbaren Weg vor.
Spätestens seit dem Siegeszug von ChatGPT gibt es kaum ein Unternehmen, dass nicht intensiv darüber nachdenkt, wie es Künstliche Intelligenz in seine Abläufe, Produkte und Services einbauen könnte. Denn dank der generativen KI sind nun die erzielbaren Vorteile in Sachen Produktivität für alle deutlich sichtbar geworden – vom Verfassen oder Zusammenfassen von Texten über das Analysieren und Strukturieren von Daten bis hin zu wesentlich anspruchsvolleren Aufgaben wie den direkten Kundenkontakt.
Implementierungsstrategie und Governance sind die großen Baustellen der KI-Integration.
Die Integration von KI-Funktionen ist allerdings eine anspruchsvolle Aufgabe, nicht nur wegen der zahlreichen unerwünschten Nebenwirkungen, wie man sie von Plattformen wie ChatGPT oder Google Gemini kennt. Die Herausforderung besteht auch darin, die richtigen Einsatzgebiete und die dafür passenden KI-Tools zu finden ebenso wie einen möglichst direkten Weg, die KI-Funktionen in die produktive Arbeitsabläufe zu integrieren.
Nicht in KI investieren ist keine Option
Diese Herausforderung spiegelt auch der letzte Woche veröffentlichte AI and Analytics Report wider, den Vanson Bourne im Auftrag von Exasol, eines Anbieters von Hochleistungsdatenbanken für Analytics-Anwendungen durchführte. Laut Umfrage erachten neun von zehn der 800 befragten Business- und Technologie-Entscheider KI als entscheidend für ihre Organisation in den nächsten zwei Jahren und mehr als zwei Drittel der deutschen Umfrageteilnehmer glauben, dass ausbleibende Investitionen in KI die Zukunftsfähigkeit ihres Unternehmens gefährdet.
Gleichzeitig stehen sie bei der Implementation der KI vor einer Reihe von Problemen. Neben der Unsicherheit in Bezug auf staatliche Vorschriften sehen knapp zwei Drittel der deutschen Befragten Governance als große Herausforderung für den Einsatz von KI und Machine Learning (ML). Als weitere Bremsklötze nannten 48 Prozent eine fehlende Implementierungsstrategie sowie Probleme bei der Integration in bestehende Systeme (46 Prozent). Dennoch planen 43 Prozent der deutschen Umfrageteilnehmer, ihre KI-Infrastruktur in den nächsten Jahren zu erweitern.
Datenexperten haben Hochkonjunktur
Doch bevor Unternehmen sich auf die Entwicklung eigener KI-Produkte einlassen oder Open-Source-Modelle mit eigenen Daten trainieren können, müssen sie eine Reihe von Voraussetzungen erfüllen. Neben der Etablierung einer effektiven Governance für alle aktiven KI-Komponenten gehört vor allem die Verfügbarkeit einer großen, möglichst homogenen Datenbasis zu den wichtigsten Aufgaben. Hinzu kommt der Aufbau von Kompetenz im Umgang mit Daten, um produktiv damit arbeiten zu können, sowie die Verfügbarkeit einer leistungsfähigen Dateninfrastruktur.
KI ist nur so effektiv wie die Tools und die Fähigkeiten der Mitarbeiter, die sie einsetzen.
Laut Exasol-Umfrage planen 56 Prozent der deutschen Unternehmen, in den nächsten zwei Jahren mehr in die Weiterbildung ihrer bestehenden Teams zu investieren. Zu den Berufen, für die in diesem Zeitraum der größte Zuwachs erwartet wird, gehören BI-/ Analytik-Entwickler (49 Prozent) Datenarchitekten/ Modellierer (46 Prozent) und Datenanalysten (45 Prozent). “KI ist für den Geschäftserfolg von entscheidender Bedeutung, aber sie ist nur so effektiv wie die Tools, die Technologie und die Mitarbeiter, die sie im Backend einsetzen”, sagt Jörg Tewes, CEO von Exasol.
Im großen Maßstab mit Daten experimentieren
Die oben erwähnten Voraussetzungen müssen alle Unternehmen schaffen, doch Software-Anbieter wie Exasol sind hier im Vorteil, weil die Arbeit mit Daten zu ihren Kernkompetenzen gehört. Es ist daher kaum verwunderlich, wenn sie zu den ersten gehören, die KI-Funktionalität in ihre Produkte einbauen. Im Fall von Exasol ist es zum Beispiel die Einführung von Produkten wie Espresso AI als Erweiterung seiner Query-Engine Espresso. Es handelt sich dabei um eine neue Suite integrierter KI-Funktionen und ML-Tools, die Anwenderunternehmen dabei unterstützen soll, Datenanalysen schneller, kosteneffizienter und flexibler durchzuführen.
Die Wahl von Espresso als Einsatzort der KI ist bewusst gewählt, weil sie an dieser Stelle einen echten Unterschied machen kann. Sie gibt laut Exasol Anwendern die Flexibilität, sofort im großen Maßstab mit neuen Technologien zu experimentieren, unabhängig von etwaigen Beschränkungen ihrer Infrastruktur – egal ob sich ihre Daten on-Premise, in der Cloud oder in einer hybriden Umgebung befinden.
„Gerade im Bereich Data Analytics bietet der Einsatz von KI riesiges Potenzial – nicht nur was die Geschwindigkeit angeht, sondern auch mit Blick auf zukünftige Anwendungsfälle wie etwa Predictive Maintenance“, sagt Mathias Golombek, Chief Technology Officer von Exasol. Denn obwohl fast alle (96 Prozent) der in der Exasol-Umfrage befragten Unternehmen durchschnittlich drei BI-Tools zur Beschleunigung von Datenauswertungen im Einsatz haben, klagen 69 Prozent der BI-Anwender über langsame Abfragegeschwindigkeiten. Und weitere 79 Prozent berichten, dass ihre Datenteams zu lange brauchen, um neue Analyseanforderungen zu implementieren.
Natürliche Sprache ebnet den Weg zur generativen KI
Durch den Einsatz der KI-Funktionen in Espresso können Datenteams die Performance ihrer Abfragen direkt in ihrer Datenbank maximieren, schneller optimierte KI-Modelle erstellen sowie ihre Interaktionen mit dem System zu vereinfachen – durch die Nutzung natürlicher Sprache. „Datenabfragen in natürlicher Sprache können, das ist spätestens seit dem Siegeszug von ChatGPT klar, generativer KI den Weg in die Unternehmen ebnen und ermöglichen es ihnen, sich datengesteuert aufzustellen“, sagt Golombek. „Anstatt für jede Frage zusätzliche Dashboards oder Berichte erstellen zu müssen, erhalten BI-Analysten so unkompliziert Zugriff auf Datenerkenntnisse. Durch intelligente Folgefragen leitet das Tool zudem die Datenexploration an und macht die Datenreise so zu einem spannenden und interaktiven Erlebnis für jeden Nutzer.“
„Unsere Studie beweist erneut, dass es eine erhebliche Lücke zwischen den aktuellen BI-Tools und ihrer Leistung gibt – mehr Tools bedeuten nicht unbedingt schnellere Leistung – ebenso wie mehr Daten nicht automatisch bessere Insights nach sich ziehen“, ergänzt Jörg Tewes. „Da sich die Unternehmen auf mehr Komplexität vorbereiten und mit weniger mehr erreichen sollen, müssen sie den Data Analytics Stack evaluieren, um Produktivität, Geschwindigkeit und Flexibilität zu gewährleisten – und das alles zu einem vernünftigen Preis.“