Digitale Sprachassistenten in der Arbeitswelt – und was sie dort tun können
Siri, Alexa oder Cortana sind bislang eher als intelligente Gadgets für den privaten Gebrauch aufgefallen. Für Unternehmen werden sie erst jetzt langsam interessant. Spätenstens seit IBMs „männlicher Helfer“ Watson Assistant die smarte Damenwelt von Siri & Co. aufmischt, bekommt man eine Ahnung davon, was alles möglich ist.
Alexa, frag Cortana, ob Google Assistant Siri aktivieren kann
Amazon, Microsoft, Apple, Google, IBM – aus unterschiedlichen Geschäftsrichtungen bahnen sich digitale Sprachassistenten ihren Weg in den privaten und beruflichen Alltag. Laut einer Untersuchung des Digitalverbands Bitkom nutzt bereits jeder achte Bundesbürger ab 18 Jahren (13 Prozent) einen intelligenten Lautsprecher mit digitalem Sprachassistenten wie Amazon Echo, Google Home oder Apple HomePod. Alexa arbeitet mit dem Hintergedanken, eCommerce-Umsatz zu machen, Cortana als klassische Assistentin für Büroaufgaben, Siri und Google Assistant, die Smartphone und Heimelektronik mit Sprachbefehlen steuern. Zuletzt Watson Assistant, der mit einem business-zentrierten Ansatz im März dieses Jahres an den Start ging. Noch ist der tatsächliche Mehrwert überschaubar. Doch mit immer intelligenteren KI-Systemen werden auch die Einsatzgebiete der digitalen Sparchassistenten wachsen.
Alexa for Business repräsentiert die klassische, persönliche Assistentin – noch
Alexa for Business machte den Anfang. Amazons Sprachsystem unterstützt Mitarbeiter am Arbeitsplatz. Die digitale Assistentin trägt Termine in den Kalender ein, erinnert den Mitarbeiter an ein Meeting und organisiert über den Zugriff auf das Raumbuchungs-Tool einen Konferenzraum. Alexa startet bei Meetings die Besprechung und ruft die Teilnehmer an. Und wenn es Probleme mit der IT gibt oder Büromaterial nachbestellt werden muss, ist Alexa eine Ansprechpartnerin, die an die richtigen Stellen weitervermittelt.
Seit Alexa und Microsofts Cortana zusammenarbeiten, steht der Amazon-Assistentin zudem die Tür zu Windows offen und damit der Zugriff auf Anwendungen wie Office oder Outlook. Cortana, die sich im Windows-Umfeld naturgemäß heimisch fühlt, kann im Gegenzug im Smart-Home-Bereich größer werden, aber das nur nebenbei. Allerdings muss Alexa erst Cortana kontaktieren, aufwecken sozusagen. Die Microsoft-Helferin übernimmt dann die Kommunikation mit den Windows-Anwendungen.
Siri hält sich im Business-Umfeld noch zurück. Apple hat aber seine Kooperation mit IBM erst im März dieses Jahres erweitert und angekündigt, Apple-Apps künftig mit dem KI-System Watson zu verknüpfen. Daraus ergeben sich ganz unterschiedliche Möglichkeiten: Außendienstmitarbeiter beispielsweise identifizieren mit Hilfe der iPhone-Kamera ein Produkt und lassen sich Wartungszyklen oder Probleme anzeigen, die in einer Datenbank hinterlegt sind. Oder: Mobile IBM-Anwendungen, die im Hintergrund auf Watson zugreifen, werden über Siri aktiviert und gesteuert.
Maßgeschneiderte, sprechende KI-Assistenten
Bei diesen Szenarien bräuchte Apple den Watson Assistant nicht, der 2017 im Business-Umfeld aktiv geworden ist. IBM hat den Sprachassistenten anders als andere Anbieter nicht in eine Hardware-Box gesteckt, die auf Befehl aktiviert wird, und er reagiert nicht auf einen Wake-up-Befehl à la „Hey Google“. Unternehmen sollen Watson Assistant als White-Label-Technologie direkt in ihre Geräte integrieren und ganz individuelle Kommandos erteilen können. Im Vordergrund steht bei IBM die Personalisierbarkeit. Kommando-Optionen sollen in jedes nur mögliche „Ding“ eingebaut werden können, wie IBM selbst bei der Vorstellung sagte.
Die Vorteile für Anwender: Die Sprachbefehle müssen keinem Schema folgen und basieren nicht auf Vorlagen von IBM. Zudem will der Hersteller Unternehmen unterstützen, mit Hilfe maßgeschneiderter Sprachtechnologie ganz neue Anwendungsfälle zu erschließen und KI-Systemen Aufgaben per Sprachbefehl erteilen. Vor allem Unternehmen, die im Zuge des digitalen Wandels mit KI-Systemen planen, werden sich zusätzlich der Sprachsteuerung einerseits widmen. Andererseits könnten Anwendungen entstehen, die im Zusammenhang mit Sprache noch effektiver werden.
IBMs Watson Assistant muss man sich als Stimme eines komplexen KI-Systems vorstellen. So steuert Watson zum Beispiel die IBM-Helferin „Josie Pepper“. Der Roboter wuselt am Münchner Flughafen herum und erklärt Passagieren, welches Gate sie nehmen müssen. Watson Assistent übernimmt den Sprachbefehl und gibt ihn an das KI-System weiter, das die Passagiernummer mit dem enstsprechenden Flug verknüpft und anschließend wieder an den Sprachassistenten zurückspielt.
Im US-Magazin Computerworld erzählt ein Analyst ein weiteres Beispiel: Eine Frau mit Schmerzen geht zum Arzt, der aber kann sich ihr Leiden nicht erklären. Als er die Symptome in Watson eingibt, hat der die Gründe für das Problem innerhalb von 15 Minuten identifiziert und der Assistant erläutert die Ergebnisse. Wenn Watson Assistant von Anfang an zugeschaltet wird, liegt die Diagnose noch schneller vor.
Watson Assistant muss man sich als Stimme des KI-Systems vorstellen
Amazon oder auch Google sind beim Maßschneidern noch nicht so weit. Zwar verfügt der Sprachservice von Amazon inzwischen über 45.000 so genannte Skills – Fähigkeiten, mit denen Nutzer ihr Gerät auf ihre Bedürfnisse ausrichten können –, doch das ist erst der Anfang. So hat Salesforce damit beispielsweise die Möglichkeit geschaffen, dass Kunden per Sprachbefehl auf die für Kundeninteraktion zuständige KI-Plattform des Herstellers zugreifen können. Und eine Marketing-Agentur schickt auf Nachfrage kleinen Unternehmen täglich Tipps zu Marketing-Trends.
Wann sprechen alle eine gemeinsame Sprache?
Die Skills – im Amazon-Kosmos gebaut mit dem Skills Kit, bei Google mit einem Software Developer Kit – sorgen für sprachliche Interaktion mit bestehenden Anwendungen und vorhandenen Inhalten. „Ohne einen Finger zu rühren“ könne man Systeme sprachsteuern, heißt es bei Amazon. Unternehmen, die selbst Routineaufgaben abgeben oder Kunden einen besonderen Service bieten möchten, können mit Alexa Prozesse vereinfachen oder angenehmer machen. Der Skill der Deutsche Tele Medien GmbH zum Beispiel findet Infos zu Unternehmen jeglicher Art und gibt Auskunft über Kontaktinformationen und Öffnungszeiten.
Amazon und Co. werden weiterhin daran arbeiten, digitale Sprachassistenten zur Kommunikationsschnittstelle zwischen Mensch und Maschine zu machen. Derzeit allerdings fürchten vor allem deutsche und europäische Unternehmen, ihrer Datenhoheit beraubt zu werden. Die gängigen Smart-Home-Lösungen von Echo bis Google Home gelten als äußerst neugierig und übermitteln Informationen an die Mutterkonzerne. IBM wirbt offensiv damit, dass alle Daten beim Kunden verbleiben und stellt die Privatsphäre in den Vordergrund.
Bei allen aktuellen und möglichwerweise noch aufkommenden Sprachassistenten wird den Anwender neben den Anwendungesgebieten und der Sicherheit vor allem interessieren: Muss ich mir alle Namen merken? Reden die auch miteinander oder muss ich mich für ein Ökosystem im Unternehmen entscheiden und gegebenenfalls auf Einsatzoptionen verzichten? Die Diskussion um die Interoperabilität hat gerade erst begonnen.
2 Kommentare