Arbeiten mit Künstlicher Intelligenz: Wer ist denn nun der Chef?
Je mehr KI-Systeme im Leben und in der Arbeitswelt ankommen, um so mehr fragt man sich: Wie begegnen sich Mensch und Maschine in Zukunft? Das Verhältnis ist noch völlig ungeklärt und es braucht dringend Regeln. Die Diskussion darüber ist in vollem Gang.
„Beziehungsstatus Mensch/Maschine: Es ist kompliziert“
Wie selbstverständlich steht Alexa im Wohnzimmer und wir lassen uns von Chatbots Fragen beantworten. Sobald aber irgendetwas schiefläuft oder nicht im menschlichen Sinn, ist der Aufschrei groß: Ich kann mir doch von einem Roboter etwas diktieren lassen! Tatsächlich: Wer ist denn nun der Chef? Wenn der Einfluss von KI-Systemen auf Alltag und Arbeit weiter wächst und es derzeit auf eine irgendwie geartete Allianz hinauszulaufen scheint, muss es dann wie im gesellschaftlichen Leben unter Menschen auch ein Regelwerk geben, das die (Macht-)Verhältnisse zwischen Mensch und Maschine regelt? Der Ruf danach jedenfalls wird immer lauter.
Im Moment sieht die Situation allerdings so aus: Regeln, ja. Doch wofür genau? KI ist ein riesiges, unbeleuchtetes Feld. Auf der Agenda von Gremien, Hochschulen und Regierungen stehen Bereiche wie „Das Verhältnis Mensch und Maschine“, „Was darf KI können?“ und vor allem „Wann ist ein System eine künstliche Intelligenz?“. Wenn es ins Detail geht, werden Antworten rar. Man könnte sagen, „Beziehungsstatus Mensch/Maschine: Es ist kompliziert“.
KI-Regeln: Learning-by-Doing oder gesetzliches Fundament?
Rund um den Globus wird an der Definition, dem Umgang und einem Verhaltenskodex für die wachsende Zusammenarbeit von Mensch und Maschine gefeilt. Die Zeit drängt, denn obwohl weder alle möglichen Einsatzgebiete noch die Konsequenzen, die aus der wachsenden Datenflut erwachsen, bekannt sind, stehen Menschen in Fabrikhallen neben intelligenten Robotern, analysiert smarte Software, ob Bewerber für einen Job geeignet sind und tüfteln Autobauer an selbstfahrenden Autos. Chinesen und Amerikaner haben weniger Hemmungen, KI zu implementieren, ohne die Sache wirklich zu Ende gedacht zu haben, was im Übrigen auch nur schwer zu schaffen ist. Europäer hingegen feilen ewig am gesetzlichen Fundament – um festzustellen, dass der Einsatz von KI später ganz anders aussehen soll und wieder alles umgemodelt werden muss. Beides hat Vor- und Nachteile.
Die Bundesregierung jedenfalls präsentierte ein Eckpunkte-Papier zu KI, das das Dilemma in seiner Gänze offenbart. Da ist von Deutschland als „weltweit führendem Standort für KI“ die Rede, von einer „verantwortungsvollen und gemeinwohlorientierten Nutzung von KI“ oder von einer „menschen-zentrierten Entwicklung und Nutzung von KI-Anwendungen“. Was immer noch fehlt, ist eine Definition davon, was unter Künstlicher Intelligenz genau zu verstehen ist. Alle folgenden Ideen in dem Papier zur IT-Sicherheit sowie die ethischen Fragen müssten eigentlich darauf aufbauen. Stattdessen fragt das in Sachen KI federführende Forschungsministerium, ob Mensch und Maschine am Beginn einer wunderbaren Freundschaft stünden.
Kooperation statt Kontrolle
Nicht dass es einfach wäre, KI zu definieren. Schon garnicht, weil die Technologie sich schneller verändert als man den Begriff „Künstliche Intelligenz“ aussprechen kann. Und dennoch halten sich Gruppen in anderen Ländern damit nicht auf. Technik-affine und erfahrene IT-Standardisierungsgremien, Universitäten und Interessengruppen beschäftigen sich fast ausnahmslos damit, wie Mensch und Maschine in Zukunft nebeneinander existieren sollten.
Das Standardisierungsgremium IEEE, das IT-Technologien wie Ethernet, LAN und WLAN standardisiert hat, und das MIT Lab, ein Teilbereich der technischen Hochschule Massachusetts Institute of Technology, fassen unter dem Begriff „Extended Intelligence“, kurz CXI, alles zusammen, was mit KI im weitesten Sinn zu tun hat. Ihr Ziel: Den Einfluss von intelligenten Systemen zu diskutieren und daraus Prinzipien, Leitfäden und Best Practises zu definieren, an denen sich Organisationen, Regierungen, Entwickler und Nutzer weltweit orientieren könnten.
Eine ganzheitliche Evolution schließt die algorithmisierte Welt ein
Die Verantwortlichen sehen es als notwendig an, dem Fortschritt eine menschliche Note zu geben. Ihr Statement lautet: „Wachstum für die Zukunft der Menschheit sollte nicht nur mit Ideen für mehr Geschwindigkeit und Größe definiert werden, sondern als ganzheitliche Evolution unserer Spezies in Zusammenarbeit mit der Umwelt und Systemen, die die moderne, algorithmische Welt prägen.“ Ergo: Es geht nicht um Kontrolle, sondern Kooperation. Verschiedene Projekte sollen in nächster Zeit dafür sorgen, Regeln für den verantwortungsvollen Umgang mit der algorithmisierten Zukunft zu erarbeiten. Es gehe darum, Menschen zu begeistern, mit KI zu leben anstatt Angst davor zu haben, durch KI ersetzt oder zerstört zu werden, formulierte der Direktor des MIT Media Lab, Joi Ito, in einem Beitrag.
Ohne Menschen keine KI
Die Idee, das Verhältnis Mensch und Maschine bewege sich auf Augenhöhe, kommt nicht bei allen gut an. Dass KI einfach Arbeitsprozesse unterstützt, können viele Menschen noch verstehen. Dass man sich aber arrangieren oder gar partnerschaftlich agieren müsse, damit tun sich viele schwer. Immerhin ist es doch derzeit so, dass Menschen KI-Systeme meistens trainieren müssen, damit diese beispielsweise akkurat arbeiten. Auch wenn die Denkleistung von Robotern steigt, KI-Systeme sind auf menschlichen Input und humane Kontrolle angewiesen.
Noch, sagen einige jetzt. Um so wichtiger scheint es, Regeln zu definieren, die klare Formulierungen enthalten. US-Medien berichten von einer Industriegruppierung in Seattle, bestehend aus Cloud-Anbietern, großen Handelsketten, Start-ups sowie Fakultäten und angeführt vom Managed-Service-Dienstleister Avanade, die sich verpflichtet sieht, digitale Ethik in das Design, die Entwicklung und den Gebrauch von KI-Systemen zu bringen. „Einer Verfassung ähnlich“, sagte Florin Rotar, Chef der Digital-Market-Abteilung bei Avanade, gegenüber dem US-Magazin Informationweek.
Von einer Verfassung spricht auch Oren Etzioni. Er ist CEO des Allen Institute for Artificial Intelligence (AI2), das von Paul Allen 2014 gegründet wurde. Allen wiederum ist einer der Gründer von Microsoft. Der AI2-Chef beschreibt in der New York Times seine Gründe und die Idee für den Umgang mit KI-Systemen. „Die Sorge um den Einfluss von KI auf Waffen, Jobs und Privatsphäre sind berechtigt“, so Etzioni. Er schlägt drei simple Regeln vor, ohne freilich genau darunter subsumieren zu können.
- Alle Regeln für Menschen gelten auch für Maschinen: „Mein KI-System hat das getan“, darf keine Entschuldigung für gesetzeswidriges Verhalten sein.
- Maschinen müssen sich ausnahmslos als solche zu erkennen geben: Das gilt vor allem für Chatbots wie den kürzlich vorgestellten Google Duplex, dessen Sprechweise einem Menschen sehr nahe kommt.
- Ein KI-System darf keine Informationen über den Eigentümer preisgeben: Auch wenn Alexa, Cortana, Siri und Co. mithören können, darf davon nichts den privaten Raum verlassen.
Fazit:
Vielen dürfte die Idee einer „Verfassung“ zu weit gehen. Es würde dadurch angenommen, dass Mensch und Maschine gleichberechtigt sind, argumentieren sie. Davon könne derzeit aber keine Rede sein. Aktuell sind Roboter und smarte Assistenten tatsächlich eher digitale Nutztiere. Vor dem Hintergrund aber, dass KI-Systeme schon längst im Alltag und in der Arbeitswelt angekommen sind und dass die Systeme schnell smarter werden, darf hier nicht das Ende der Debatte sein.
Regeln, die das Verhältnis von Technologie und Mensch festschreiben, sind nach Ansicht von KI-Experten dringend notwendig. Deshalb ist es gut, wenn weltweit über Definition, Umgang und Ausgestaltung von KI diskutiert wird. Ergebnisse darf man aber so schnell nicht erwarten, schon garnicht weltweit einheitliche. Zu unterschiedlich sind Werte, Kulturen und Experimentierfreude in verschiedenen Kontinenten. Was Deutschland angeht, so hat die Bundesregierung mit ihrem Eckpunkte-Papier das Thema immerhin auf die Agenda gesetzt. Das kann aber nur als Initialzündung für eine tiefergehende Debatte sein.