Künstliche Intelligenz im Unternehmen betrifft Arbeitgeber und Arbeitnehmer. Was muss man beachten?

Eine Kolumne
Diese Kolumne stellt die Sicht von Rolf Schwartmann dar. Informieren Sie sich, wie unsere Redaktion mit Meinungen in Texten umgeht.

Kollege Chatbot muss kein Jobkiller werden. Zu diesem Ergebnis kommt die Internationale Arbeitsorganisation (ILO). In einer Studie (PDF zum Herunterladen) zu "Generative KI und Arbeitsplätze" analysiert die Sonderorganisation der Vereinten Nationen, wie sich die neue Technik auf den Umfang und die qualitative Ausgestaltung von Arbeitsplätzen auswirkt. Der Fokus liegt dabei auf sozialer Gerechtigkeit und guten Arbeitsbedingungen. Das Ergebnis: Durch generative Künstliche Intelligenz (KI) werde es eher zu einer Ergänzung der Möglichkeiten in der Arbeitswelt kommen, weil Tätigkeiten zwar automatisiert, aber letztlich nicht von Computern übernommen würden.

Mehr zum Thema Digitales

Frauen von Auswirkungen mehr betroffen

Grundsätzlich sei jedoch auf geschlechterspezifische Auswirkungen zu achten. So hält die ILO den Anteil der betroffenen Frauen für über doppelt so hoch wie bei Männern. Erstere seien überproportional in Jobs eingesetzt, in denen KI eine zunehmend wichtige Rolle spiele.

Für wirtschaftlich weniger entwickelte Staaten sieht die ILO bei entsprechenden politischen Rahmenbedingungen die Möglichkeit, Boden gutzumachen. Insgesamt hält die Organisation aber auch einschneidende negative Auswirkungen für möglich und rät den Regierungen, für einen fairen und geordneten Übergang in das neue Zeitalter zu sorgen. Sie sollen ihren Bürgerinnen und Bürgern beratend zur Seite zu stehen und dabei Mitsprache der Beschäftigten, Fortbildung sowie angemessene Sozialstandards wahren.

Sozialverträglichkeit ist wichtig

Es geht also darum, die Beschäftigten mitzunehmen und im Dialog die Arbeitsqualität und den Wohlstand im Einklang mit dem Fortschritt zu fördern. Kaum jemand dürfte dem widersprechen. Aber was bedeutet das konkret? Unternehmen müssen zunächst gut abwägen, ob und in welchem Kontext und zu welchen Zwecken sie welche Form der Künstlichen Intelligenz einsetzen.

Es gibt Beispiele. Die Drogeriemarktkette DM hat eine generative KI in Gestalt eines Sprachmodells wie ChatGPT für die Beschäftigten eingeführt. Die Anwendung fußt auf ChatGPT. Sie nutzt aber insbesondere aus Gründen des Datenschutzes ausschließlich die unternehmenseigene Cloud-Infrastruktur. So schützt man die Beschäftigten und vermeidet, dass Daten in die Hände von Open AI geraten, wo man nicht für deren datenschutzkonforme Verwendung garantieren kann. Auch das Abgreifen von Unternehmensinterna oder Geschäftsgeheimnissen werden so unterbunden.

Lesen Sie auch: KI in der Reisebranche – Zukunftschance statt Existenzangst

Es kommt auf die Einsatzzwecke der KI an

Auch die Unternehmensberatung McKinsey und Robert Bosch wollen KI einsetzen. Dort will man aber ein Modell mit eigenen Daten der Unternehmen trainieren. Bosch arbeitet dafür mit Aleph Alpha zusammen. Dieses Start-up aus Heidelberg hat sich auf KI-Systeme spezialisiert, die Arbeit mit Unternehmensdatenbanken künftig per Sprachdialog mit dem Computer ermöglichen soll. Wie ist der Produktionsstand bei Produkt X am Standort Y und wie kann man einen damit verbundenen Prozess am Standort Y optimieren?

Als Unternehmen sollte man mit der Zeit gehen und die Möglichkeiten der Digitalisierung nutzen, um wettbewerbsfähig zu bleiben. Die Frage nach der Datenbasis und Anwendung muss man, wie die genannten Unternehmen, gut überlegen.

Welche Daten nutzt man?

Beschränkt man sich auf interne Daten oder greift man auch auf externe Daten zu? Wählt man eine europäische, amerikanische oder chinesische Datenbasis, oder seine eigene? Ist man in Risikobereichen tätig und geht es etwa um Personalfragen, Bildung, Gesundheit oder Rechtspflege oder nur "Spielereien" im privaten Bereich? Hat man es mit Mustererkennung oder mit echter KI zu tun? Geht es um reine Assistenz der KI oder um Maschinenentscheidungen mit einer eigenen Bewertung durch die Maschine?

Es geht aber nicht nur um die Datenbasis, sondern auch um Anwendungskompetenz am Arbeitsplatz. Wie stellt man als Unternehmen sicher, dass Beschäftigte alles wirksam überprüfen, damit sie die Stopp-Taste drücken können, wenn eine Maschine (vor)entschieden hat? Wie erzeugt man zudem Sensibilität von Beschäftigten gegenüber Gefahren der KI? Wie behält das Unternehmen faktisch die Verantwortung für das, was in seinem Verantwortungsbereich geschieht?

Was macht man, wenn die Beschäftigten und die Betriebsräte ein anderes Verständnis von der Verantwortung haben und den Dienst unter KI-Einsatz verweigern? Wie geht man damit um, wenn man von Beschäftigen und/oder Kunden verklagt wird, weil sich Risiken realisieren, die man vorschnell, etwa durch den unbedarften Einsatz von Sprachmodellen wie ChatGPT, eingegangen ist?

Was sagt das Datenschutzrecht?

Hier kommt auch die Datenschutz-Grundverordnung (DSGVO) ins Spiel. Sie enthält ein grundsätzliches Verbot der abschließenden Maschinenentscheidung, das schon jetzt und unterhalb der Schwelle von "echter KI" anwendbar ist, deren Rechtsrahmen gerade in der EU verhandelt wird. Über die Reichweite der Maschinenentscheidung nach der DSGVO muss der EuGH aktuell anhand des Schufa-Scores entscheiden.

Zudem schreibt die DSGVO für den Einsatz riskanter Technik, wie generativer KI, eine sogenannte Datenschutzfolgenabschätzung vor. Sie soll datenschutzrechtliche Risiken identifizieren und vermeiden helfen. Je komplexer und intransparenter die Technik, desto schwerer wird es, den Schutz zu gewährleisten.

Dabei muss man sich mit Blick auf die Transparenz der Funktionsweise von Künstlicher Intelligenz vor Augen führen, dass man nur die Spielräume und Parameter des zulässigen Einsatzes von KI in einem bestimmten Kontext erklären kann. Die konkreten Gründe der "Entscheidungen" von komplexer KI in Form sogenannter tiefer neuronaler Netzwerke sind technisch bedingt intransparent. Da hilft es auch nur bedingt, wenn man Python lernt, die "Sprache der Maschinen".

Die KI-Verordnung soll einen weiteren Rahmen schaffen

Die Anforderungen der DSGVO auch mit Blick auf rechtmäßige Datenverarbeitung, Transparenz, Betroffenenrechte und Datensicherheit in der unternehmerischen Praxis umzusetzen, ist also eine Herausforderung, die ganz unabhängig von der gerade in der EU entstehenden KI-Verordnung besteht.

Diese soll bis zum Jahresende vorliegen und wird zusätzlich zur DSGVO gelten. Der aktuelle Entwurf der KI-Verordnung enthält kluge Ansätze. Wenn sie die richtige Balance zwischen Verantwortung und Offenheit für die Möglichkeiten von KI findet, können wir hoffen, dass Europas Bürger und die Wirtschaft davon profitieren.

Verwendete Quellen:

  • International Labour Organization: Generative AI and Jobs: A global analysis of potential effects on job quantity and quality
  • heise.de: ILO-Studie: KI wird Jobs eher ergänzen als vernichten
  • newsroom.dm.de: Künstliche Intelligenz bei dm: Start von dmGPT als unternehmenseigener KI-Chatbot für Mitarbeiterinnen und Mitarbeiter im dialogicum
  • background.tagesspiegel.de: KI in der Wirtschaft: Zwischen Skepsis und Enthusiasmus (kostenpflichtiger Inhalt).
  • handelsblatt.de: Bosch plant eigene KI für seine Mitarbeiter
"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei unserer Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.
JTI zertifiziert JTI zertifiziert

"So arbeitet die Redaktion" informiert Sie, wann und worüber wir berichten, wie wir mit Fehlern umgehen und woher unsere Inhalte stammen. Bei der Berichterstattung halten wir uns an die Richtlinien der Journalism Trust Initiative.