Ein aktuelles betriebliches Beispiel zeigt die Auswirkungen künstlicher Intelligenz (KI) auf die Beschäftigten: „Deutsche Bank testet KI zur Früherkennung von Händler-Vergehen“, meldet bloomberg.com deutsche-bank-testet-ki-zur-fruherkennung-von-handler-vergehen).

Die Technik soll automatisiert im Aktien-Handel mögliche Anzeichen von Fehlverhalten der Beschäftigten frühzeitig erkennen. Mit dieser Überwachung soll etwa der Tonfall von Angestellten analysiert werden. Die Frankfurter Bank prüft das maschinelle Lernen von Google Cloud als Teil einer umfassenderen Erkundung der Einsatzmöglichkeiten von KI, sagte Technikvorstand Bernd Leukert im Interview von Bloomberg News.

Die Effizienz der bereits eingesetzten Überwachung der eigenen Mitarbeiter zu erhöhen, ist ein großes Thema für Banken weltweit. So könne das Unternehmens „eine viel bessere Kontrolle ausüben”. Das neue System soll in der Lage sein, zu erkennen, ob ein Händler, der „Das bleibt unter uns“ sagt, dabei über harmlose Themen spricht, oder ob es aus Unternehmersicht um  illegale Planungen geht, so Leukert.

Der Vorstand stellt dies als Element einer Compliance-Regelung dar und nutzt Kontroll-Instrumente, die bisher nur aus Call-Centern bekannt sind. Es geht etwa um  ACD, eine Automatic-Call-Distributor-Software, die nicht nur eingehende Anrufe verteilt. Die Dokumentation und Verwaltung von Beschäftigten- und Kundendaten erfolgt über ACD- und Workflow-Management-Systeme. Voraussetzung ist eine Datenbank, über die Daten der Kunden und einzelne Arbeitsschritte der Beschäftigten ausgewertet werden. Mussten früher eingehende Briefe noch gescannt werden, erfolgt die Kommunikation heute meist über Internet. Dies erleichtert Unternehmen, Beschäftigte unter Druck zu setzen, bis hin zu innerbetrieblichem „Benchmarking“. So müssen sich die Angestellten rechtfertigen, warum ein Telefonat eine bestimmte Dauer überschritten hat oder in einem anderen Team die Kundenanfragen viel schneller bearbeitet werden.

Vor diesen Entwicklungen warnt tbs NRW, die Technologie-Beratungsstelle des DGB, seit längerem (www.tbs-nrw.de). In Bereichen mit Kundenkontakt können die Arbeiter nicht mehr entscheiden, welche Arbeitsvorgänge sie übernehmen. Stattdessen verteilen intelligente Telefonanlagen (ACD) und Workflowsysteme die Arbeit. Mithilfe von KI und Algorithmen soll der Arbeitsanfall und das Kundenverhalten prognostiziert und stundentaktgenaue Vorgaben des Arbeitsvolumens ermittelt werden, um Personalkapazitäten und die Verteilung der Arbeitszeiten bis hin zur Lage der Pausen vorschreiben zu können.  Die Folge sind standardisierte Prozesse, d.h. die konkrete Vorgabe von Arbeitsschritten für Bildschirmarbeitsplätze. „Routinetätigkeiten können und müssen standardisiert beziehungsweise automatisiert werden“, lautet oft die Vorgabe des Managements. Der Geschäftsprozess beginnt mit der Kundenanfrage und reicht bis zur Feststellung der Kundenzufriedenheit. Gemessen werden etwa die Bearbeitungsdauer, Gesprächsdauer, Wartezeiten oder Antwortzeiten. Auf dieser Basis werden die Prozesse ständig gemessen, standardisiert und die Beschäftigten durch Zeitvorgaben kontrolliert.

Die Antidiskriminierungsbeauftragte des Bundes, Ferda Ataman, warnt vor weiteren Fehlentwicklungen. Sie fordert gesetzliche Regelungen zum Schutz vor Diskriminierung durch neue Technik. „Digitalisierung, künstliche Intelligenz und Algorithmen machen vieles leichter – leider auch Diskriminierung“, so die Beauftragte. (www.migazin.de/2023/08/30/ataman-gesetz-sollte-vor-digitaler-diskriminierung-schuetzen)

Ein Beispiel aus den Niederlanden zeigt, was passieren kann. Dort wurden Ataman zufolge 20.000 Eltern zu Unrecht und unter Strafandrohungen aufgefordert, Kindergeld zurückzuzahlen. Mitverantwortlich war ein diskriminierender Algorithmus in der Software – die Betroffen waren vor allem Eltern mit Migrationshintergrund. Sie wurden als Betrüger dargestellt und sollten teils Zehntausende von Euro zurückzahlen.

Die Bundesregierung müsse die geplante Reform des Allgemeinen Gleichbehandlungsgesetzes (AGG) nutzen, um Menschen vor den Gefahren digitaler Diskriminierung zu schützen, so die Regierungsbeauftragte.