Künstliche Intelligenz mit Vorurteilen

2013 | RoboCup2013https://www.flickr.com/photos/robocup2013/, Flickr https://flic.kr/p/eWucN2 | CC BY 2.0https://creativecommons.org/licenses/by/2.0/

2013 | RoboCup2013, Flickr | CC BY 2.0

Künstliche Intelligenz KI verspricht Großes. Von einem „Digital-Gipfel-Event“ spricht das Bundeswirtschaftsministerium und berichtet von einem Treffen von Bundeskanzlerin Merkel mit Wissenschaftlern und Unternehmensvertretern.

Damit KI in der Breite Realität werde, müssen die Bürger „ihnen aber auch vertrauen. Beides voranzubringen – Technologieanwendungen und Vertrauen – ist zentral für die Wettbewerbsfähigkeit unseres Landes“, erklärt Bundeswirtschaftsminister Altmaier. So fördere die Regierung mit GAIA-X eine Dateninfrastruktur für „Datenanwendungen, KI und neue intelligente Services“.

KI „kann zum Wachstumsmotor für die deutsche Industrie werden“, berichtet McKinsey bereits vor der Pandemie von einer Studie. Selbstlernende Algorithmen werden demnach immer besser. „Lag die Fehlerrate bei computergestützter Bilderkennung 2010 noch bei 28%, waren es 2016 weniger als 5%; bei der Spracherkennung sank die Quote von 27% im Jahr 1997 auf 6%“.

Die Arbeitswelt stehe deshalb vor „dramatischen Veränderungen“. 2030 könnten 24 Prozent der Arbeitsstunden hierzulande wegfallen, schätzt die Unternehmensberatung. Bis zu einem Drittel aller Arbeitskräfte müssten sich neue Fähigkeiten aneignen oder eine Stelle in einer anderen Branche suchen, so die Unternehmensberater. Die KI-Entwicklung geht weiter voran und wird durch die Pandemie gestärkt, meldet acatech, die Deutsche Akademie der Technikwissenschaften: „Die Corona-Krise treibt den digitalen Wandel voran“ meldet acatech.

KI-Versprechen – kaum Realität

Nicht immer werden Versprechungen aber auch Realität. Gerade bei der Arbeitsplatzsuche wird KI gerne als Instrument zur Vermeidung von Benachteiligungen dargestellt. E-recruiting ist digital unterstützte Personalbeschaffung. Betriebe bieten die Bewerbung per Online-Portal an. Die Technik vermeide hier subjektive Entscheidungen von Personalchefs, ist ein häufig genanntes Argument pro KI.

Dem widerspricht jedoch Henning Wachsmuth vom Institut für Informatik der Universität Paderborn. „Auch eine KI kann mit Vorurteilen belastet sein“, berichtet der Informatiker von seiner aktuellen Forschungsarbeit in der Fachzeitschrift Computer und Arbeit[1]. In ein Suchprogramm können dabei Annahmen einfließen, die falsch oder diskriminierend sind. Schon heute werden Bewerbungen von Programmen vorsortiert. Die Gefahr ist groß, dass Personen, die durch dieses „Raster fallen“, gar keine Chance haben, zu einem Bewerbungsgespräch eingeladen zu werden. Etwa, da sie in einem Postleitzahlenbereich wohnen, der als problematisch hinterlegt ist. Da KI-Systemen Daten zur Verfügung gestellt werden, mit denen sie lernen sollen, erfolgt diese Auswahl durch Menschen.

KI-Programme suchen nach „Korrelationen zwischen Konzepten in Daten. Sie haben kein eigenes Verständnis davon, ob diese Korrelationen in Vorurteilen begründet sind, sondern nutzen einfach das aus, was sie analysieren können“, erläutert der Junior-Professor.

Auffallend sei dabei „Word Embeddings“. Es handelt sich um gängige Sprachrepräsentationen, die von KI auf Basis großer Datenmengen gelernt werden, um die Bedeutung von Texten verarbeitbar zu machen. Dabei kommt es etwa zu Benachteiligungen aufgrund des Geschlechtes, wenn Frauen „mehr mit Begriffen aus dem häuslichen Umfeld in Verbindung gebracht werden und Männer mehr mit beruflichen Kontexten“, so Wachsmuth. Es spreche vieles dafür, dass KI Vorurteile aus den Daten übernommen hat. Dies sei jedoch kein Automatismus. Werde die Auswahl Technik-Experten übertragen, die „kaum bezüglich der sozialen Perspektive geschult sind“, sei das Risiko, Vorurteile weiter zu pflegen, groß. Aufklärung sei bei der Realisierung wichtig. Es stelle sich jedoch die „generelle Frage, inwiefern KI-Algorithmen für Entscheidungsprozesse, bei denen es um Menschen geht, eingesetzt werden sollten“.

Mit der KI-Umsetzung in den Betrieben beschäftigt sich eine Untersuchung von acatech. „Nicht immer steht die Belegschaft KI-bedingten Veränderungen offen gegenüber“. Es sei die Befürchtung verbreitet, dass KI die Arbeit „zu sehr verändern oder ihnen gar streitig machen könnte“. Um gegenzusteuern sollen die Beschäftigten „frühzeitig in KI-Projekte integriert“ und bei der Umsetzung beteiligt werden. Und liefern eine weiteres KI-Versprechen: Dass durch KI „massenhaft Arbeitsplätze in der Sachbearbeitung wegfallen, sei ohnehin nicht belegt“, versucht acatech zu beruhigen.


[1] Computer und Arbeit 5/2021, S. 36ff