KI mit IQ

Künstliche Intelligenz und maschinelles Lernen sollen im Arbeitsalltag eine wertvolle Hilfe sein. Doch sie können auch Diskriminierungen und Vorurteile verstärken. Wer sie nutzt, muss deshalb um ihre Schwächen wissen.

Der Einsatz von KI darf nicht zum Nachteil Einzelner führen. Foto: Treety - istock photo

Der Einsatz von KI darf nicht zum Nachteil Einzelner führen. Foto: Treety – istock photo

Der Begriff ist in aller Munde, doch er weckt oft falsche Assoziationen: Künstliche Intelligenz (KI) ist etwas grundsätzlich anderes als menschliche Intelligenz. Maschinen werden auch in zehn, zwanzig Jahren kein Bewusstsein und keinen freien Willen haben. Dennoch leisten Computersysteme mit der Technik, die IT-Spezialisten präziser als Machine-Learning bezeichnen, schon heute Erstaunliches.

Was Maschinen anhand großer Mengen von Trainingsdaten lernen können, ist, Muster zu erkennen – Unterschiede oder Gemeinsamkeiten. Dabei sind die Fähigkeiten der Systeme in den letzten Jahren rapide gewachsen, insbesondere wenn das auf Datenanalysen basierende Maschinenlernen zum Deep Learning wird. Dann entwickeln die lernenden Algorithmen in sogenannten neuronalen Netzen selbstständig Entscheidungsräume, ohne dass für den Menschen von außen erkennbar würde, worauf die vom System getroffenen Entscheidungen beruhen.

Gerade am Anfang der KI-Entwicklung zählten vor allem Ergebnisse. Die Forscher waren froh, wenn der Computer eine Blume von einem Vogel unterscheiden konnte. Im nächsten Schritt ging es ihnen darum, eine Blume von einem Baum unterscheiden zu können und danach eine Buche von einer Linde. Ein paar Jahre später analysierte bereits die US-Reiseplattform Kayak mit KI Hotelfotos ihrer Kunden, um maschinell ermitteln zu können, ob ein Hotel etwa über ein Fitnesscenter oder einen Swimmingpool verfügt.

Menschliche Programmierer überwachen das Training der Lernsysteme. Foto: Treety - istock photo

Menschliche Programmierer überwachen das Training der Lernsysteme. Foto: Treety – istock photo

Heute liegen große Hoffnungen auf KI-Systemen für Herausforderungen wie Verkehrssteuerung, Logistikoptimierung oder autonomes Fahren. Die beliebten digitalen Sprachassistenten Alexa, ­Google Assistant oder Siri basieren in weiten Teilen auf maschinellem Lernen. Und auch bei medizinischen Anwendungen ist KI auf dem Vormarsch. So erzielen KI-Systeme bei der Suche nach Krankheitsindikatoren in Computertomografie- oder Röntgenbildern oft schon eine bessere Trefferquote als Ärzte. Bei der Krebsfrüherkennung leistet die maschinelle Mustererkennung schon Erstaunliches und dürfte binnen fünf bis zehn Jahren die Diagnosen so stark verbessern, dass die Heilungschancen betroffener Patienten erheblich steigen.

Qualitätssicherung mit KI

Auch in der Industrie und im Arbeitsalltag sind KI-Systeme längst angekommen. Maschinenhersteller wie Trumpf oder der Aufzugexperte Thyssen-Krupp setzen Machine-Learning für Predictive Maintenance ein. Datenanalysen liefern präzise Vorhersagen, wann etwa eine Fertigungsmaschine oder ein Aufzug voraussichtlich ausfallen wird, und ermöglichen dem Betreiber, ­rechtzeitig ­Wartungsmaßnahmen zu organisieren. IBM liefert Industrieunternehmen mit Visual Insights eine schlüsselfertige Lösung, die dem produzierenden Gewerbe bei der Qualitätssicherung hilft. Dazu analysiert eine KI-Bilderkennung die hergestellten Produkte direkt auf dem Fließband.

Doch der Einsatz von KI in der Arbeitswelt bleibt keineswegs auf Maschinen beschränkt – auch der arbeitende Mensch steht im Fokus der künstlichen Intelligenz. Das 2017 gegründete Start-up Motion Miners nutzt Wearables und externe ­Sensorik wie Positionierungs-Beacons sowie Machine-Learning, um die Bewegungen von Industriearbeitern zu analysieren. Zielsetzung ist es, ungesunde und ergonomisch nachteilige Körperhaltungen zu erkennen und zu vermeiden. Mitgründer Sascha ­Feldhorst erklärt, wie die Muster­erkennung sein Arbeitsgebiet revolutio­niert. „Künstliche Intelligenz ist klassischen Methoden der Prozessanalyse haushoch überlegen“, sagt er. „Wo wir früher mit dem Klemmbrett im Lauf eines Tages vielleicht zwei oder drei Mitarbeiter beobachten konnten, analysieren wir heute in derselben Zeit eine ganze Abteilung.“

Motion Miners betont, dass die Analysen anonymisiert erfolgen und nur dem Wohl der Mitarbeiter dienen sollen. Der Gefahr, dass die Daten­erfassung potenziell auch zur Überwachung und Leistungskontrolle eingesetzt werden könnte, wollen die Gründer und Entwickler bei Motion Miners aktiv entgegen­wirken.

KI-Anwendungen unterstützen Personal­verantwortliche beim Bewerbermanagement. Foto: Treety - istock photo

KI-Anwendungen unterstützen Personal­verantwortliche beim Bewerbermanagement. Foto: Treety – istock photo

Denn gerade im Arbeitsumfeld zeigt sich bei KI-Anwendungen regelmäßig: Was Unternehmen nützt, kann für die betroffenen Mitarbeiter durchaus problematische Folgen haben. So bieten beispielsweise mehrere Softwarefirmen KI-basierte Lösungen an, die Personalabteilungen bei der Vorauswahl eingehender Bewerbungen unterstützen. Was aus Sicht eines überlasteten HR-Sachbearbeiters, der sich 500 Eingangsbewerbungen gegenübersieht, segensreich sein mag, garantiert aber keineswegs ein faires Verfahren für jeden Bewerber. Diese Erfahrung musste jedenfalls Amazon machen, das bereits 2014 ein Verfahren testete, bei dem ein KI-System ein Ranking der eingegangenen Bewerbungen vornahm. Nach einiger Zeit fiel der Personalabteilung auf, dass das System Frauen systematisch benachteiligt hatte. Das eingesetzte Deep Learning kam zu dem Schluss, dass sich technikaffine ­Männer in der Mehrzahl stärker für das Unternehmen begeistern als weibliche Bewerber – und richtete seine Auswahl wohl vorrangig an diesem Faktor aus.

Frage der Transparenz

Das Beispiel illustriert ein großes Problem beim Einsatz von KI: Unternehmen und Personen, die davon Gebrauch machen, wissen nicht, auf welcher Basis das System Entscheidungen fällt. John Cohn beschäftigt sich seit über 40 Jahren mit künstlicher Intelligenz und erforscht heute bei IBM ihren Einsatz. Er warnt mit Nachdruck vor der fehlenden Transparenz vor allem beim Deep Learning. „Früher haben wir einen Code programmiert und konnten beobachten, was dieser Code tut. Wenn sich ein Problem ergab, konnten wir genau nachvollziehen, woran es liegt. Das funktioniert mit KI nicht mehr. Wir wissen heute nicht, warum Maschinen zu einer bestimmten Entscheidung gelangen.“ Da müsse man sich schon die Frage stellen, unter welchen Voraussetzungen diese Systeme beherrschbar seien.

Differenzierung der Begriffe

Künstliche Intelligenz (KI) ist ein Oberbegriff für technische Ansätze, die sich mit Wahrnehmen, Schlussfolgern, Lernen und Handeln beschäftigen. Maschinelles Lernen (ML) ist eine Teildisziplin der KI und beschreibt Methoden, die es Maschinen ermöglichen, selbstständig Wissen aus Erfahrungen zu generieren. Deep Learning (DL) beschreibt selbstlernende Systeme. DL basiert auf vielen Schichten künstlicher neuronaler Netze und ist ein Teilgebiet des ML (Quelle: NVIDIA).

Grafik: designed by Freepick

Grafik: designed by Freepik

Mittlerweile kennen KI-Experten viele Beispiele, bei denen Deep-Learning-­Systeme nicht wie erhofft die ­objektiv beste Entscheidung trafen, sondern schlicht menschliche Vorurteile abbildeten. Berühmt ist etwa das Exempel, bei dem ein Google-Bilderkennungsalgorithmus Menschen von Tieren unterscheiden sollte – und einige dunkelhäutige Testpersonen auf den Fotos als Gorillas klassifiziert wurden.

Was in diesem Fall noch plakativ auffiel, kann sich jedoch auch subtiler auswirken – und so der Beobachtung durch menschliche Programmierer oder Anwender entgehen. Diskriminierungen und Vorurteile schleichen sich nämlich schon beim Training der Lernsysteme ein. Das gilt für von Programmierern überwachtes Machine-Learning ebenso wie für das nach dem Blackbox-Prinzip ablaufende Deep Learning. IBM-Forscher John Cohn erklärt den Zusammenhang: „Die Datensätze, die zum Anlernen der Algorithmen dienen, sind in der Regel historische Daten. Bewusste oder unbewusste Diskriminierungen in der Vergangenheit verzerren dann die Mustererkennung ­beziehungsweise Entscheidungsprozesse.“ KI-Systeme würden Diskriminierungen und Vorurteile mit hoher Wahrscheinlichkeit sogar noch verstärken.

Automatisierte Entscheidungen

Beim Einsatz von KI-gestützten Systemen sollte der Mensch alles im Griff haben. Foto: Treety - istock photo

Beim Einsatz von KI-gestützten Systemen sollte der Mensch alles im Griff haben. Foto: Treety – istock photo

Vor diesem Hintergrund erscheint so manche KI-basierte Entscheidungsfindung problematisch. Etwa, wenn bei Banken eingesetzte Deep-Learning-Algorithmen die Kreditwürdigkeit von Kunden beurteilen – wie dies mit Scoring-Verfahren schon seit Jahrzehnten praktiziert wird, durch KI-Lösungen aber neue Dimensionen erhält. Oder wenn KI-basierte sogenannte Anti-Fraud-Systeme Versicherungsmitarbeiter bei der Erkennung möglicher Betrugsfälle unterstützen. Verschiedene Versicherungen setzen für den Kundenservice auf KI-basierte Sprachcomputer – und nehmen bei telefonischen Schadensmeldungen auf Basis von Rückfragen bereits eine erste Einschätzung zur Betrugswahrscheinlichkeit vor.

An solchen Beispielen zeigt sich besonders deutlich die dünne Trennlinie zwischen dem berechtigten Interesse von Unternehmen und der Allgemeinheit einerseits und der Gefahr andererseits, dass KI-Algorithmen falsche Entscheidungen zum Nachteil Einzelner treffen, die sich dagegen kaum wehren können. Organisierter Versicherungsbetrug ­kostet die europäischen Versicherer jährlich zweistellige Milliardensummen. Da feierte es die Branche verständlicherweise als Erfolg, als beispielsweise der französische Versicherungskonzern Axa mit KI einer Betrügerbande auf die Spur kam, die Kfz-Schäden mit Bildbearbeitungsprogrammen vorgegeben oder verschlimmert hatte. Besonders brutal war das Geschäftsmodell eines Betrügerclans in Sizilien: Bedürftigen wurden gegen Geldversprechen die Knochen gebrochen, und anschließend wurden fingierte Unfälle gemeldet, um bei den Versicherern abzukassieren. Als Analysesoftware in diesen Unfallmeldungen verdächtige Muster entdeckte, war bereits ein Schaden von zwei Millionen Euro entstanden.

Präventive Risikobewertung

Wie also umgehen mit den faszinierenden, aber ebenso problematischen Möglichkeiten lernender Maschinen? Claudia Nemat, Vorstand Innovation & Technik bei der Deutschen Telekom, sagt dazu: „Grundsätzlich dürften Algorithmen und Daten nie in der Hand einiger weniger sein – weder von machtvollen Technologiekonzernen noch Regierungen. Vielmehr müssen wir ein Verständnis dafür entwickeln, dass die Daten uns als Menschen gehören.“ Entscheidend sei zudem, dass die Anwender immer auch um die möglichen Schwächen von KI-Systemen wissen. Ralph Müller-Eiselt, Leiter der Arbeitsgruppe zu politischen Herausforderungen und Chancen in einer digitalisierten Welt der Bertelsmann-Stiftung, betont: „Je größer die potenziellen Auswirkungen automatisierter Entscheidungsfindung, desto wichtiger werden eine präventive Risikobewertung und eine umfassende Überprüfung der Ergebnisse.“ Das letzte Wort müsse immer der Mensch haben – und dabei den von Maschinen vorbereiteten Entscheidungen mit einer gesunden Portion Skepsis gegenüberstehen.

DEKRA und der Trainingsspezialist SoSafe fokussieren den Faktor Mensch in der IT-Sicherheit

Foto: DEKRA

Foto: DEKRA

Rund 90 Prozent der Angriffe mit Schadprogrammen erfolgten 2018 per E-Mail, so das Ergebnis einer Befragung des Bundesamts für Sicherheit in der Informationstechnik (BSI). Rund jede zehnte E-Mail mit Schadsoftware passiert ungehindert technische Barrieren wie Spamfilter oder Firewalls. Auch diese Zahlen zeigen: Maschinelle Systeme müssen immer durch kompetente Menschen ergänzt werden. Sie müssen die letzte Bastion sein, die verdächtige und gefährliche Nachrichten erkennt. Aus diesem Grund kooperieren die DEKRA Akademie und das auf Cybersicherheitstrainings spezialisierte Unternehmen SoSafe. Gemeinsam bieten sie Weiterbildungen an, die Mitarbeiter im Unternehmen für die Gefahren von Phishingmails und Social Engineering sensibilisieren. Das Sicherheits- und Awareness-­Programm trainiert Mitarbeiter dafür, mit ihren Entscheidungen und Maßnahmen die maschinell bereitgestellte Sicherheit zu ergänzen und zu verbessern. Die Kooperation bezieht sich zunächst auf den deutschsprachigen Raum, eine internationale Ausweitung ist geplant.

Verwandte Artikel
 
Magazin-Themen
 
Newsletter
 
 
- DEKRA solutions - Kundenmagazin