Künstliche Intelligenz: Smart und selbstlernend

Künstliche Intelligenz leistet Erstaunliches auf vielen verschiedenen Gebieten – von der Qualitätskontrolle in der Produktion bis zur Diagnose von Hautkrebs. Testen und Zertifizieren ist eine unbedingte Voraussetzung für den risikoarmen Betrieb der entsprechenden Systeme. Einem Unternehmen wie DEKRA kommt dabei eine Schlüsselrolle zu.

Starke KI ist noch Zukunftsmusik. Foto: Shutterstock/PopTika

Es klingt zunächst etwas mysteriös, wenn von Künstlicher Intelligenz (KI) die Rede ist. Schließlich umfasst der Begriff Technologien, die dafür sorgen, dass Maschinen menschenähnlich Aufgaben lösen können. So lautet zumindest eine vereinfachte Definition. Beim genauen Hinschauen lässt sich dann aber feststellen, dass bei den aktuellen KI-Systemen von intellektuellen Fähigkeiten nicht die Rede sein kann. Solche so genannte starke KI ist noch Zukunftsmusik.

Schwache KI dagegen erobert zunehmend unseren Alltag. Dabei handelt es sich vor allem um selbstlernende Verfahren, die auf genau eine Aufgabe ausgerichtet sind. Die Systeme werden nicht wie klassische Software programmiert, sondern mit einer großen Menge an Daten trainiert. Im Einsatz lernen sie dann ständig hinzu.

Chatbots übernehmen Kommunikation mit Kunden

Solche Systeme leisten bereits Erstaunliches in vielen unterschiedlichen Anwendungen. Intelligente Chatbots beispielsweise übernehmen in Unternehmen die Kommunikation mit den Kunden. Wenn diese sich etwa beschweren oder ein Produkt umtauschen möchten, sprechen sie nicht mit einer Person aus Fleisch und Blut, sondern mit einem vorab trainierten Computerprogramm.

In Fertigungsunternehmen analysieren KI-Systeme Daten aus den Produktionsmaschinen, um Probleme frühzeitig zu erkennen. In seinem Münchner Werk erfasst zum Beispiel BMW Sensordaten von 600 Schweißzangen, mit denen Roboter im Karosseriebau arbeiten. Eine Software wertet die Daten mithilfe von KI kontinuierlich aus und meldet, wann ein Ausfall droht.

Machine Learning in der Qualitätskontrolle

Auch die Qualitätskontrolle setzt auf Machine Learning. Bei Fiat Chrysler China identifiziert ein KI-System mithilfe von Kameras defekte Baugruppen oder fehlenden Komponenten wie etwa kleine Schrauben, die für ein menschliches Auge schwer zu erkennen sind. Die entsprechenden Teile werden dann aussortiert. Auf ähnliche Weise arbeitet KI-Software in der Medizin. Dabei wird diese etwa mit Aufnahmen von Hautkrebs-Varianten gefüttert. Wenn die Zahl der Trainingsbilder groß genug ist, kann das System anschließend selbstständig entsprechende Diagnosen treffen. In einzelnen Studien und unter bestimmten Bedingungen konnte die KI dabei bessere Ergebnisse liefern als ein menschlicher Arzt.

Weiteres Einsatzgebiet für Künstliche Intelligenz ist das automatisierte Fahren. Je mehr Aufgaben hier die Maschine dem Menschen abnehmen soll, desto höher der Einsatzgrad der KI. In diesem Fall zeigen sich aber auch die Grenzen der entsprechenden Lösungen. Beim automatisierten Fahren sind Anforderungen an KI-Systeme deutlich höher als zum Beispiel in der Qualitätssicherung in einem Produktionsunternehmen. Eine Kamera, die zur Kontrolle auf ein Produkt ausgerichtet ist, arbeitet in der Regel unter Bedingungen, die sich nicht verändern. Im Gegensatz dazu ist der Verkehr in einer Innenstadt sehr komplex. Ein Fahrzeug kann in Situationen geraten, die nicht vorhersehbar sind.

DEKRA beim Thema KI in einer Schlüsselrolle

Gerade das Anwendungsfeld Automatisiertes Fahren macht deutlich, wie wichtig die Überprüfung von KI ist. Entsprechende Systeme müssen getestet und zertifiziert werden, um sie ohne Risiko nutzen zu können. Das gilt für Assistenzsysteme im Fahrzeug genauso wie für Software, die Unternehmen bei der Auswahl von neuen Mitarbeitern unterstützt. Die EU arbeitet gerade an einem Rahmengesetz für den Einsatz von KI. Ein erster Entwurf des „Artificial Intelligence Act“, dem „Gesetz über Künstliche Intelligenz“ wurde im Frühjahr veröffentlicht und soll im Idealfall bis Ende 2022 in geltendes EU-Recht umgesetzt werden.

Dr. Tarek Besold sieht ein Unternehmen wie DEKRA beim Thema KI in einer Schlüsselrolle. Als vertrauenswürdige Partei könne es die Einhaltung von gemeinsamen Standards unterstützen und überprüfen. „Wir helfen bereits jetzt mit unserer Expertise aus der technischen Prüfung und den Anwendungsdomänen bei der Erstellung von technologischen Standards und Normen für KI. Sobald für KI-Systeme regulatorisch definierte Anforderungen bestehen, wird DEKRA deren Einhaltung als neutrale unabhängige Stelle dann auch testen und zertifizieren“, so Dr. Besold, Head of Strategic AI bei DEKRA DIGITAL.

KI-Hub als Anlaufpunkt für Initiativen

Daneben beschäftigt sich DEKRA aber auch damit, die Möglichkeiten der KI selbst zu nutzen – etwa um bestehende Produkte und Services weiterzuentwickeln. „Von automatisch erstellten Untersuchungsberichten bis hin zu smarten kamerabasierten Prüfwerkzeugen ist vieles denkbar, sagt Dr. Xavier Valero, Head of Applied AI bei DEKRA DIGITAL.

Um das Thema – konzernweit und bereichsübergreifend – voranzutreiben, hat DEKRA den KI-Hub gegründet. Dieser soll als Anlaufpunkt für KI-Initiativen innerhalb der Organisation dienen, die Umsetzung von entsprechenden Projekten unterstützen und DEKRA als Teilnehmer im nationalen und internationalen KI-Ökosystem etablieren. Auf diese Weise wird DEKRA auch dazu beitragen, dass KI nicht mehr ganz so mysteriös erscheint, sondern transparent, sicher und zuverlässig arbeitet.

Drei Fragen an Dr. Tarek Besold, Leiter des KI-Hubs DEKRA DIGITAL

Dr. Tarek Besold ist Leiter des KI-Hubs DEKRA DIGITAL. Foto: DEKRA

Herr Besold, nach welchen Kriterien wird ein KI-System geprüft?

Das sind zunächst klassische Kriterien wie die funktionale Sicherheit und Cyber Security, die weiterhin relevant bleiben. Darüber hinaus ist zu prüfen, ob ein KI-System diskriminierungsfrei arbeitet. Das wird momentan auf europäischer Ebene diskutiert. Bei vielen KI-Anwendungen wird ja Entscheidungsfindung automatisiert – in der Medizin genauso wie etwa bei der Kreditvergabe durch eine Bank. Dabei muss sichergestellt sein, dass die Ergebnisse beispielsweise nicht von der ethnischen Herkunft, dem Geschlecht oder der sexuellen Orientierung des jeweiligen Menschen beeinflusst werden.

Ist die Tatsache, dass KI-Systeme ständig hinzulernen und sich somit permanent weiterentwickeln, eine Herausforderung bei der Prüfung?

Es wird notwendig sein, KI-Systeme fortlaufend zu testen. Wir beschäftigen uns bereits intern mit entsprechenden Szenarien, die ein sogenanntes „Permanent Monitoring“ notwendig machen. Das ist eine große Herausforderung. Denn beim maschinellen Lernen gibt es ja keine expliziten Regeln in den Systemen, sondern normalerweise nur statistische Verhältnisse. Wie ein System sich verändert hat, lässt sich nur am Ergebnis beurteilen. Somit ist es allein schon herausfordernd zu erkennen, wann der Zeitpunkt gekommen ist, dass es wieder überprüft werden muss.

Damit kommen wir zum Blackbox-Problem bei KI. Deren Entscheidungswege lassen sich nur schwer nachvollziehen.

Das ist richtig. Deswegen braucht man als Prüfer sowohl technisches KI-Knowhow als auch die Expertise aus der Anwendungsdomäne. Es wird dann vermutlich häufig auf Szenario-basiertes Testen hinauslaufen – also die Prüfung für den jeweiligen Einzelfall. Das Schöne an einer Organisation wie DEKRA ist, dass es bei uns ganz viel Erfahrung mit den jeweiligen Anwendungsdomänen gibt.

Verwandte Artikel
 
Magazin-Themen
 
Newsletter