TÜV-Unternehmen gründen Entwicklungslabor für Künstliche Intelligenz (TÜV AI Lab)

Berlin, Starnberg, 19. Jan. 2021 - Ansätze für die Prüfung von KI-Applikationen; bietet Unterstützung für die Regulierung und Auditierung von sicherheitskritischen Anwendungen...

Zum Hintergrund: Die TÜV-Unternehmen haben ein Entwicklungslabor für Künstliche Intelligenz (KI) gegründet, um die Entwicklung von Standards für die Prüfung sicherheitskritischer KI-Anwendungen zu begleiten. „Das TÜV AI Lab wird einen wichtigen Beitrag dazu leisten, Künstliche Intelligenz sicherer zu machen und ihre Nutzung in sicherheitskritischen Bereichen zu ermöglichen“, sagte Dr. Dirk Stenkamp, Präsident des TÜV-Verbands (VdTÜV). Hierzu zählen beispielsweise automatisierte Fahrzeuge, Assistenzsysteme in der Medizin oder mobile Roboter. Darüber hinaus sollten KI-Systeme bestimmte Anforderungen erfüllen, wenn elementare Grundrechte wie Privatsphäre oder Gleichbehandlung in Gefahr sind.

Die EU-Kommission hat Vorschläge eines europäischen Rechtsrahmens für KI-Systeme in seinem Weißbuch Künstliche Intelligenz zusammengefasst. Demnach sollen künftig Sicherheitskriterien für „KI-Anwendungen mit hohem Risiko“ festgelegt werden. In der Wirtschaft gibt es nach Aussage der TÜV-Unternehmen jedenfalls eine breite Zustimmung für die Regulierung von KI. Laut einer repräsentativen TÜV-Studie sind 87 Prozent der Unternehmen ab 50 Mitarbeitern in Deutschland der Meinung, dass KI-Anwendungen in Abhängigkeit von ihrem Risiko reguliert werden sollten. (1)

  • Im „TÜV AI Lab“ werden KI-Expert:innen aus den TÜV-Organisationen an praktischen Prüfszenarien arbeiten. So könnten die KI-Prüfer:innen zum Beispiel ermitteln, wie sicher automatisierte Fahrzeuge mit KI–Systemen Personen, Verkehrszeichen oder bestimmte Hindernisse erkennen und darauf reagieren. Dabei spielen sowohl Performanz als auch Aspekte der Cybersecurity und der Robustheit von KI eine wichtige Rolle. Eine entsprechende Prüfung sollte in Zukunft Voraussetzung für die Zulassung neuer Fahrzeuge sein.

  • „Künstliche Intelligenz ist komplex und kann sich dynamisch verhalten“, so Dr. Dirk Schlesinger, Leiter des TÜV AI Labs. „Also können wir bestehende Prüfansätze nicht einfach übertragen, sondern müssen neue Testmethoden entwickeln.“ Dabei sollen auch die Daten Berücksichtigung finden, mit denen Algorithmen trainiert werden. Beispielsweise können die Trainingsdaten eines KI-Systems für die Personalauswahl zu einer Benachteiligung bestimmter Personengruppen führen, wenn die Daten nicht ausgewogen sind. Das TÜV AI Lab plant nach eigenen Angaben hierfür Kriterien zu entwickeln, wie die Eignung von Trainingsdaten für bestimmte KI-Anwendungen beurteilt werden kann.


Quelle: Photo by Markus Winkler on Unsplash


Einteilung von KI-Anwendungen in Risikoklassen

  • Ein weiteres Ziel des TÜV AI Labs ist nach vorliegenden Angaben die Entwicklung von Lösungsansätzen für die Einteilung von KI-Anwendungen in Risikoklassen. „Nicht alle KI-Systeme müssen die gleichen Anforderungen erfüllen“, sagte Schlesinger. Daher sollten KI-gestützte Systeme nach ihrem Gefährdungspotenzial reguliert werden. Die Anforderungen könnten von einem vollständigen Regulierungsverzicht über Transparenzpflichten und Zulassungsverfahren vor der Markteinführung bis zu einem Verbot besonders gefährlicher oder ethisch fragwürdiger KI-Anwendungen reichen.

  • Die EU-Kommission hat zwei Risikoklassen (niedriges und hohes Risiko) vorgeschlagen, während die Datenethikkommission der Bundesregierung für fünf Stufen plädiert. Schlesinger: „Die Frage ist, wie viele Risikoklassen tatsächlich sinnvoll sind und nach welchen Kriterien KI-Systeme den einzelnen Klassen in der Praxis zugeordnet werden können.“ Auch damit werde sich das TÜV AI Lab beschäftigen, das im ersten Quartal 2020 seine Arbeit aufnehmen wird.

Weitere Informationen

Positionspapier „Sicherheit KI-gestützter Anwendungen“ und die Studie „Künstliche Intelligenz in Unternehmen: Chancen nutzen – Risiken begegnen“ sind abrufbar unter diesem Link > http://www.vdtuev.de/digitalisierung/kuenstliche-intelligenz

Querverweis: