Zertifizierung zur Sicherstellung einer vertrauenswürdigen KI

Während Künstliche Intelligenz immer komplexere Aufgaben übernimmt und zunehmend autonom agiert, erfordert der Umgang mit der Technologie ein hohes Maß an Verantwortung. [...]

Ziel des Forschungsprojekts ist es, einen Prüfkatalog zu entwickeln, anhand dessen sachverständige Dritte eine Zertifizierung von KI-Systemen vornehmen können. (c) geralt – Pixabay
Ziel des Forschungsprojekts ist es, einen Prüfkatalog zu entwickeln, anhand dessen sachverständige Dritte eine Zertifizierung von KI-Systemen vornehmen können. (c) geralt – Pixabay

In seiner Vision für die künstliche Intelligenz legt Nordrhein-Westfalen (NRW) einen Schwerpunkt auf Ethik und eine menschen-zentrierte KI. Ein Ziel der Kompetenzplattform KI.NRW ist es daher, eine Zertifizierung für KI zu entwickeln, welche neben der Absicherung der technischen Zuverlässigkeit auch einen verantwortungsvollen Umgang mit der Technologie prüft. Hierzu leitet das Fraunhofer IAIS ein interdisziplinäres Forschungsteam mit Vertreterinnen und Vertretern aus Philosophie, Recht, Wirtschaft und Politik, um die Grundlagen für diese Zertifizierung zu erarbeiten. Dabei verzahnt das Team seine Kompetenzen mit der langjährigen Erfahrung des Bundesamtes für Sicherheit in der Informationstechnik (BSI).

Sachkundige und neutrale Prüfung von KI-Applikationen

KI-Anwendungen beruhen oft auf riesigen Datenmengen und dem Einsatz hochkomplexer mathematischer Verfahren. Für Anwender ist es in der Praxis schwierig zu überprüfen, inwiefern die zugesicherten Eigenschaften erfüllt werden. Eine KI-Zertifizierung, die auf einer sachkundigen und neutralen Prüfung beruht, schafft Vertrauen und Akzeptanz – sowohl bei Unternehmen als auch bei Nutzerinnen und Nutzern sowie gesellschaftlichen Akteuren. Solche Zertifikate bescheinigen zudem einen Qualitätsstandard, der es ermöglicht, KI-Systeme verschiedener Anbieter zu vergleichen und so den freien Wettbewerb in der KI zu fördern.

Entwicklung eines Prüfkatalogs

Ziel des Forschungsprojekts ist es, einen Prüfkatalog zu entwickeln, anhand dessen sachverständige Dritte eine Zertifizierung von KI-Systemen vornehmen können. Bei der Erstellung werden sowohl technische Qualitätskriterien wie Verlässlichkeit und Sicherheit als auch ethisch-moralische Kriterien wie Transparenz und Fairness hinreichend stark berücksichtigt.

Die Entwicklung des Prüfkatalogs wird auf bereits existierende Leitplanken wie zum Beispiel den Empfehlungen der »Datenethikkommission« der deutschen Bundesregierung oder der „High Level Expert Group on AI“ der Europäischen Union aufgebaut. Daneben sollen regulatorische Lücken identifiziert, transparent gemacht und durch freiwillige Prüfkriterien geschlossen werden. Ebenso werden Schnittstellen zu bestehenden IT-Prüfverfahren wie Datenschutz, IT-Sicherheit oder ITSM-Prozessen identifiziert.

„Künstliche Intelligenz ist so fundamental, dass sie die Wettbewerbsfähigkeit der deutschen Wirtschaft entscheidend beeinflussen wird und gleichzeitig große Chancen für Gesellschaft und unseren Alltag eröffnet. Im praktischen Einsatz müssen wir an die Künstliche Intelligenz selbstverständlich mindestens die gleichen Maßstäbe anlegen wie an den Menschen“, sagt Stefan Wrobel, Institutsleiter Fraunhofer IAIS.


Mehr Artikel

Be the first to comment

Leave a Reply

Your email address will not be published.


*