Bei KI-Risiken besser nicht nur die EU fragen

In ihrem „Weißbuch Künstliche Intelligenz“ skizziert die Europäische Union, wie sie einen riskanten Einsatz der Technologie verhindern will. Das wirft Grundsatzfragen auf und bedeutet Konsequenzen für Unternehmen, die ein Weiterdenken verlangen. [...]

Peter Hanke ist Senior Director Germany, Austria & Switzerland bei NetApp (c) NetApp
Peter Hanke ist Senior Director Germany, Austria & Switzerland bei NetApp (c) NetApp

Künstliche Intelligenz (KI) revolutioniert Wirtschaft und Gesellschaft. Vorreiter sind die USA, während China rasant aufholt – und dazu bis 2030 gut 150 Milliarden US-Dollar investiert. Europa muss also aufpassen, nicht den Anschluss zu verlieren. In dem Sinn ist die Ankündigung zu verstehen, dass die EU nun 20 Milliarden Euro pro Jahr in die Zukunftstechnologie stecken will. So steht es in ihrem Weißbuch Künstliche Intelligenz, das die EU-Kommission letzten Mittwoch veröffentlicht hat. Die Summe sollen die EU, Mitgliedsstaaten und Unternehmen gemeinsam aufbringen – wie, das ist offen. Das KI-Weißbuch behandelt neben der Finanzierungs- noch einige weitere Grundsatzfragen, etwa zum Risiko eines KI-Einsatzes. Die EU äußert sich zu diesem Aspekt nur vage – und fordert damit geradezu zum Weiterdenken über die Risikominimierung auf, was die Voraussetzungen für eine sinnvolle KI-Anwendung sowie Ansatzpunkte für Unternehmen einschließen sollte.

Was sich die EU unter risikohafter KI und ihrer Regulierung vorstellt

In dem Weißbuch steht: Für das nötige Vertrauen sollen KI-Rechtsvorschriften sorgen, die den Risiken entsprechen, aber Innovationen nicht verhindern. Ein hohes Risiko sieht die EU in den Sektoren Gesundheitswesen, Verkehr, Polizei und Rechtssystem. Als kritisch wird eine KI-Lösung eingestuft, wenn bei dieser mit rechtlichen Auswirkungen, Lebensgefahr, Schäden oder Verletzungen zu rechnen ist. So führt das EU-Papier die Medizintechnik, automatisiertes Fahren und Entscheidungen über Sozialversicherungsleistungen als Beispiele für einen risikobehafteten Einsatz von KI auf. Generell kritisch bewertet die EU KI-gestützte Einstellungsverfahren.

Die EU fordert nun strenge Vorschriften, die Konformitätsprüfung, Kontrollen sowie Sanktionen regeln, damit „KI-Systeme mit hohem Risiko transparent sind, Rückverfolgbarkeit gegeben ist und unter der Kontrolle des Menschen stehen.“ Die Kommission argumentiert: „Behörden müssen KI-Systeme ebenso überprüfen können wie Kosmetika, Autos und Spielzeug.“ Andere KI-Anwendungen könnten freiwillig gekennzeichnet werden.

Vertrauen auf Regeln oder Akzeptieren von nicht reproduzierbaren Ergebnissen?

Weitergedacht bedeuten die Vorschriften beispielsweise für das Gesundheitswesen: Es dürfen nur Expertensysteme zum Einsatz kommen. Diese fällen Entscheidungen nach definierten Regeln. Dabei arbeiten sie transparent, erkennen jedoch keine Muster in Röntgenbildern und lernen nicht dazu. Anders sieht das bei KI-Anwendungen für maschinelles Lernen aus, die neuronale Netze verwenden. Ein Neuron wird hierbei als Funktion (Algorithmus) modelliert, einschließlich Input, Parameter und Output. Als Dateninput dienen Fotos, Texte, Zahlen, Videos oder Audiodateien. Diese trainieren das Modell, selbstständig Muster zu erkennen, bessere Ergebnisse zu liefern und letztendlich auch unbekannte Daten zu bewerten. Beim Lernen verändert sich die Gewichtung der Parameter und damit die Verknüpfungen im System – am Ende lässt sich nicht mehr nachvollziehen, wie ein Ergebnis zustande gekommen ist. Solange man Qualitätssicherung betreibt, ist das kein Problem. Allerdings fehlen bisher verbindliche Regeln.

Ein Ansatz wäre, ein zugelassenes Medizingerät, das neuronale Netze verwendet, im gut trainierten Originalzustand zu belassen. Ansonsten hängt es von den Fähigkeiten des medizinischen Fachpersonals ab, ob dieses das KI-System in der Bilderkennung besser oder eben schlechter macht. Vertraut ein Arzt seiner KI, interpretiert die Technik CT-, MRT- oder Echographie-Daten wesentlich schneller sowie präziser, was zu einer besseren Diagnose und Therapie führt. Das Lösen der Vertrauens- und Qualitätssicherungsfrage wird die Effizienz steigern – und zwar branchenübergreifend.

Ein sinnvoller KI-Einsatz verlangt eine solide Basis

Um erst gar nicht in Konflikt mit Datenschutz, Ethik und Verbraucherinteressen zu geraten, ist die Frage nach den Kriterien der Qualitätssicherung entscheidend für einen sinnvollen KI-Einsatz. Unternehmen aller Branchen stehen jedoch zunächst vor der Herausforderung, eine entsprechende Dateninfrastruktur zu etablieren. Das erfordert einen ganzheitlichen Denkansatz, der eine nahtlose Datenpipeline vom Entstehungsort der Daten bis ins Rechenzentrum oder in die Cloud garantiert. Unverzichtbar sind dabei eine hohe Datenqualität, ein intelligentes Datenmanagement sowie Möglichkeiten zur Erweiterbarkeit, da sich KI-Hardware und Cloud-Ansätze immer weiterentwickeln. Zu all dem bietet der Markt umfassende Lösungen. Rar hingegen sind Data Scientists und KI-Experten, weshalb es für viele Unternehmen schwierig wird, das nötige Know-how intern aufzubauen.

Politikvorlage aufgreifen und Unternehmensrisiken senken

In einer nachvollziehbaren Zertifizierung liegt der Schlüssel, um das nötige Vertrauen in KI-Systeme zu schaffen. Dabei sollte es nicht allein Aufgabe der Politik sein, die Kriterien für eine Zertifizierung zu definieren. Auch Wirtschaft und Forschung sind gefragt. Die Vorlage dazu hat die EU mit ihrem KI-Weißbuch geliefert, das bis zum 19. Mai 2020 zur öffentlichen Konsultation steht. Alle Beteiligten sollten dabei auch daran denken, was passiert, wenn sich der Verwendungszweck ändert. Unternehmen wiederum stehen in der Pflicht, eine passende Dateninfrastruktur und Expertenwissen für einen sinnvollen KI-Einsatz aufzubauen. Wer das nicht tut, büßt entscheidend an Innovationsfähigkeit ein. Das ist das KI-Risiko, welches Unternehmen selbst verantworten – und gestalten können.

*Peter Hanke ist Senior Director Germany, Austria & Switzerland bei NetApp.


Mehr Artikel

Be the first to comment

Leave a Reply

Your email address will not be published.


*