Wider die eigenwillige Maschine - Zur kommenden Regulierung Künstlicher Intelligenz durch die EU-Kommission

19 Februar, 2020

Eine Einschätzung von Hendrik Reese, Director Artificial Intelligence bei PwC Deutschland. Am 19. Februar veröffentlichte die EU-Kommission unter der Leitung von Ursula von der Leyen das sogenannte “Weißbuch zur Künstlichen

Intelligenz”. Darin soll erstmals festgezurrt werden, was momentan unbehaglich in der Schwebe scheint: Der Einsatz und die Regulierung Künstlicher Intelligenz als führende Zukunftstechnologie innerhalb Europas.

Ihr Experte für Fragen

Hendrik Reese

Hendrik Reese
Director Artificial Intelligence bei PwC Deutschland
Tel.: +49 89 5790-6093
E-Mail

Auf lange Sicht Vertrauen schaffen

Führende Prinzipien für den vertrauensvollen Einsatz von KI sind Sicherheit, Transparenz und Erklärbarkeit, Fairness und Verantwortung. Diese bauen auf den europäischen Werten auf und sind das Fundament für den verantwortungsvollen Einsatz von Künstlicher Intelligenz. Der Wunsch nach gesetzgebenden Maßnahmen, um eine Haftbarkeit im Bereich Künstlicher Intelligenz auszuweiten, ist also nachvollziehbar und notwendig.

„Die Verifizierung von KI-Systemen durch Menschen ist essentiell, wenn Menschenrechte im Spiel sind und sobald der Mensch durch den Einsatz von diesem System unmittelbar beeinflusst wird. Hier ist eine besser koordinierte und stringente Forschung angebracht.“

Hendrik Reese, Director Artificial Intelligence bei PwC Deutschland

Eine europäische Vision

Ganz entscheidend kann Europas Position im Wettlauf mit den KI-Supermächten USA und China durch einheitliche Regularien gestärkt werden. Die Notwendigkeit eines einheitlichen europäischen Ansatzes ergibt sich aber nicht nur daraus, ein Gegengewicht gegenüber China und den USA zu schaffen. Die Vermeidung eines fragmentierten Ansatzes ist wichtig, um einzelne Investments, Dateninfrastrukturen, die Forschung und gemeinsame Werte zusammenzuführen, mit dem Ziel, führend in verantwortungsvoller digitaler Innovation zu sein. Außerdem kann nur so Europas digitale, industrielle und technologische Souveränität aufrechterhalten werden.

Hier gilt es, die technologische Innovationskraft zu fördern und stärken, um den Anschluss im globalen Wettbewerb nicht zu verlieren. Dass beispielsweise in Deutschland und in Europa generell hohe Qualitäts- und Sicherheitsstandards an den Tag gelegt werden, und ein hoher Anspruch an die Qualität der geleisteten Arbeit Kernbestandteil deutscher und europäischer Werte ist, kann als optimaler Nährboden gesehen werden, um sichere, transparente und wettbewerbsfähige KI-Systeme auf den Markt zu bringen. So stammt immerhin ein Drittel aller theoretischer Studien und Veröffentlichungen zum Thema KI aus Europa. Eine gemeinsame europäische Vision ist hier hilfreich, um die Forschung in die Praxis umzusetzen und aus Überlegungen Fakten zu schaffen. 

Stirnrunzeln bereitet, was auch unabhängig von Technologie und Wirtschaft, als sorgenvoller Trend auf politischer Ebene derzeit in Europa leider verzeichnet werden muss. Denn nationalistische Bestrebungen einzelner Länder hemmen eine gemeinsame europäische Vision und bremsen so auch die gemeinsame wirtschaftliche und technologische Entwicklung. Immerhin ist mit Großbritannien schlussendlich eine der größten Volkswirtschaften Europas nun aus der EU ausgetreten. Dabei gilt: Einzelne Volkswirtschaften, inklusive Deutschland, kommen gegen die gewaltigen Investitionsvolumina der USA und China nicht alleine an. Hier gibt es also aktiv Bedarf für mehr ‘gemeinsames Europa”!

Von Ökosystemen und Datenplattformen

Geht es um Künstliche Intelligenz, Algorithmen und Machine Learning, sind Daten entscheidend. Schließlich entscheiden Quantität und auch Qualität der Daten, ob ein KI-System entsprechend trainiert werden kann und somit eine gute und verlässliche Performance abliefert. Doch woher solche Datenpools nehmen? Auch hier kann ein europäischer Ansatz helfen, aus der kombinierten Stärke einzelner Staaten eine florierende Datenökonomie zu erschaffen. Der Zusammenschluss einzelner Datenplattformen kann ein entscheidender Wettbewerbsvorteil Europas werden. So wäre ein ein europäischer Datenbinnenmarkt, in dem Daten bereitgestellt und geteilt werden können. Allerdings müssen dafür sowohl Datenschutz- als auch Wettbewerbsregeln vereinfacht oder gar abgebaut werden.  Das Teilen und Bereitstellen von Daten über die eigenen Unternehmensgrenzen hinweg hat keinen unmittelbaren Zweck an sich. Unternehmen werden versuchen wollen, diese Daten zu monetarisieren. Der Wert einzelner Datenpunkte jedoch lässt sich schwer bemessen. Die Bildung von beispielsweise Joint Ventures zwischen Unternehmen, in denen digitale Geschäftsmodelle aus kombinierten Daten mehrerer Unternehmen die Grundlage bilden, liefert interessante Ansätze. Damit ist es weniger eine technologische Frage, die Technologien dafür sind da. Mögliche wettbewerbsrechtliche Hemmnisse, wenn sich deutliche Marktführer in ihrem Gebiet zusammen tun, sollten dem nicht im Weg stehen.

Mit kleinen Schritten Richtung Zukunft?

Besonders KI-Anwendungen, die von der EU-Kommission als “high-risk” eingestuft werden, stehen im Fokus von möglichen Regularien. Dazu gehören beispielsweise Straßenverkehrssysteme, Diagnose-Software im medizinischen Bereich oder auch Anwendungen, die die Diskriminierung spezifischer Gruppen nach sich ziehen könnten - man denke nur an Bewerbungsverfahren. Entwickler solcher Hochrisiko-KI-Technologien fürchten, dass ihnen besonders viele Steine künftig in den Weg gelegt werden. Gerade hier scheint die Entwicklung eines Beratungsansatzes sinnvoll, der entsprechende Unternehmen gezielt darauf vorbereitet, wie sie nicht trotz - das ist nämlich die falsche Frage-, sondern mit den zu erwartenden Restriktionen innovativ sein können. Trust ist eben auch ein Qualitätsmerkmal und Attribute wie Transparenz, Fairness oder Robustheit können ein aktiver Wettbewerbsvorteil sein.

In Betracht zu ziehen ist auch, wie der “high-risk”-Status der einzelnen Anwendungen zustande kommt. Ausschlaggebend und bestimmend für das jeweilige Assurance Level - also das Sicherheitsniveau der Anwendung - sollte hierbei das konkrete Risiko sein. Unabhängig von dem erwarteten Weißbuch zur Künstlichen Intelligenz der EU-Kommission sind bereits erste KI-Regularien durch die Datenethikkommission und die High-Level Expert Group on Artificial Intelligence publiziert worden. Da diese jedoch nicht verbindlich sind, also nicht ausreichend zur Operationalisierbarkeit von KI-Systemen, können sie nur zur Grundlage einer möglichen Gesetzgebung dienen. Die Möglichkeit einer zeitnahen Umsetzung ist jedoch mehr als fraglich. Die Anberaumung von typischen Zeitspannen für Regularien von mehreren Jahren wirken sich nicht nur potentiell lähmend auf Industrie und Innovationsgeist aus, sondern vor allem auch weiterhin nicht positiv auf die Akzeptanz von KI-Technologien.

„Mindestens konkrete und operationalisierbare Anforderungen an die Planung, die Entwicklung und den Betrieb von KI-Modellen, also pure Lifecycle Fragestellungen, sollten daher zeitnah veröffentlicht werden.“

Hendrik Reese, Director Artificial Intelligence bei PwC Deutschland

Alle sind gefragt

Allein sich auf kommende Bestimmungen von oben zu verlassen und abzuwarten, scheint also nicht der richtige Weg, blickt man zumindest aus unternehmerischer Sicht auf das Problem. Unternehmen können und sollen bereits jetzt handeln, und eine eigene KI Governance etablieren, die die Einhaltung einer ethischen Handlungsmaxime, ein angemessenes Risikomanagement sowie eine sinnvolle Effizienz der eingesetzten KI-Modelle berücksichtigt.

In einer sich schnell entwickelnden Marktumgebung wird zum einzig konstanten Erfolgskriterium letztlich das, was vertrauenswürdige und sichere Anwendungen garantiert. “Trust” und “Responsibility” in Bezug auf KI werden zum Marktvorteil, wenn sie von vornherein in die Entwicklung technischer Innovationen einbezogen, statt im Nachgang über bereits bestehende Systeme gestülpt werden.

„Abhilfe können schließlich konsequente Prüfungen von Kontrollen und Prozessen in einem Lifecycle Ansatz schaffen. Darüber hinaus gehende technische, algorithmische und fachliche Prüfungen bezogen auf die konkreten und spezifischen Anwendungsfälle würden die Entstehung sicherer Marktstandards weiter vorantreiben und einen klaren Differentiator gegenüber anderen Wirtschaftsräumen darstellen.”

Hendrik Reese, Director Artificial Intelligence bei PwC Deutschland

Contact us

Hendrik Reese

Hendrik Reese

Director, Artificial Intelligence, PwC Germany

Tel.: +49 89 5790-6093

Follow us