EU AI Act: Europäische KI-Regulierung und ihre Umsetzung

Hand auf Tablet
  • Whitepaper
  • 5 Minuten Lesezeit
  • 15 Mrz 2024

Künstliche Intelligenz (KI) ist eine Schlüsseltechnologie der digitalen Transformation und schon heute präsent in vielen Produkten und Prozessen. Das Vertrauen in die Zuverlässigkeit, Transparenz und Fairness von KI ist so entscheidend für eine weitverbreitete Nutzung, dass die Europäische Union eine eigene Verordnung für KI entworfen hat – den EU AI Act. Die Verordnung zielt darauf ab, Regeln für KI-Systeme festzulegen, Innovation zu fördern und Bürger:innen der EU zu schützen.

Sie fordert eine Governance, die Risiken von KI-Systemen während des gesamten Lebenszyklus beherrschbar macht. Die Umsetzung birgt Herausforderungen, aber auch Chancen für Organisationen. Mit dem richtigen Ansatz können sie ihre KI-Qualität verbessern, soziale Verantwortung demonstrieren und eine Vorreiterrolle bei der digitalen Transformation mit KI einnehmen.

Das Wichtigste in 30 Sekunden

  • Der zunehmende Einsatz von KI in allen Bereichen wird in Zukunft mehr und mehr reguliert werden. Der AI Act ist das Kernstück der KI-Regulierung in der Europäischen Union. 
  • Durch die Verordnung kommen weitreichende Herausforderungen auf regulierte Organisationen zu.
  • Die Anforderungen sind komplex, können aber mit einer frühen Ausrichtung und dem richtigen Vorgehen innovationsfreundlich umgesetzt werden. 
  • In unserem PwC AI Governance Introduction Framework verbinden wir technische Expertise, rechtliches Fachwissen und Product-Compliance-Erfahrung mit den spezifischen Anforderungen des AI Act, um unsere Kunden beim Aufbau holistischer KI-Governance-Systeme zu unterstützen.

Ihr Experte für Fragen

Hendrik Reese
Partner Responsible AI bei PwC Deutschland
E-Mail

Der EU AI Act wird weitreichende Auswirkungen haben

Um beim Einsatz von KI im wettbewerbsintensiven europäischen KI-Markt erfolgreich zu sein, müssen regulierte Organisationen zukünftig vielfältige Vorschriften einhalten, eine Kultur des Vertrauens aufbauen und während des gesamten KI-Lebenszyklus für Transparenz sorgen.

Der EU AI Act ist eine Verordnung zur Festlegung harmonisierter Vorschriften für KI-Systeme. Je nach Risikoklasse der zugrundeliegenden KI-Systeme sieht die Verordnung Übergangsfristen von 6 bis 36 Monaten vor, innerhalb derer Organisationen die Anforderungen umsetzen müssen, wobei die Nichteinhaltung zu erheblichen Geldstrafen und Haftungsrisiken führen kann.

KI-Systeme werden grundsätzlich anhand ihrer Risiken reguliert. Einige Systeme sind gänzlich verboten und andere müssen Anforderungen erfüllen, um eingesetzt werden zu dürfen. Alle restlichen Systeme können zunächst ohne weitere Einschränkungen betrieben werden, wobei es der Kommission vorbehalten ist, die Liste der regulierten Systeme bei ausreichendem Risiko zu erweitern.

Der zentrale Gegenstand der Verordnung sind KI-Systeme mit hohem Risiko, die umfassenden Dokumentations-, Überwachungs- und Qualitätsanforderungen genügen müssen. Die Nutzer und Anbieter von KI-Systemen mit hohem Risiko tragen die Hauptlast der Anforderungen. 

Weiterhin sind KI-Systeme mit allgemeinem Verwendungszweck, sogenannte General Purpose AI GPAI, stärker reguliert. Sie müssen spezielle Transparenzanforderungen erfüllen und eine Wahrung des Urheberrechts gewährleisten. Wenn sie darüber hinaus systemische Risiken verursachen, gelten strengere Regeln in Bezug auf ihr Qualitäts- und Risikomanagement sowie das Reporting an staatliche Stellen. 

KI-Systeme, die direkt oder indirekt mit Menschen interagieren, werden dazu verpflichtet, diese über die Nutzung zu informieren.

Neben der allgemeinen Regulierung von KI durch den EU AI Act gibt es weitere Vorgaben, die für KI-Anwendungsfälle von Bedeutung sind: Horizontale, wie die DSGVO oder den vorgeschlagenen EU Data Act, und vertikale bzw. sektorale, wie die EU-Verordnung über Medizinprodukte (MDR) oder die deutsche Verordnung zur Genehmigung und zum Betrieb von Kraftfahrzeugen mit autonomer Fahrfunktion in festgelegten Betriebsbereichen (AFGBV).

Downloaden Sie hier unser Whitepaper

Vertrauenswürdige KI – Europäische Regulierung und deren Umsetzung

Der Schlüssel zu einer nachhaltigen Wertschöpfung mit KI-Systemen liegt in der erfolgreichen Verknüpfung von Qualität, Regulierung und Skalierung. Um dies zu erreichen, sind anerkannte Standards, bewährte Methoden und geeignete Werkzeuge für eine sichere und effiziente Entwicklung und Operationalisierung von KI-Systemen notwendig. Insbesondere flexible Daten-, Risiko- und Lebenszyklus-Management-Systeme sind unabdingbar, um Organisationen in die Lage zu versetzen, ihre KI-Systeme erfolgreich aus der Pilotphase in den skalierten Betrieb zu überführen.

Im Kern ist vertrauenswürdige KI nicht mehr und nicht weniger als die konsequente Umsetzung bewährter Data-Science- und Machine-Learning-Methoden über den gesamten Lebenszyklus eines KI-Systems.

PwC hat ein AI Governance Introduction Framework entwickelt, das eine organisationsspezifische KI-Governance skizziert und die Konzepte und Prinzipien von Compliance-Management-Systemen mit den Anforderungen des EU AI Act kombiniert. Der erste Schritt besteht darin, die Einrichtung der notwendigen Compliance- und Governance-Komponenten vorzubereiten und ein klares Bild der notwendigen Maßnahmen für die Anwendungsfälle einer Organisation zu entwickeln.

In Anbetracht der knapp bemessenen Übergangsfristen sollte umgehend mit der Compliance-Planung begonnen werden. Die frühzeitige Implementierung einer ganzheitlichen KI-Governance kann Unternehmen einen Wettbewerbsvorteil in Bezug auf die Markteinführungszeiten und die Qualität von KI-Systemen mit hohem Risiko verschaffen. Die Anforderungen der Verordnung sind komplex, und Unternehmen sollten in jedem Fall bestehende Compliance-Strukturen und bewährte Praktiken im Bereich des maschinellen Lernens nutzen.

Langfristig wird die Fähigkeit, Qualität, Compliance und Skalierung von KI-Systemen miteinander zu verbinden, entscheidend für den Erfolg von Unternehmen sein, die KI auf dem europäischen Markt einsetzen - insbesondere gegenüber Wettbewerbern in Asien und den USA. Interdisziplinäre Kompetenzen sind notwendig, um Strukturen und Prozesse für eine KI-Governance zu schaffen, die technisch, rechtlich und organisatorisch fit für die Zukunft ist.

„Unternehmen haben heute die Chance, sich auf zukünftige Anforderungen durch Regulierung vorzubereiten. Wenn sie sich so als Vorreiter positionieren, können sie sich enorme Wettbewerbsvorteile erschließen. Dann kann Künstliche Intelligenz ‚Made in Germany‘ zu einem echten Gütesiegel werden und die digitale Transformation in Deutschland vorantreiben.“

Hendrik Reese,Partner Responsible AI bei PwC Deutschland
Follow us

Contact us

Hendrik Reese

Hendrik Reese

Partner, PwC Germany

Tel.: +49 1517 0423-201

Dr. Jan-Peter Ohrtmann

Dr. Jan-Peter Ohrtmann

Partner, PwC Germany

Tel.: +49 211 981-2572

Konstantinos Dagianis

Konstantinos Dagianis

Partner Financial Services und Digital Assets Leader, PwC Germany

David Richter

David Richter

Partner Actuarial Risk Modelling Services, PwC Germany

Hide