Anforderungen des EU AI Acts für Medienunternehmen und Technologieanbieter

Responsible AI im Medien- und Technologiesektor

  • Artikel
  • 4 Minuten Lesezeit
  • 28 Jan 2025

Der EU AI Act, eines der ersten umfassenden Gesetzespakete zur Regulierung Künstlicher Intelligenz (KI) weltweit, zielt darauf ab, KI-Systeme verantwortungsvoll und sicher zu gestalten. Dies hat Relevanz für Medienunternehmen und Technologieanbieter, da KI immer mehr in Bereiche vordringt, die sowohl die Informationslandschaft als auch technische Wertschöpfungsketten tiefgreifend beeinflussen. Dieser Artikel richtet sich daher vor allem an Entscheider in Medienunternehmen, für die KI-Systeme einzigartige Anwendungspotenziale darstellen, sowie an Technologieanbieter, die diese Systeme bereitstellen, um die spezifischen Herausforderungen und Chancen zu beleuchten, die mit KI einhergehen und gezielte Einblicke in die Umsetzung von Responsible AI und die Einhaltung der Vorschriften des EU AI Acts zu bieten. Die Motivation des Gesetzes besteht darin, Risiken und Gefahren, die von KI ausgehen können, zu mindern und das Vertrauen der Gesellschaft in diese Technologie zu stärken.

Kernelemente des EU AI Act

Der EU AI Act ist keine Technologieregulierung per se, sondern stellt seine Regelungen im Kern für KI-Systeme und ihre Zweckbestimmung auf. Er teilt KI-Systeme in vier Risikokategorien ein: inakzeptables, hohes, begrenztes und minimales Risiko. Systeme mit inakzeptablem Risiko, wie etwa solche zu „social scoring“, sind vollständig verboten. Hochriskante Systeme, die beispielsweise in der Strafverfolgung, der Gesundheitsversorgung oder der Bildung eingesetzt werden, unterliegen strengen Auflagen. Diese Anforderungen betreffen unter anderem die Transparenz, Nachvollziehbarkeit und Robustheit der eingesetzten Algorithmen sowie die Einhaltung ethischer Prinzipien.

Zentrale Anforderungen für hochriskante KI-Systeme umfassen unter anderem die Durchführung strenger Risikoanalysen, regelmäßige Kontrollen und Transparenzpflichten, um sicherzustellen, dass die Entscheidungen der KI-Systeme nachvollziehbar und gerechtfertigt sind. Wichtig ist hierbei auch das Thema der Verantwortlichkeit: Wer trägt die Verantwortung, wenn ein KI-System eine problematische Entscheidung trifft? Der EU AI Act sieht vor, dass Betreiber und Entwickler klar definierte Verantwortlichkeiten übernehmen müssen.

Im Technologie- und Medienbereich bedeutet das, dass Technologieanbieter als Entwickler und Anbieter von KI-Lösungen sicherstellen müssen, dass ihre Systeme den regulatorischen Anforderungen entsprechen, während Medienunternehmen als Betreiber vor der Herausforderung stehen, diese Systeme verantwortungsvoll zu nutzen und zu integrieren.

Außerdem definiert der AI Act weitere Rollen wie Händler, Importeur etc. die ebenfalls spezifische Anforderungen mit sich bringen.

Anforderungen an vertrauenswürdige KI für Medienunternehmen

Für Medienunternehmen, die zunehmend auf KI zur Inhaltsgenerierung, -moderation oder -kuratierung setzen, stellt sich die Frage, wie vertrauenswürdige KI im Einklang mit dem AI Act umgesetzt werden kann. Besonders im Hinblick auf die Vermeidung von Fehlinformationen und die Wahrung der Urheberrechte sind spezifische Maßnahmen gefragt. Medienunternehmen müssen sicherstellen, dass durch KI-generierte Inhalte Urheberrechte nicht verletzt werden. Dies kann beispielsweise durch die Verwendung urheberrechtlich geschützter Werke oder durch die Verbreitung irreführender Informationen geschehen. Ein weiterer wichtiger Aspekt ist die Transparenz von Inhalten, die durch KI-Algorithmen personalisiert oder generiert werden, um Manipulation und Desinformation zu verhindern.

Für vertrauenswürdige KI im Medienbereich bedeutet dies, dass Medienunternehmen ihre KI-Systeme so gestalten müssen, dass die Rechte der Inhaltsanbieter geschützt und Nutzende klar über den Einsatz von KI informiert werden. Eine verpflichtende Kennzeichnung KI-generierter Inhalte ist hier eine praktikable Lösung.

Zudem sollten Systeme zur Moderation von Inhalten dahingehend trainiert werden, dass Diskriminierung und Vorurteile vermieden und ethische Standards eingehalten werden.

Deep Fakes stellen für Medienunternehmen eine wachsende Herausforderung dar, da manipulierte Videos und Audiodateien die Verbreitung von Falschinformationen erheblich erleichtern können. Ein bekanntes Beispiel ist ein Deep-Fake-Video, das 2018 in sozialen Medien auftauchte und zeigte, wie der ehemalige US-Präsident Barack Obama Worte sagte, die er in Wirklichkeit nie geäußert hatte. Solche täuschend echten Fälschungen können das Vertrauen der Öffentlichkeit in Medien nachhaltig erschüttern. Zum Schutz vor solchen Bedrohungen können Medienunternehmen auf spezielle Erkennungstools setzen, die wiederum mithilfe von KI Deep Fakes identifizieren. Darüber hinaus ist eine klare Kennzeichnung von authentischen Inhalten sowie eine verstärkte Schulung der Redakteure im Umgang mit digitalen Manipulationen sinnvoll, um Manipulation frühzeitig zu erkennen und zu verhindern.

Technologieanbieter: Vertrauensaufbau in der Wertschöpfungskette

Für Technologieanbieter geht es darum, in der gesamten Wertschöpfungskette Vertrauen zu fördern. Dies beginnt bei der Entwicklung und Bereitstellung sicherer und transparenter Technologien, die den Anforderungen des AI Act gerecht werden, und reicht bis zur Unterstützung der Medienanbieter bei der Implementierung und Einhaltung dieser Standards. Technologieanbieter spielen eine zentrale Rolle, indem sie robuste, nachvollziehbare und transparente KI-Systeme entwickeln, die nicht nur regulatorischen Anforderungen entsprechen, sondern auch ihren Kunden helfen, das Vertrauen der Endnutzer zu gewinnen.

Für Technologieanbieter ist es daher entscheidend, ihren Kunden Hilfestellung zu bieten, beispielsweise durch klare Richtlinien zur Risikobewertung und durch technische Mechanismen, die Transparenz und ethische Integrität der Algorithmen fördern.

Letztlich geht es um die gemeinsame Verantwortung, KI so zu gestalten, dass sie der Gesellschaft einen Mehrwert bietet, ohne dabei ethische Standards und Rechte zu kompromittieren. Die Einhaltung des AI Acts wird so zur gemeinsamen Aufgabe in einer komplexen, zunehmend vernetzten technologischen Wertschöpfung.

EU AI Act – Innovationskiller oder Impulsgeber für AI Governance?

Der EU AI Act wird oft als Balanceakt zwischen Innovation und Regulierung angesehen. Kritiker befürchten, dass die strengen Auflagen insbesondere für hochriskante KI-Anwendungen die Innovationskraft europäischer Unternehmen schwächen und den globalen Wettbewerb erschweren könnten. Kleine und mittelständische Unternehmen (KMUs) stehen vor der Herausforderung, die regulatorischen Vorgaben ohne große Compliance-Teams und teure Ressourcen umzusetzen. Gleichzeitig führt die zunehmende Regulierung zu höheren Kosten und längeren Entwicklungszeiten, die europäische Anbieter gegenüber weniger regulierten Märkten wie den USA oder China benachteiligen könnten. In unserer Erfahrung sehen wir allerdings, dass der AI Act als Impulsgeber für AI Governance wirken kann und Europa als Vorreiter für ethisch verantwortungsvolle KI positioniert. Die klaren Regeln schaffen Vertrauen und fördern langfristig eine innovationsfreundliche, transparente KI-Entwicklung. Zudem könnten die regulatorischen Standards als Grundlage für globale Richtlinien dienen und europäische KI-Anbieter durch einen Wettbewerbsvorteil in puncto Vertrauenswürdigkeit stärken. So kann der AI Act als Leitplanke für sichere Innovation fungieren und gleichzeitig ethische Werte in einer zunehmend technologisierten Gesellschaft verankern.

Der Autor

Hendrik Reese
Hendrik Reese

Partner, Responsible AI Lead, PwC Germany

Follow us