Künstliche Intelligenz und Ethik: Auf die Operationalisierung von ethischen Prinzipien kommt es an.

20 Juni, 2019

Anwendungen, die auf Künstlicher Intelligenz (KI) basieren, könnten prinzipiell autonome Entscheidungen treffen. Doch bis zu welchem Grad soll dies gestattet sein? Wer trägt die Verantwortung dafür? Und wann muss der Mensch in KI-Prozesse eingreifen können?

Auf ethische Fragen wie diese suchen Unternehmen praxistaugliche Antworten. Diese sind nur im Detail zu finden – neben den Vorsätzen ist die Operationalisierung elementar. PwC gibt im Rahmenwerk „AI Ethics“ Orientierung, um die richtigen Antworten zu finden. 

Um den verantwortungsvollen Einsatz von KI zu ermöglichen, braucht es Informationssicherheit sowie Mitarbeiter- und Kundenvertrauen. Welche ethischen Regeln dafür nötig sind, diskutieren Politik und Wirtschaft zurzeit, allerdings noch viel zu abstrakt. Das Ethik-Rahmenwerk von PwC geht ins Detail und hilft damit Unternehmen, die richtigen ethischen Fragestellungen aufzuwerfen und dafür Antworten zu finden – auf Unternehmensebene sowie für spezifische Use Cases. Antworten, die auch operationalisierbar sind. Dabei haben wir unter anderem die Richtlinien der Expertengruppe der Europäischen Kommission aufgegriffen, kritisch reflektiert und erweitert. 

KI-Ethik ist individuell zu definieren

Bei der Entwicklung unseres ethischen Rahmenwerks haben wir uns von der Frage leiten lassen, wie KI dem Menschen dienen kann. Gemeinsam mit Experten aus

  • der Bioethik,
  • der Computerlinguistik
  • und der Philosophie

haben wir fünf Meta-Prinzipien identifiziert. Diesen sind jeweils Sub-Prinzipien zugeordnet, welche die möglichen Antworten auf die Meta-Prinzipien darstellen. Nicht alle dieser Sub-Prinzipien müssen gleichzeitig erfüllt sein. Mitunter widersprechen sie sich sogar. Das ist unvermeidlich, wie die folgenden Beispiele zeigen. Denn wie sich ethische Prinzipien in der Unternehmenspraxis konsistent, transparent und nachvollziehbar umsetzen lassen, hängt vom Anwendungsfall und von den Werten und Zielen eines Unternehmens ab.

Fünf Schlüsselprinzipien für die Praxis

Wie sich die fünf Schlüsselprinzipien in der Praxis umsetzen lassen und was dabei zu beachten ist, zeigen die folgenden Beispiele:

1. Prinzip: Verantwortung (Accountability)

Eine beispielhafte übergeordnete Frage hierzu: Wie ist bei autonom oder teilweise autonomen Systemen, etwa zur Diagnose von Maschinenteilen, Verantwortung zu definieren und sicherzustellen? Detailfragen könnten sein: Wer ist für auftretende Fehler verantwortlich? Derjenige, der die Daten für das System bereitgestellt hat? Der Systembetreiber? Der Programmierer? Oder der Prozessverantwortliche?

Eine ethische KI-Anwendung muss schon früh im Designprozess Antworten finden. Möglicherweise müssen Zuständigkeiten im Unternehmen neu definiert, bestehende Prozesse verändert oder geschaffen werden. Auch gesetzliche Fragen, etwa der Betreiberhaftung, sind zu klären.

View more

2. Prinzip: Autonomie (Autonomy)

Die Frage der Verantwortung hängt auch vom Autonomiegrad eines KI-Systems ab. Möchte eine Bank beispielsweise ermitteln, ob ein Kunde kreditwürdig ist, kann sie die Entscheidung vollständig einer KI-Anwendung überlassen. Oder der Angestellte nutzt ein teilautonomes System, um entscheidungsrelevante Daten zu sammeln, trifft die Entscheidung aber selbst. Eine ethische Frage lautet hierbei: Bis zu welchem Grad will die Bank existenzielle Entscheidungen an Maschinen übergeben?

Welche ethischen Probleme dabei entstehen können, zeigt ein Beispiel aus den USA: Dort lassen Richter sich vom KI-System „Compas“ bei ihrer Urteilsfindung unterstützen. So wurde ein Mädchen, das ein abgelegtes Fahrrad entwendet hat und ein paar Meter damit gefahren ist, in Untersuchungshaft geschickt, ein rückfälliger Räuber aber wurde anstandslos bis zum Prozess freigelassen. Das KI-System hatte Vorurteile, die in Lern- und Trainingsdaten angelegt waren, übernommen und dem jungen Mädchen eine hohe Rückfälligkeitswahrscheinlichkeit attestiert. Mögliche Diskriminierungen auf Grund der ethnischen und/oder sozialen Zugehörigkeit sind ebenfalls ein viel diskutierter Sachverhalt von „Compas“.

View more

3. Prinzip: Gerechtigkeit (Fairness)

Das „Compas“-Beispiel berührt neben der Frage nach dem Grad der Entscheidungsautonomie das ethische Prinzip der Gerechtigkeit. Dieses ist auch bei KI-gestützten Sprachanalysen in Bewerbungsprozessen relevant. KI kann beispielsweise anhand der Vokalbildung in der Sprache erkennen, ob ein Jobkandidat zu Depressionen neigt. Doch möchte ein Unternehmen diese Möglichkeit nutzen? Und wenn ja, inwiefern soll die Depressionsneigung ein Auswahlkriterium sein? Und wann ist das noch gerecht? Bei einem Zugführer oder Piloten fällt die Antwort möglicherweise anders aus als bei Rechtsanwälten oder Lageristen.

Auch Krankenkassen können solche Systeme einsetzen – um damit vielleicht höhere Beiträge zu begründen oder Versicherten frühzeitig Beratungsangebote zu vermitteln. Wie eine ethisch verantwortungsvolle Entscheidung im jeweiligen Fall aussieht, ist nicht von vornherein klar. Unternehmen müssen sich aber an solchen – letztlich auch gesamtgesellschaftlich zu führenden – Diskussionen von Anfang an beteiligen und ihre Sichtweise darauf transparent machen.

View more

4. Prinzip: Sicherheit (Safety & Security)

KI-Systeme basieren auf großen Datenmengen. Aber welche Daten werden erhoben? Handelt es sich um sensible personenbezogene oder Unternehmens- oder Kundendaten? Inwiefern ist die Datenerfassung transparent? Und sind die KI-Anwendungen robust gegen Cyberattacken? Welcher Grad der Anonymisierung ist ethisch wünschenswert, welcher unter technischen Gesichtspunkten sinnvoll?

Werden beispielsweise Passagierdaten an Flughäfen erfasst, kann dies Terrorismusbekämpfung wirksamer machen. Je mehr und je bessere Passagierdaten für eine KI-Anwendung verfügbar sind, desto mehr kann sie „lernen“. Sind aber unverdächtige Personengruppen von der Erfassung ausgeschlossen, kann KI möglicherweise nicht optimal trainiert werden – was womöglich das Sicherheitsrisiko für alle Flugreisenden erhöht. Demgegenüber steht die ethische Frage, ob personenbezogene Daten überhaupt in Analysetools von Flughafenbetreibern oder Airlines gehören.

View more

5. Erklärbarkeit (Explicability)

Bei der KI-Implementierung stellt sich auch die Frage nach deren Erklärbarkeit. Ist es beispielsweise ausreichend, dass Prozesse oder entscheidende Teilprozesse transparent sind? Und für welche Personen in und außerhalb von Unternehmen soll das der Fall sein? Für alle oder nur für bestimmte Gruppen? Betrachten wir erneut das Beispiel der Bewerberauswahl: Ein Human-Resources-Manager sollte nachvollziehen können, anhand welcher Kriterien sein KI-System zu einer Personalentscheidung oder -Empfehlung kommt. Aber gilt dies auch für die Bewerber? Oder nochmals das „Compas“-Beispiel: Haben Verurteilte ein Recht darauf zu erfahren, wie die KI-Anwendung zu ihrer Empfehlung kam? Wie verträgt sich dies mit dem Recht des Compas-Anbieters, den von ihm entwickelten Algorithmus als Betriebsgeheimnis zu schützen?

View more

Die richtigen Fragen stellen statt Antworten vorzugeben

Die hier skizzierten Szenarien vermitteln einen Eindruck davon, wie komplex ethische Fragen im Zusammenhang mit Künstlicher Intelligenz sind. Deshalb gibt das PwC-Rahmenwerk „AI Ethics“ keine Antworten vor. Sondern es formuliert entscheidende Fragestellungen, identifiziert kurz- und langfristige Risiken und hilft, sie zu vermeiden. Dies gelingt, indem das Rahmenwerk mögliche Antworten auf diese Fragestellungen aufzeigt, ebenso wie die mögliche Umsetzung dieser Antworten –durch Responsible AI in Unternehmensprozessen sowie durch Trust in AI auf Systemebene. Dies sind zwei weitere Frameworks, die wir entwickelt haben und die ebenfalls helfen, die richtigen Antworten zur Operationalisierung der Fragestellungen zu finden. Nur so können Unternehmen von den Vorteilen der Technologie profitieren, ohne an Glaubwürdigkeit und Reputation zu verlieren.

Contact us

Hendrik Reese

Hendrik Reese

Director, Artificial Intelligence, PwC Germany

Tel.: +49 89 5790-6093

Follow us