Künstliche Intelligenz in Unternehmen: Der Einsatz braucht Vertrauen

10 Mai, 2019

Routenplanung im Auto, Sprachassistenten in Smartphones, autonom einparkende Autos: Künstliche Intelligenz (KI) erobert den Alltag. In deutschen Unternehmen allerdings noch gebremst, weil es an Vertrauen in KI-Anwendungen fehlt.

PwC hat Anforderungen für vertrauenswürdige KI entwickelt, die deutlich konkreter und praxistauglicher sind, als die bisherigen Ansätze der Politik.

Kollegin und Kollege arbeiten zusammen am Tablet

Trust ist der Schlüssel zur Weiterentwicklung von KI

Jahrzehntelang hat herkömmliche Software nur das umgesetzt, wofür sie von Menschen programmiert wurde. Dagegen können KI-Algorithmen weit mehr: Sie lernen zunehmend hinzu und werden dadurch „klüger“. Klüger als der Mensch? In den spezifischen Aufgabengebieten, auf die sie ausgelegt wurde bereits Stand heute. Doch nach welchen Regeln und Kriterien bleibt sie auch wirklich unter Kontrolle? Und was unterscheidet gute von schlechter KI? Fragen über Fragen. Die Entwicklung von KI ist noch relativ am Anfang, aber die Skepsis vieler Menschen in Deutschland recht hoch – in allen Gesellschaftsbereichen, auch in der Wirtschaft. Ganz anders als etwa in den USA und Asien. Hierzulande fehlt der Zukunftstechnologie das, was Wirtschaft am dringendsten braucht: Trust.

Die Antworten der Politik sind noch zu unkonkret

Die „German Angst“ vor KI ist ein Problem, das auf der politischen Agenda mittlerweile weit oben steht. So schlug Bildungsministerin Anja Karliczek kürzlich in einem Zeitungsbeitrag ein Gütesiegel für vertrauenswürdige Künstliche Intelligenz „Made in Europe“ vor. Auch die Europäische Kommission befasst sich intensiv mit dem Thema. Eine Expertenkommission hat Anfang April 2019 Leitlinien veröffentlicht, wonach KI nicht diskriminieren darf, sondern Persönlichkeitsrechte beachten, Missbrauch verhindern und Transparenz gewährleisten soll. Die Fragen, die die EU-Kommission aufwirft, sind genau die richtigen. Woran es aber fehlt und was insbesondere Unternehmen häufig vermissen, sind konkrete Antworten. 

Konkrete Antworten würden Vertrauen in KI fördern. Und das braucht es dringend, damit Deutschland, aber auch die anderen europäischen Länder im globalen Standortwettbewerb nicht den technologischen Anschluss verlieren. Erst vier Prozent der deutschen Unternehmen setzen KI ein und nur zwei Prozent sind dabei, die Technologie zu implementieren. So lautet der besorgniserregende Befund der aktuellen Studie „Künstliche Intelligenz in Unternehmen“ zum Status quo der Technologie.

Detaillierter PwC-Anforderungskatalog für vertrauenswürdige KI

Um KI-basierten Anwendungen auch in Europa zum (politisch) erwünschten, da ökonomisch notwendigen Durchbruch zu verhelfen, müssen Sicherheit und Transparenz der KI („Trusted AI“) also gewährleistet sein. Diese Aspekte, auch das zeigt die PwC-Studie „KI in Unternehmen“, stehen bei den Entscheidern ganz oben auf der Prioritätenliste: 91 Prozent von ihnen schätzen entsprechende Maßnahmen als hochrelevant ein. Mehr als 80 Prozent halten zudem Kontrollmaßnahmen, die menschliches Eingreifen in KI-Prozesse ermöglichen, für sehr wichtig. 

Deshalb haben wir mit dem Trust in AI Anforderungskatalog ein umfassendes und praxistaugliches Rahmenwerk für vertrauenswürdige Künstliche Intelligenz entwickelt. Der Katalog umfasst rund 80 Kriterien und formuliert übergeordnete Zieldimensionen für vertrauenswürdige KI, zudem die jeweils adressierten Risiken sowie unternehmensinterne sowie allgemeine IT-Anforderungen und KI-spezifische Anforderungen.

Grafik Trust in AI
  • Ethikrichtlinien sorgen beispielsweise dafür, dass Vorteile und Risiken der KI-Anwendungen für Endnutzer und Anbieter transparent und nachvollziehbar sind. 
  • Falsche Vorannahmen (Bias) in Trainingsdaten für die KI-Systeme werden durch ein systematisches Data Assessment frühzeitig erkannt und Diskriminierung oder Mängel bei der Funktionalität dadurch verhindert. 
  • Robustheit ist wichtig bei KI-System, um dafür zu sorgen, dass diese nicht durch maliziösen Input manipuliert werden und ein korrekter Output generiert werden kann.

Bei autonomen Systemen den Durchblick behalten

Ein weiteres Beispiel: Das KI-Ziel „Privatsphäre und Sicherheit“ und seine in dem 60-Seiten-Werk dahinterstehenden Anforderungen gewährleisten nicht nur einen datenschutzgerechten und verantwortungsvollen Umgang mit personenbezogenen oder anderen sensiblen (Unternehmens-)Daten, sondern minimieren auch die Risiken mangelnder Nachvollziehbarkeit und fehlender Kontrolle auf Seiten der Anwender. Beide Defizite sind insbesondere beim sogenannten Machine Learning, einem wichtigen Teilbereich der Künstlichen Intelligenz, gewichtige Gründe für den zögerlichen KI-Einsatz in Unternehmen. Die selbstlernenden Systeme kommen den Nutzern mitunter vor wie eine Black Box. Anwender können oft kaum nachvollziehen, auf Basis welcher Kriterien KI-Algorithmen zu welchen Ergebnissen kommen.

Bei Musikempfehlungen („Sie haben folgende Titel gehört, also gefällt Ihnen möglicherweise auch folgender Künstler …“) mögen die Auswirkungen nicht optimaler Systeme vergleichsweise harmlos sein. Eventuell zahlen Nutzer hier relativ geringe Geldbeträge für Songs, die ihnen nicht gefallen. Wenn aber KI-Systeme ärztliche Diagnosen unterstützen (oder teilweise autonom übernehmen) und vollautonome Systeme in Banken die Kreditwürdigkeit von Bankkunden bewerten, können die Folgen deutlich dramatischer sein.

Robuste KI-Systeme entwickeln

Sicherheit bei KI-Anwendungen ist zudem hochrelevant. Schwachstellen in KI-Systemen können zu Angriffszielen von Hackern werden – ebenfalls mit enormen Schadenpotenzialen. Ein drastisches, aber realistisches Szenario: Kameras in selbstfahrenden Autos können unterscheiden (lernen), ob sich auf Bürgersteigen Passanten befinden oder nicht. Ist die KI richtig eingestellt, werden die Autos die Personen erkennen und wissen, dass sie nicht auf den Gehweg fahren dürfen. Ist das System allerdings nicht ausreichend robust gegen sog. adversarial attacks, könnte die Anwendung so manipuliert werden, dass die Passanten „herausgerechnet“ werden, die Kamera sie also nicht erkennt. Umso wichtiger ist es, KI für solche oder vergleichbare Angriffsszenarien zu trainieren und gegen Missbrauch zu schützen.

KI Robustheit
  • KI-Systeme und ihre Ausgabe können manipuliert werden
  • Das Härtungskonzept zielt darauf ab, KI-Systeme robust zu machen
  • Angriff auf das KI-System & Bewertung der Erfolgsrate der Angriffsmuster

Auf Trainingsqualität kommt es auch im Talentmanagement an

Auch bei einer KI-basierten Talentmanagementlösung im HR Umfeld, bei der wir derzeit einen Kunden in der Entwicklung unterstützen, kommt es insbesondere auf die Daten- und die Trainingsqualität der KI an. Ziel der Talentmanagementlösung ist es, Kandidaten anhand spezifischer Bewertungsdimensionen, die sie in früheren Beschäftigungen erhalten haben, des Lebenslaufs etc. in passende Jobs zu vermitteln und dadurch für größere Zufriedenheit bei Arbeitnehmern und Unternehmen zu sorgen. Wäre die Datenqualität nicht ausreichend oder interpretierte die KI-Anwendung sie falsch, träfe die Technologie womöglich falsche Vorannahmen über einzelne Kandidaten – mit gravierenden Konsequenzen für deren weitere Karriere. Neben Fehlern in der KI-Funktionalität gilt es auch, Einbußen bei der Reputation des Unternehmens zu vermeiden.

Die Unsicherheit mit praxistauglichen Antworten reduzieren

Allein die wenigen hier beschriebenen Beispiele zeigen, wie wichtig Vertrauen und Transparenz als Grundlage für KI-Anwendungen sind. Leitlinien wie die der Europäischen Union bieten konstruktive Anhaltspunkte für einen vertrauenswürdigen KI-Einsatz, auch die Bundesregierung hat im November 2018 ein Strategiepapier zu Künstlicher Intelligenz veröffentlicht, das PwC kommentiert hat. Dieses sieht auch einen regulatorischen Ordnungsrahmen und vertrauensfördernde Standards vor. 

Ein Rahmenwerk, das beides konkreter vereint, als es die Politik bislang vermochte, haben wir mit unserem Anforderungskatalog für den sicheren und robusten Einsatz von KI-Anwendungen in Systemen und Prozessen entwickelt. Dieser hilft insbesondere Unternehmen dabei, unmittelbar umsetzbare Antworten auf praktische Fragen zur KI-Anwendung zu finden und die Unsicherheit Ihrer Führungskräfte und anderen Mitarbeiter deutlich zu reduzieren. Das Ziel ist klar: Wir müssen das technologische Know-how, für das deutsche Unternehmen nach wie vor weltweit bekannt und geschätzt sind, schnellstmöglich auf innovative ‚Software-Maschinen‘ übertragen. Ansonsten übernehmen womöglich asiatische und US-Unternehmen die Innovationsführerschaft in deutschen Schlüsselindustrien.

Contact us

Hendrik Reese

Hendrik Reese

Director, Artificial Intelligence, PwC Germany

Tel.: +49 89 5790-6093

Follow us