Erfolgreicher Wandel mittels künstlicher Intelligenz (KI)

18 Januar, 2018

Fast täglich berichten Medien über den Einsatz von künstlicher Intelligenz (KI, im englischen Artificial Intelligence (AI)) in Unternehmen und ihrer Auswirkungen auf die Wirtschaft in Deutschland und Europa. Vor allem die Chancen, die sich durch den Einsatz bieten, werden ausgiebig erläutert. Nicht selten wird deshalb auch das Marktpotenzial in Milliardenhöhe angegeben.

Doch die Unternehmen zögern. 64 Prozent deutscher Unternehmen beschäftigen sich zwar bereits mit KI, allerdings hauptsächlich in Proof of Concepts bzw. Labor Umgebungen - weniger als 10 Prozent der Unternehmen setzen KI produktiv in ihren Businessprozessen um. Welchen Grund haben deutsche Unternehmen, das prognostizierte Potenzial noch nicht für sich zu nutzen? Ist es Zeit abzuwarten oder ist die Aufgabe vielmehr, KI in produktive Einsatzszenarien zu bringen und in Business Prozessen zu verankern?

„Es ist jetzt Zeit zu handeln und sich mit Künstlicher Intelligenz zu beschäftigen, um datengetriebene Geschäftsmodelle umzusetzen.“

Hendrik Reese, AI-Experte bei PwC

Das erste Handlungsfeld ist Trust in AI

Verbunden mit der Frage des Vertrauens in AI sind die Themen Sicherheit, Compliance und Transparenz. Diese Fragen sind grundlegend, dass Unternehmen und Verbraucher bereit sind, umfangreich neue Technologien zu adaptieren. Und das ist notwendig, wenn Deutschland und Europa bei dem Einsatz von AI Schritt halten wollen.

Bisher gibt es aber keinerlei verbindliche und spezifische Standards für AI. Die Sorge vor der vermeintlichen "Black Box" ist wesentlich.

So müssen Unternehmen sich einen Marktüberblick über AI-Anbieter verschaffen und Anbieter finden, denen sie vertrauen können. Letztendlich geht es immer um den Umgang mit hochsensiblen Daten. Fehlende Transparenz, Unklarheit über Sicherheit und Richtigkeit sind hier nur einige Probleme vor deren Lösung die Unternehmen stehen. Wie können Unternehmen die Umsetzung der AI bewerten, ohne diese selbst eingeführt zu haben? Welchen Anbietern von AI-Anwendungen kann ich vertrauen? Welche Daten dürfen AI-Anbieter verwenden bzw. zusammenführen? Welche Informationen dürfen AI-Anbieter daraus schlussfolgern? Das sind weitere Themen, mit denen sich Unternehmen beschäftigen. Hinzu kommt, dass der Begriff AI selbst noch nicht einheitlich genutzt wird und das schafft zusätzliche Unsicherheit über den Umfang und den genauen Einsatz der AI-Anwendungen.

Anbieter und Anwender müssen ein Vertrauensverhältnis aufbauen. Vertrauen, getragen von Transparenz, ist der Eckpfeiler für eine langfristig erfolgreiche Umsetzung.

Das Vertrauen in AI wird auch wesentlich von positiven Erfahrungen mit AI in Unternehmen, Märkten und von Kunden getragen.

Das zweite Handlungsfeld ist dementsprechend die richtige Governance über den AI  Einsatz in Form von "Responsible AI" und "Robust AI" in Businessprozessen

„Unternehmen müssen jetzt dafür sorgen, dass das Umfeld entsteht, in dem die Transition von AI in Geschäftsprozesse erfolgen kann. Dies erfordert einen neuen Blick auf Planung, Technologie, Organisation, Development und strategische Umsetzung.“

Hendrik Reese, AI-Experte bei PwC

Der richtige AI Einsatz im Unternehmen beginnt bereits durch die Notwendigkeit, zielsicher durch die Grundlagen von guter AI, den zugrunde liegenden Daten zu navigieren. Oft ist damit auch die Frage verbunden, ob die Grundlagen überhaupt mit den Zielen ebenso wie mit rechtlichen und regulatorischen Anforderungen vereinbar sind. Es ist wichtig, bereits im Auswahlprozess, die richtigen Schwerpunkte auf Transparenz von Algorithmen, Entscheidungen und Analyseergebnisse neben der Performance und Funktionalität zu legen. Dieser Aspekt zieht sich typischerweise bis in das Design der AI Applikation.

In der Entwicklung und Umsetzung von AI Lösungen ist es wichtig, die Erwartungshaltungen richtig zu setzen. "Häufig sehen wir, dass die Erwartungen überzogen werden und zwar bereits an den Grundlagen: Die Data Discovery mit klarem Fokus auf Quantität und Qualität von Daten sowie die daraus resultierenden Grenzen der Lösung werden häufig vernachlässigt.", so Hendrik Reese.

Ebenso sollten Unternehmen bereits während der Design- und Implementierungsphase die wesentlichen Überwachungsaktivitäten über die AI in den Fokus rücken. So kommen Themen ins Spiel, wie die Überwachung von Ergebnissen aus AI Anwendungen, ebenso wie ein klares Verständnis der Grenzen der AI Lösungen. "Die Überwachung von AI Lösungen ist dabei ein kontinuierlicher Prozess, da eine AI auch kontinuierlich mit jeder einzelnen Verarbeitung dazulernt. Dazu gehört auch die 'Immunisierung' auf so genannte 'adversarial attacks', so nennt man die Manipulation der AI durch maliziöse Inputdaten", so Hendrik Reese. "Gleichzeitig ist es aber auch ein sensibler Task, da bei zu viel Überwachung und Eingriff die AI Lösung an Value verlieren kann, gleichzeitig bei zu wenig eventuell regulatorische sowie Kontrollanforderungen vernachlässigt werden könnten."

Die erfolgreiche Umsetzung von AI Lösungen erfordert einen iterativen Lernprozess. "Daher sehen wir auch die Notwendigkeit eines guten Projektmanagements in Verbindung mit den richtigen Qualitätssicherungsmaßnahmen, die auf iterative Entwicklungszyklen und den kontinuierlichen Lernprozess ausgerichtet sind. Effektive AI braucht darüber hinaus über die ganze Einsatzzeit gute Input- und Lerndaten, um den Wertbeitrag des AI Einsatzes zu optimieren", so Hendrik Reese.

Contact us

Hendrik Reese

Senior Manager, Trust in AI und Responsible AI, PwC Germany

Tel.: +49 89 5790-6093

Klaus Schmidt

Mitglied der Geschäftsführung und Leiter Tax & Legal, PwC Germany

Tel.: +49 89 5790-6706

Christian Kirschniak

Partner und Head of Data & Analytics Advisory PwC Europe, PwC Germany

Tel.: +49 711 25034-3254

Dr. Roland Werner

Partner, Data & Analytics PwC Europe, PwC Germany

Tel.: +49 69 9585-5707

Follow us