Künstliche Intelligenz – die zehn wichtigsten Technologietrends 2018

16 Februar, 2018

Erfahren Sie mehr über die einflussreichsten Entwicklungen im Bereich der künstlichen Intelligenz.

Künstliche Intelligenz (KI) steht derzeit im Mittelpunkt des Interesses. Zahlreiche Führungs­kräfte aus Wirtschaft und Politik machen sich Gedanken über den richtigen Umgang mit ihr. Aber was passiert eigentlich in den Labors, also dort, wo die Erkenntnisse der Forscher aus Wissenschaft und Unternehmen die Weichen für die KI für 2018 und danach stellen? Unser hauseigenes Forscherteam vom KI-Accelerator-Programm hat sich die zehn wichtigsten Entwicklungen, die Technologen und Führungskräfte aus der Wirtschaft im Blick behalten sollten, genauer angeschaut (Englischer Originaltext von Anand Rao, Joseph Voyles und Pia Ramchandani). Erfahren Sie im nachfolgenden Überblick, welche es sind und warum sie so bedeutsam sind. (Mehr zu den wichtigsten KI-Trends für Unternehmen finden Sie auch hier.)

Top 10 AI technology trends for 2018

1. Deep-Learning-Theorie: wie neuronale Netze tatsächlich arbeiten

Worum geht es? Tiefe neuronale Netze, die das menschliche Gehirn nachbilden, haben die Fähigkeit demonstriert, von Bild-, Audio- und Textdaten zu „lernen“. Die Technologie wird zwar seit mehr als zehn Jahren genutzt, trotzdem wissen wir noch nicht allzu viel über die Prozesse beim Deep Learning. Es gilt herauszufinden, wie neuronale Netze funktionieren und warum sie so gut funktionieren. Dank einer neuen Theorie, bei der das Prinzip des Informationsengpasses auf Deep Learning angewendet wird, könnte diese Wissenslücke bald geschlossen werden. Im Kern besagt diese Theorie, dass tiefe neuronale Netze nach einer anfänglichen Anpassungsphase „schmutzige“ Daten herausfiltern und komprimieren, das heißt Datensets, die zahlreiche weitere, aber kaum sinnvolle Informationen enthalten. Was erhalten bleibt, ist jedoch die Information darüber, was diese Daten darstellen.

Warum ist das wichtig? Wenn man die Funktionsweise von Deep Learning genau versteht, kann man die Technik weiterentwickeln und in größerem Umfang anwenden. Sie kann beispielsweise die nötigen Einblicke dazu liefern, welches die optimalen Optionen für Netzwerkdesign und -architektur sind. Gleichzeitig kann sie die Transparenz bei sicherheitsrelevanten oder aufsichtsrechtlichen Anwendungen erhöhen. Wir gehen davon aus, dass die Auseinandersetzung mit dieser Theorie, wenn sie auf andere Arten und Ausgestaltungen tiefer neuronaler Netze angewendet wird, zu weiteren Erkenntnissen führt.

2. Capsule Networks: so gut wie das menschliche Gehirn bei der visuellen Verarbeitung

Worum geht es? In Capsule Networks, einer neuen Art tiefer neuronaler Netze, werden visuelle Informationen auf ähnliche Weise verarbeitet, wie es das menschliche Gehirn tut, das heißt, das Netz kann hierarchische Beziehungen beibehalten. Dies ist ein signifikanter Unterschied zum Convolutional Neural Network, einer der am häufigsten genutzten neuronalen Netzarten, die jedoch nicht in der Lage sind, wichtige räumliche Hierarchien zwischen einfachen und komplexen Objekten zu berücksichtigen, was zu Fehlklassifizierungen und einer hohen Fehlerquote führt.

Warum ist das wichtig? Bei typischen Identifikationsaufgaben versprechen Capsule Networks dank Fehlerreduktion eine bis zu 50 Prozent höhere Genauigkeit. Zudem benötigen sie für Trainingsmodelle viel weniger Daten. Wir rechnen damit, dass Capsule Networks in vielen Problembereichen und tiefen neuronalen Netzarchitekturen breite Anwendung finden wird.

3. Deep Reinforcement Learning: Lösung geschäftlicher Probleme durch Interaktion mit der Umgebung

Worum geht es? Es handelt sich um eine Art neuronales Netzwerk, das durch Interaktion mit der Umgebung über Beobachtung, Aktion und Belohnung lernt. Deep Reinforcement Learning (DRL) wird bereits zum Erlernen von Spielstrategien genutzt, etwa bei Atari und Go wie auch beim berühmten AlphaGo, das in der Lage ist, weltbeste Go-Champions zu schlagen.

Warum ist das wichtig? DRL ist die üblichste aller Lerntechniken, weshalb es sich für die meisten Geschäftsanwendungen nutzen lässt. Es erfordert weniger Daten als andere Techniken, um die Modelle zu trainieren. Noch bemerkenswerter ist die Tatsache, dass mittels Simulation trainiert werden kann. Vorklassifizierte Daten sind damit überflüssig. Angesichts dieser Vorteile gehen wir davon aus, dass im kommenden Jahr mehr Geschäftsanwendungen auf den Markt kommen, die DRL und agentenbasierte Simulation kombinieren.

4. Generative Adversarial Networks: schnellerer Lernprozess und weniger Verarbeitungslast durch Verknüpfung zweier neuronaler Netze

Worum geht es? Ein Generative Adversarial Network (GAN) ist ein System für unüberwachtes Deep Learning, das in Form zweier kompetitiver neuronaler Netze angelegt ist. Das eine Netzwerk, das generative, erzeugt künstliche Daten, die genau wie das echte Datenset aussehen. Das andere Netzwerk, das diskriminierende, unterscheidet zwischen echten und künstlich erzeugten Daten. Mit der Zeit werden beide Netzwerke immer besser und erlernen die gesamte Distribution des vorliegenden Datensets.

Warum ist das wichtig? Mit GAN kann Deep Learning für ein breiteres Spektrum an unüberwachten Aufgaben, für die keine vorklassifizierten Daten vorliegen oder deren Beschaffung zu teuer wäre, genutzt werden. Außerdem verringert sich die Verarbeitungslast für ein tiefes neuronales Netz, da sich zwei Netze die Last teilen. Wir rechnen damit, dass weitere Geschäftsanwendungen wie Cyber Detection GAN nutzen werden.

5. Lean Data Learning und Augmented Data Learning: wie das Problem vorklassifizierter Daten angegangen werden kann

Worum geht es? Das größte Problem beim maschinellen Lernen, insbesondere beim Deep Learning, ist die Verfügbarkeit großer Mengen vorklassifizierter Daten, mit denen das System trainiert werden kann. Zwei umfassende Verfahren können hierbei helfen: erstens, die künstliche Erzeugung neuer Daten und zweitens, die Übertragung eines Modells für eine Aufgabe/einen Bereich auf eine andere Aufgabe/einen anderen Bereich. Techniken wie Transfer Learning – also die Übertragung von Erkenntnissen aus einer Aufgabe/einem Bereich auf eine andere Aufgabe bzw. einen anderen Bereich – oder One-Shot Learning, ein Extremfall von Transfer Learning, bei dem anhand von sehr wenigen oder nur einem Beispiel gelernt wird, gehören zu den Lean-Data-Lernverfahren. Auf ähnliche Weise können mehr Daten beschafft werden, indem neue Daten durch Simulation oder Interpolation künstlich erzeugt werden, wodurch vorhandene Daten vermehrt werden und so ein besseres Lernen ermöglicht wird.

Warum ist das wichtig? Mithilfe dieser Verfahren lassen sich vielfältige Probleme lösen – insbesondere dann, wenn nur wenige historische Daten vorhanden sind. Aus unserer Sicht werden sich in Zukunft mehr Varianten von Lean Data und Augmented Data sowie verschiedene Lernverfahren auf ein breites Spektrum geschäftlicher Problemstellungen anwenden lassen.

6. Probabilistische Programmierung: Sprachen zur einfacheren Modellentwicklung

Worum geht es? Hierbei handelt es sich um eine höhere Programmiersprache, mit der ein Entwickler Wahrscheinlichkeits­modelle leichter erstellen und diese Modelle anschließend automatisch „lösen“ kann. Probabilistische Programmiersprachen ermöglichen die Wiederverwendung von Modellbibliotheken, unterstützen die interaktive Modellierung und formale Verifizierung und stellen die Abstraktionsschicht bereit, mit der die generische, effiziente Interferenz in universellen Modellklassen unterstützt wird.

Warum ist das wichtig? Mit probabilistischen Programmiersprachen können unsichere und unvollständige Daten, die ja in der Geschäftswelt sehr verbreitet sind, verarbeitet werden. Wir erwarten, dass diese Sprachen künftig in weiteren Bereichen Anwendung finden und auch beim Deep Learning zum Einsatz kommen.

7. Hybride Lernmodelle: kombinierte Ansätze für Modellunsicherheiten

Worum geht es? Verschiedene Arten von tiefen neuronalen Netzen wie GAN oder DRL haben sich hinsichtlich Leistungsfähigkeit und Anwendbarkeit bei verschiedenen Datentypen bereits als vielversprechend erwiesen. Bei Deep-Learning-Modellen wird Modellunsicherheit jedoch nicht auf die Weise modelliert, wie es bei bayesschen oder probabilistischen Ansätzen geschieht. Hybride Lernmodelle vereinen beide Ansätze, um die Stärken beider zu nutzen. Hybride Modelle sind zum Beispiel bayessches Deep Learning, bayessche GAN und bayessche Conditional GAN.

Warum ist das wichtig? Hybride Lernmodelle ermöglichen es, Deep Learning mit Modellunsicherheit auf eine größere Vielfalt von Geschäftsproblemen anzuwenden. Dadurch lassen sich Leistung und Erklärbarkeit der Modelle verbessern, was wiederum deren Anwendungsspektrum vergrößern könnte. Wir rechnen damit, dass für mehr Deep-Learning-Methoden bayessche Äquivalente gefunden werden, während bei der Kombination von probabilistischen Programmiersprachen damit begonnen wird, Deep Learning zu integrieren.

8. Automatisiertes maschinelles Lernen (AutoML): Modellerzeugung ohne Programmierung

Worum geht es? Die Entwicklung von Modellen für maschinelles Lernen ist ein zeitaufwendiger und fachlich anspruchsvoller Prozess, zu dem Datenaufbereitung, Merkmalsauswahl, Modell- oder Verfahrensauswahl, Training und Tuning gehören. Dank AutoML soll dieser Workflow mithilfe verschiedener statistischer und Deep-Learning-Verfahren automatisiert werden.

Warum ist das wichtig? AutoML wird als Mittel der Demokratisierung von KI-Tools wahrgenommen, da es geschäftliche Anwender in die Lage versetzt, Modelle für maschinelles Lernen auch ohne umfassende Programmiererfahrung zu entwickeln. Ferner sorgt AutoML dafür, dass Datenwissenschaftler schneller Modelle erzeugen können. Wir gehen davon aus, dass in Zukunft mehr kommerzielle AutoML-Pakete bereitstehen und AutoML in größere Plattformen für maschinelles Lernen integriert wird.

9. Digital Twin: virtuelle Kopien auch für nicht industrielle Anwendungen

Worum geht es? Beim Digital Twin handelt es sich um ein virtuelles Modell, das zur detaillierten Analyse und Überwachung physischer oder nicht physischer Systeme eingesetzt werden kann. Das Prinzip des Digital Twin stammt aus der Industrie, wo es häufig genutzt wird, um Objekte wie Windkraft- oder Industrieanlagen zu analysieren und zu überwachen. Mithilfe agentenbasierter Modellierung (Rechenmodelle zur Simulation der Aktionen und Interaktionen autonomer Agenten) und Systemdynamiken (computergestützter Ansatz für die Richtlinienanalyse und -konzeption) werden Digital Twins auf nicht physische Objekte und Abläufe angewendet, so etwa auch auf die Vorhersage von Kundenverhalten.

Warum ist das wichtig? Digital Twins können dabei helfen, die Entwicklung und Verbreitung des Internets der Dinge (Internet of Things, IoT) zu fördern, da sie eine Möglichkeit bieten, IoT-Systeme vorausschauend zu diagnostizieren und zu warten. Wir rechnen damit, dass Digital Twins in Zukunft sowohl bei physischen Systemen als auch bei der Prognose von Verbraucherentscheidungen stärker zum Einsatz kommen.

10. Explainable AI: der Blick in die Blackbox

Worum geht es? Heutzutage wird eine Vielzahl an Algorithmen des maschinellen Lernens genutzt, die in verschiedenen Anwendungen wahrnehmen, denken und agieren. Viele dieser Algorithmen gelten jedoch als Blackbox: Sie bieten wenig oder gar keinen Einblick, wie sie zu ihrem Ergebnis kommen. Auf dem Gebiet der erklärbaren KI geht es darum, Techniken des maschinellen Lernens zu entwickeln, mit denen – unter Beibehalt der Vorhersagegenauigkeit – besser erklärbare Modelle erzeugt werden.

Warum ist das wichtig? Eine erklärbare, nachvollziehbare und transparente KI wird für die Schaffung von Vertrauen in die Technologie ausschlaggebend sein. Sie wird zudem die weitere Verbreitung von Techniken des maschinellen Lernens fördern. Für Unternehmen wird erklärbare KI Voraussetzung oder Best Practice sein, um sich auf eine breitere Anwendung von KI einzulassen. Staatliche Behörden könnten erklärbare KI künftig zur Vorschrift erheben.

Contact us

Werner Ballhaus

Leiter des Bereichs Technologie, Medien und Telekommunikation (TMT), PwC Germany

Tel.: +49 211 981-5848

Follow us