Künstliche Intelligenz besser verstehen

04 September, 2017

Auch wenn das menschliche Gehirn weiterhin unerreicht bleibt: Deep Learning ist ein wesentlicher Schritt hin zu echter KI.

Nun ist es wohl so weit, dass die Mehrheit der Experten den praktischen Nutzen der Künstlichen Intelligenz (KI) anerkennt – ein Novum in der Geschichte der Technologie. Denn seit ihren konzeptuellen Anfängen in den 1950er-Jahren, die maßgeblich von den legendären Computerspezialisten Marvin Minsky und John McCarthy bestimmt wurden, war die Zukunftstauglichkeit der KI stets Gegenstand heftiger Debatten. Im Jahr 2000 reichte das effizienteste KI-System in seiner Komplexität gerade einmal an das Gehirn eines Wurms heran. Dann kamen Netzwerktechnologien mit hoher Bandbreite, Cloudcomputing und grafikfähige Hochleistungsprozessoren auf und die Wissenschaftler begannen, mehrschichtige neuronale Netzwerke zu bauen. Diese waren zwar extrem langsam und im Vergleich zum menschlichen Gehirn noch deutlich begrenzt, aber schon praktisch nutzbar.

Die bislang bekanntesten KI-Errungenschaften sind Softwaresysteme, die in Spielen wie Jeopardy!, Schach, Go, Poker und Fußball menschlichen Spielern überlegen waren. Doch diese Systeme unterscheiden sich in der Regel deutlich von Business-Anwendungen. Bei den Spielen gibt es vorgeschriebene Regeln und klare Ziele; jedes Spiel endet mit einem Sieg, einer Niederlage oder einem Unentschieden. Außerdem sind Spiele geschlossene Kreisläufe: Sie tangieren nur die Spieler, nicht irgendwelche außenstehenden Personen.

Spielesoftware kann manipuliert werden und diverse Fehler produzieren, doch das stellt keine ernsthafte Gefahr dar. Bei Business-KI-Anwendungen ist das anders; hier bestehen echte Risiken – etwa Unfälle selbstfahrender Fahrzeuge, Ausfall von Produktionsanlagen oder falsche Übersetzungen.

Zurzeit gibt es zwei konzeptuelle Ansätze für die Entwicklung der für KI-Programme notwendigen Fähigkeit, Rückschlüsse zu ziehen (Inferenz) – schließlich müssen diese lernen, auf die Komplexität des täglichen Lebens angemessen reagieren können. Bei beiden lernen die Programme anhand von Erfahrung, das heißt, die Antworten und Reaktionen, die sie erhalten, beeinflussen ihr weiteres Handeln. Der erste Ansatz nutzt hierfür bedingte Anweisungen (auch als Heuristik bekannt). So würde ein KI-Bot die Gefühle von Gesprächspartnern interpretieren, indem ein Programm ihn anweist, als Erstes die Gefühle herauszufinden, die er bereits aus vorherigen Konversationen kennt.

Den zweiten Ansatz kennt man als Machine Learning. Hier lernt eine Maschine, zunächst anhand von Beispielen Rückschlüsse über die sie umgebende Welt zu ziehen. Dann erweitert sie ihr Verständnis mithilfe dieser Schlussfolgerungsfähigkeit, ohne dabei speziellen Anweisungen zu folgen. Die Funktion der automatischen Vervollständigung von Suchbegriffen bei Google ist ein gutes Beispiel für Machine Learning: Gibt man das Wort „künstlich“ ein, so werden verschiedene Begriffe für das nachfolgende Wort vorgeschlagen, etwa „Intelligenz“, „Auslese“ oder „Befruchtung“. Niemand hat die Maschine programmiert, damit sie diese Ergänzungen vorschlägt. Googles Strategie besteht einfach darin, die drei am häufigsten nach „künstlich“ eingegebenen Wörter zu suchen. Mit riesigen Mengen an verfügbaren Daten kann Machine Learning eine unglaublich hohe Genauigkeit in Bezug auf Verhaltensmuster erreichen.

Das Deep Learning als eine Methode des Machine Learning hat in letzter Zeit stark an Bedeutung gewonnen. Ein Deep-Learning-System ist ein mehrschichtiges neuronales Netzwerk, das lernt, Abbilder der Welt zu erkennen. Es speichert diese in einer stark verschachtelten Hierarchie von Konzepten ab, die viele Schichten tief ist.Wenn das System zum Beispiel Tausende von Bildern mit menschlichen Gesichtern verarbeitet, erkennt es auf einer ersten Stufe einfache Bausteine wie gerade Linien und geschwungene Linien, dann Augen, Münder und Nasen, ganze Gesichter und schließlich konkrete Gesichtszüge. Über die Bilderkennung hinaus scheint Deep Learning auch ein vielversprechender Ansatz zu sein, um komplexe Herausforderungen anzugehen, etwa das Verstehen von Sprache, den Mensch-Maschine-Dialog, die Übersetzung von Sprachen oder die Steuerung von Fahrzeugen.

Deep-Learning-Anwendungen für verschiedene Branchen und Bereiche

Bereich

Ziel

Deep-Learning-Anwendung

Bank

Erkennen verdächtiger Aktivitäten an Geldautomaten auf Videoaufzeichnungen

Verarbeitung von Fotomaterial aus anderen zugänglichen Datenbanken der Strafverfolgungsbehörden und Identifikation von Aufnahmen, die verdächtige Aktionen zeigen

Versicherung

Kalkulieren von Ansprüchen aus einer Fahrzeugversicherung direkt anhand von Unfallfotos, die der Versicherungsinhaber einreicht

Erstellung von Heuristiken für grundlegende Anspruchsberechnungen, Training des Systems in der Analyse von Unfallfotos und heuristikbasierter Klassifizierung von Unfällen nach Schadensgröße und Kosten der beschädigten Teile

Gesundheit

automatisches Identifizieren möglicher Abweichungen auf CT-, MRT-, Röntgen- und weiteren diagnostischen Bildern

Aufbau eines Deep-Learning-Systems, das trainiert wird, große Mengen Bildmaterial zu analysieren und zu kategorisieren; Vernetzung mit Diagnoselabors, die dem System riesige Mengen Bildmaterial für die Mustererkennung zur Verfügung stellen

Automotive

Identifizieren der ansprechendsten Features von Fahrzeugen wie beispielsweise Design, Beschleunigung oder Geräumigkeit

Aufbau einer Datenbank mit Fahrzeugverkaufsdaten, die den modellspezifischen Eigenschaften der Fahrzeuge zugeordnet werden

Regierung/Behörden

Erkennen und Vorbeugen von Cyberattacken

Schaffung eines autonomen Systems, das die Internetportale und Gateways von Behörden sichert, indem es Tastenanschläge überwacht, Eingabemuster in Verbindung mit bereits erfolgten Attacken erkennt, mögliche Angreifer isoliert und menschliche Ermittler informiert

Quelle: PwC-Analyse    

Obwohl das heute entwickelte neuronale Netzwerk für Deep Learning weitgehend das menschliche Gehirn abbildet, ist es noch weit entfernt davon, alle Probleme zu lösen. Derzeit benötigt ein solches System mehrere Hochleistungsprozessoren, nicht vergleichbar mit unseren üblichen IT-Architekturen. Und das System lernt nur, wenn es riesige Datenmengen verarbeiten kann. Dabei sind seine Entscheidungsprozesse intransparent. Echte KI, die selbstständig sämtliche Entscheidungsprozesse unseres Gehirns simuliert, bleibt also weiterhin ein Produkt unserer Fantasie.

Dieser Artikel ist zuerst im Fachmagazin strategy+business als Teil des Strategist Guide to Artificial Intelligence erschienen.

Contact us

Werner Ballhaus

Werner Ballhaus

Leiter des Bereichs Technologie, Medien und Telekommunikation (TMT), PwC Germany

Tel.: +49 211 981-5848

Follow us