Technologien wie KI bieten fraglos viele neue Chancen für eine zukunftsgerichtete, umweltschonendere und nutzer:innenzentrierte Mobilität. Allerdings gehen wegen ihrer Eigenschaften mit den Technologien auch neue Risiken einher. Viele KI-Anwendungen nutzen beispielsweise die Methode des maschinellen Lernens: Hierbei entwickelt ein System ein Verhalten bzw. eine Entscheidungslogik, und zwar auf Basis historischer Trainingsdaten. Das kann dazu führen, dass Systeme sich in manchen Fällen in einer Art und Weise verhalten, die nicht erklärbar oder nicht robust ist.
KI-Systeme gelten in dem Maße als erklärbar, in dem Menschen nachvollziehen können, warum sie wie entscheiden und welche Vorhersagen sie treffen. Solche eine Nachvollziehbarkeit sicherzustellen, ist alles andere als trivial, weil die Systeme zumeist über Millionen bis Milliarden Parameter verfügen, die in komplexen Netzwerken miteinander verknüpft sind.
Die Robustheit von KI-Systemen bezieht sich auf die Fähigkeit, selbst unter unbekannten Bedingungen korrekt zu funktionieren, also generalisierbar zu sein. Ein autonomes Fahrzeug etwa, das die Entwickler beispielsweise lediglich mit Daten aus urbanen Zentren trainiert haben, sollte bei ausreichender Robustheit auch in ländlichen Gegenden sicher funktionieren. Das muss es auch, weil es im realen Straßenverkehr aufgrund von unzähligen unterschiedlichen Verkehrsteilnehmern, Straßeneigenschaften und weiteren Faktoren extrem viele verschiedene Verkehrsszenarien gibt. Bei der Entwicklung ist es nicht möglich, alle denkbaren Szenarien zu berücksichtigen. Das bedeutet: Selbst wenn ein System lediglich für einen bestimmten Betriebsbereich entwickelt und zugelassen ist, muss es seine Grenzen trotzdem zuverlässig kennen und erkennen. Die Robustheit von KI ist deshalb zentral.