Von Build & Query Your Data zu Ask & Understand Your Business

Wie KI-native Datenplattformen Business neu definieren

  • Artikel
  • 3 Minuten Lesezeit
  • 01 Aug 2025

Laut dem aktuellen 28. PwC Global CEO Survey erwarten knapp die Hälfte aller CEOs, dass generative KI die Profitabilität bereits im kommenden Jahr erhöht. Dennoch geben nur 31 Prozent an, KI systematisch in ihre Personal- und Kompetenzstrategie zu integrieren. Eine Ursache: Daten sind zwar vorhanden, aber nicht KI-ready.

Unternehmen investieren bereits viel in Data Lakes und Reporting-Systeme, doch operative Fragen dauern weiterhin Tage bis Wochen. „Welche Kunden sind durch die Lieferverzögerung betroffen?“, eine einfache Frage, die komplexe ETL-Prozesse auslöst. Der Paradigmenwechsel: Von Build & Query zu Ask & Understand macht Daten dialogfähig und ermöglicht natürliche Interaktion mit Unternehmensinformationen in Echtzeit.

Dieser Wandel markiert den Übergang von einer technischen Datenverarbeitung hin zu einer semantischen Datenkultur, in der Informationen nicht mehr nur bewegt, sondern in ihrem Geschäftskontext verstanden werden.

Operational Performance neu gedacht: Daten verstehen statt statisch in Reports laden

Kennen Sie das? Ein Produktionsleiter fragt am Montag: „Welche Aufträge sind durch die Lieferverzögerung aus Asien betroffen?“ Die Antwort kommt verzögert als Bericht.

Viele Unternehmen haben in den letzten Jahren begonnen, zahlreiche Datenprodukte zu entwickeln. Häufig geschieht dies im Rahmen einer Data-Mesh-Architektur, bei der Fachbereiche eigene Datenprodukte verantworten und organisationsweit bereitstellen. Was sich nun verändert, ist nicht nur die Art der Entwicklung, sondern insbesondere die Nutzung dieser Datenprodukte.

Diese Build & Query-Mentalität war lange Zeit richtig: Daten sammeln, modellieren und über vordefinierte Berichte bereitstellen. Heute hemmt sie jedoch die Geschwindigkeit operativer Entscheidungen. Während sich Marktanforderungen beschleunigen, warten Unternehmen weiterhin auf IT-Spezialisten zur Durchführung neuer Auswertungen.

Endkonsument:innen wollen Daten zunehmend tiefgehend verstehen und nicht länger ausschließlich über vorgefertigte Berichte konsumieren. Operative Fragen sind spontan und es wird erwartet, daraus fundierte, kontextbasierte Antworten zu erhalten. Die Nutzung verschiebt sich von vordefinierten Auswertungen hin zu interaktiven Abfragen, die flexibel auf individuelle Fragestellungen reagieren.

Die Alternative: Ask & Understand bedeutet nicht weniger Datenqualität, sondern direkteren Zugang. Semantische Modelle und KI machen Informationen dialogfähig, ohne die Governance aufzugeben.

Künftig werden Datenprodukte so modelliert, dass sie von generativen Sprachmodellen sinnvoll interpretiert werden können. Entscheidend ist jedoch die semantische Pflege der Inhalte: die eindeutige Beschreibung von Kontext, Beziehungen und Bedeutungen. 

Datenprodukte wandeln sich dadurch von statischen Reportquellen zu dynamischen, dialogbasierten Interfaces, die aktiv zur Wertschöpfung beitragen.

Technologische Umsetzung: Semantische Datenarchitekturen in der Praxis

Die theoretischen Konzepte von „Ask & Understand“ lassen sich heute bereits mit modernen Datenplattformen umsetzen. Ein Beispiel dafür ist Microsoft Fabric, das die notwendigen Komponenten für semantische Datenarchitekturen vereint. Unternehmen brauchen keine weiteren Reports, sondern klare Antworten auf operative Fragen: direkt, kontextbasiert und im Moment der Entscheidung.

Das zentrale Problem vieler Unternehmen: Operative Daten liegen verteilt in Systemen vor und können kaum effizient genutzt werden. Moderne Plattformen ermöglichen es, Steuerungskennzahlen systemübergreifend zu analysieren: flexibel, interaktiv und KI-gestützt. Nutzer:innen erhalten Antworten auf konkrete Fragen, ohne auf zentrale Reportingprozesse angewiesen zu sein.

Die folgenden Ausführungen zeigen anhand von Microsoft Fabric, wie die „Ask & Understand“ realisiert werden kann.

Früher: „Erstelle mir einen Report über Produktionsengpässe.“

Heute: „Welche Aufträge kann ich noch diese Woche ausliefern?“

Dies wird durch semantische Layer gelöst, die Business-Sprache verstehen. Nicht mehr „Tabelle XY, Spalte Z“, sondern „Auftrag“, „Kunde“, „Liefertermin“. Produktionsleiter erhalten präzise Antworten in Sekunden statt Tage auf IT-Reports zu warten. Operative Fragen werden direkt beantwortet, nicht umständlich in Dashboards gesucht.

Früher: 6 Monate für Integration neuer Datenquellen

Heute: Virtualisierung und Shortcuts verbinden Systeme in Tagen

Neben klassischen Integrationsjobs entstehen schlankere Ansätze: Shortcuts virtualisieren Daten aus ERP und CRM-Systemen, Mirroring repliziert kritische Datensets in Echtzeit. Je nach Anforderung physische Integration oder virtueller Zugriff. Ergebnis: Flexiblere Architekturen in Tagen.

Früher: Datenmodell für Reports optimieren

Heute: Datenmodell für KI-Verständnis optimieren

Statt technischer Tabellen-Joins entstehen Business-Ontologien. „Customer_ID“ wird zu „Kunde mit Vertragshistorie, Zahlungsverhalten, Kommunikationspräferenzen“. Large Language Models verstehen Kontext, nicht nur Datentypen. KI-Assistenten interpretieren „umsatzstärkste Kunden“ ohne SQL-Kenntnisse. Semantische Modelle machen Daten für KI dialogfähig und geschäftsrelevant.

Früher: Login → Report → Filter → Export → Excel → Analyse

Heute: Teams-Chat → „Zeig mir kritische KPIs“ → Sofortige Antwort

Endanwender interagieren per KI-Assistenten direkt mit Datenprodukten. Automatische Überwachung alarmiert bei Schwellwerten via Teams. Controller erfahren von Budgetabweichungen, bevor sie danach suchen. Der Zugriff erfolgt nahtlos in vertrauten Tools wie Power BI, Excel oder Teams ohne technische Hürden oder Schulungsaufwand.

Früher: 40 Stunden Aufwand für 5 Minuten Erkenntnisse

Heute: Kontinuierlicher Dialog mit Daten über Daten Agenten

Daten Agenten machen Datenprodukte über natürliche Sprache zugänglich, eingebettet in operative Arbeitsumgebungen. Der „Daten-Assistent“ warnt vor Engpässen, schlägt Optimierungen vor, beantwortet Ad-hoc-Fragen. Governance bleibt gewährleistet: Row-Level Security und auditierbare Abfragen. Verfügbar wo Sie arbeiten, nicht wo IT entscheidet.

Die Autoren

Martin Whyte
Martin Whyte

Partner, Data & AI Data Platform and Governance, PwC Germany

Andreas  Odenkirchen
Andreas Odenkirchen

Director, Data & Analytics, Operations Transformation, PwC Germany

Maximilian Franke
Maximilian Franke

Manager, Data & AI, PwC Germany

Follow us