Datenplattformen der nächsten Generation

Ihr Experte für Fragen

Andreas Odenkirchen
Director und Data & Analytics Experte bei PwC Deutschland
Tel.: +49 151 1553-5019
E-Mail

Daten im Unternehmen noch effektiver nutzen, mit Hilfe von Data Mesh, Data Fabric und Co.

Was führt bei unserer Kundschaft zur Kaufentscheidung? Bei welchen Produkten besteht das Risiko von Lieferengpässen? Wie komme ich an relevante Daten aus anderen Fachbereichen? Und was genau bedeutet eigentlich eine bestimmte Kennzahl?

Im Umgang mit Daten stellen sich für viele Unternehmen abteilungsunabhängig immer wieder große Fragen. Die richtige Nutzung und Nutzbarkeit von Daten ist längst ein entscheidender Faktor, um aus strategischer und betriebswirtschaftlicher Vision handfesten Erfolg zu machen. Das ist im Angesicht immer heterogener Datenquellen und exponentiell ansteigender Datenmengen mit vielen Herausforderungen verbunden. Für nicht spezialisierte Mitarbeitende steigt die Einstiegshürde, diese Daten zu verarbeiten und auszuwerten. Die Datenqualität schwankt mit jeder weiteren Quelle und die benötigten Technologien werden immer komplexer.

In Unternehmen etablierte, zentralisierte Datenplattformen wie Data Warehouses und Data Lakes werden deshalb mehr und mehr durch dezentrale und stärker automatisierte Ansätze ergänzt – oder gar ersetzt. So bringen neue Konzepte wie Data Mesh und Data Fabric einen Paradigmenwechsel für den Umgang mit Unternehmensdaten mit sich – eine Blaupause für jedes Unternehmen gibt es jedoch nicht. Auf dem Weg zur Datenplattform der nächsten Generation beraten wir Sie bei Strategie, Konzept, Umsetzung und Upskilling für ein maßgeschneidertes Modell, das zu Ihrem Unternehmen passt.

„Für Datenmanagement gibt es keine Einheitslösung – jede Organisation muss für sich den passenden Zentralisierungs- und Automatisierungsgrad finden. Moderne Ansätze wie Data Mesh und Data Fabric können jedoch entscheidend dabei helfen, Daten im Unternehmen schneller und besser nutzbar zu machen.“

Andreas Odenkirchen,Director und Data & Analytics Experte

Steigende Relevanz und neue Herausforderungen

Enterprise Data Management ist keine neue Disziplin – aber mit der rapiden Digitalisierung der letzten Jahre exponentiell wichtiger geworden, um die im Betrieb anfallenden Daten sowie relevante externe Daten optimal nutzbar zu machen. Aber auch, um neue regulatorische Anforderungen abzubilden und kostspielige Strafen zu vermeiden.

Ein systematischer Umgang mit Daten wird aus einer Reihe von Gründen immer wichtiger:

  • B2C-Kund:innen wünschen sich neue und personalisierte Produkte und Dienstleistungen, Unternehmenskunden fordern zudem mehr Flexibilität und Transparenz.
  • Technologische Entwicklungen wie das IoT erhöhen die Datenmengen, umgekehrt sind bestimmte Technologien wie künstliche Intelligenz ihrerseits auf neue Daten angewiesen.
  • Regulatorik stellt striktere Anforderungen an die Datenverarbeitung, zudem steigt die politische und öffentliche Aufmerksamkeit.

Demgegenüber stehen eine Reihe von Herausforderungen in der Umsetzung:

  • Effektive Datennutzung ist durch Datensilos, Qualitätsmängel und unklare Governance schwer zu erreichen.
  • Auch der Fachkräftemangel bleibt ein Problem: Data Architects, Engineers und Analyst:innen sind rar, auch in den Domänen fehlt oft das Verständnis zur richtigen Gewinnung, Einordnung und Nutzung der Daten.
  • Komplexe IT-Landschaften mitten in der Transformation erschweren einheitliche Standards und Schnittstellen.

Modellübersicht: Die richtige Plattform für Ihre Daten

Data Warehouse

Der ursprüngliche und immer noch weit etablierte Ansatz für Enterprise Data Management für analytische Zwecke: ein umfängliches, zentrales Data Warehouse (DWH). Darauf setzen nach unserer Data Mesh Study 2022 rund 84 Prozent der deutschen Unternehmen. In zentralen „Lagerhäusern“ sammeln Organisationen strukturierte Daten aus diversen Quellen unter einem Dach – etwa Kundendaten, betriebliche Kennzahlen oder operationelle Parameter. Das erleichtert die Nutzung im Alltag, stößt aber je nach Anwendung schnell an seine Grenzen. Das Problem: Der Ansatz ist durch seine zentrale Verwaltung und starre Datentransformationsstrecken unflexibel und träge für neue Prozesse, Quellen und Anwendungsfälle. Zudem ist die Datenvariabilität technisch begrenzt und die Kosten für große, hochverfügbare Datensätze steigen schnell.

Data Lakes und Data Lakehouses

Aus den Herausforderungen mit DWHs erwuchs der Ansatz der Data Lakes. In diesen „Datenseen“ sammeln rund 78 Prozent der Unternehmen u.a. Rohdaten – etwa zu Betrieb, Projekten oder Kunden. Diese müssen zuvor nicht mehr zwingend homogenisiert werden, so werden ihre Nutzung und Analyse deutlich flexibler. Bei Bedarf werden sie dann in spezifische DWHs mit eigenen Richtlinien ausgelagert – Data Lakehouses. So können beliebige Daten mittels Big Data-Methoden und (Cloud-) Technologien genutzt und analysiert werden. Das System ist skalierbar, Speicherung und Backup großer Sätze günstig und für die Verarbeitung mit künstlicher Intelligenz bereit – doch meist bleibt die Steuerung weiterhin zentral und das System monolithisch. So können auch Data Lakes schnell zum Flaschenhals einer Organisation werden. Die Fachbereiche haben keinen direkten Zugriff, umgekehrt fehlt den Data Engineers spezifisches Fachwissen. Auch die Datenqualität kann durch den hohen Freiheitsgrad und weniger direkte Verantwortung leiden.

Data Mesh: Dezentral und spezialisiert

Bereits 83 % aller befragten Unternehmen geben an, künftig Datenvernetzung via Data Mesh nutzen zu wollen, 15 % sind bereits so weit. Dahinter verbirgt sich eine dezentralisierte Datenarchitektur, in der die Daten spezifisch nach Unternehmensbereich organisiert abliegen – etwa für Marketing, Finance und HR. So hat jede Domäne ihre eigenen Data Landing Zones und betreibt Datenprodukte, die für andere Domänen für Analytics nutzbar gemacht werden. Das stärkt die Eigenverantwortung der Datenproduzenten und führt zu einer engeren Auseinandersetzung der Domänen mit ihren Anforderungen an die Daten selbst. Dies kann letztlich die Datenqualität steigern, neue Anwendungsfälle schaffen, Datensilos abbauen und neue Synergien aufdecken.

Data Fabric: Effizient Wissen generieren

Ein weiterer neuer Ansatz für effizientes Datenmanagement, der sich als Ergänzung zum Data Mesh anbieten, ist Data Fabric.

Ziel dieses Ansatzes ist es, logisch-zusammenhängende Daten automatisiert zu verknüpfen und so nicht nur Domänenwissen in den Datenschatz zu integrieren, sondern das verfügbare Dateninventar Ende-zu-Ende zu denken. Dafür sind Metadaten zu den verfügbaren Datenpunkten, die deren semantische Bedeutung, Ursprung und Fluss zwischen Systemen abbilden, essentiell. Die manuelle Datenmodellierung kann durch einen KI-basierten Knowledge Graph unterstützt werden, der es Nutzern nicht nur ermöglicht, die Beziehungen zwischen Datenpunkten leichter zu durchdringen, sondern diesen auch neue verknüpfte Analysen vorschlägt. Das hilft, effizient neue Insights und zusätzlichen Mehrwert aus Daten zu generieren.

Die Datenplattform der nächsten Generation

Acht Bausteine für Ihre Next-Gen-Datenplattform

Obwohl der dezentrale Ansatz das Potenzial hat, Engpässe im wertschöpfenden Umgang mit Daten zu beseitigen, haben auch Data Lakes und Data Warehouses weiterhin ihre Daseinsberechtigung. Wir helfen Ihnen dabei herauszufinden, welche Datenarchitektur Ihre künftigen Anforderungen optimal abbildet und maximalen Business Value generiert.

Dabei orientieren wir uns an acht wesentlichen Bausteinen, die aus unserer Sicht wesentlich für Ihre individuelle Datenplattform von morgen sind:

Zudem können Sie hier auf uns zählen

  • Assessment aktueller Architektur und Infrastruktur inklusive Herausforderungen und Anforderungen für eine Datenplattform der nächsten Generation
  • Strategien für Data Mesh und Data Fabric, sowie hybride Modelle entlang aller Anforderungen und Schlüsselfähigkeiten (zum Beispiel Datendomänen, interdisziplinäre Datenprodukt-Teams, DataOps-Methoden, Data Catalog, Data Marketplace und Data Governance Automatisierung)
  • Technische Implementierung bzw. Modernisierung Ihrer Datenplattform auf Basis moderner Cloud Technologien 
  • Ganzheitliche Begleitung der Daten-Transformation oder schrittweise Implementierung für einzelne Fähigkeiten, Domänen, und Anwendungsfälle
  • Upskilling Ihrer Mitarbeiter für optimalen Zugang und Nutzung von Daten und Analytics-Möglichkeiten

Data Mesh & SAP – Unternehmensdaten erfolgreich mit der SAP BTP vernetzen

Monolithische, zentral organisierte Datenplattformen, organisatorische Engpässe und kritische Lücken zwischen Expert:innen und den für sie relevanten Informationen – vor diesen Herausforderungen stehen viele Unternehmen. Data-Mesh-Konzepte schaffen Abhilfe. SAP bietet mit der Business Technology Platform (SAP BTP) die passende technologische Basis für diese neue Form der Datenverwaltung.

Mehr erfahren

„Vom Assessment des Status Quo bis zur Implementierung eines zentralen, dezentralen oder hybriden Modells: Unser Expert:innen unterstützen Sie auf dem Weg zu Ihrer Next-Generation Datenplattform, um maximalen geschäftlichen Mehrwert aus Daten zu ziehen.“

Andreas Odenkirchen,Director und Data & Analytics Experte
Follow us

Contact us

Andreas  Odenkirchen

Andreas Odenkirchen

Director, Data & Analytics, Technology Consulting, PwC Germany

Stephan Bautz

Stephan Bautz

Senior Manager, PwC Germany

Tel.: +49 170 5361456

Hide