Komplexes regulatorisches Umfeld sowie Transparenz- und Kontrollanforderungen der institutionellen Investoren (Umfang, Frequenz) erfordern Professionalisierung des Datenmanagements
Aktuelle Gaps
Mängel in der Datenqualität
Schwierigkeiten bei der kurzfristigen Bereitstellung von Daten
Redundanzen aufgrund der Vielzahl der Beteiligten
Zulieferung der Daten aus verschiedenen internen und externen Quellen erzeugt unterschiedliche Datenqualitäten sowie Schnittstellen, die zu Fehlerquellen führen
Unterschiedliche Verarbeitungssysteme erhöhen die Komplexität und verursachen erhöhten Kontrollaufwand
Projektvorgehen
Screening der Datenströme (Quellen, Verarbeitung, Empfänger)
Analyse und Bewertung der Reporting-Anforderungen
Analyse von Prozessen, Strukturen und Systemen
Ableitung und Bewertung von Strukturoptionen unter Berücksichtigung von Make or Buy (Sourcing-Optionen)
Erstellung und Bewertung von Business Cases anhand festgelegter Kriterien wie Gewährleistung höchstmöglicher Flexibilität, Effizienz sowie Wirtschaftlichkeit
Ableitung Target Operating Model (TOM)
Festlegung und Beschreibung von Realisierungsmaßnahmen sowie organisatorischer und ressourcenbezogener Konsequenzen
Ergebnisse
Erhöhung bzw. Sicherstellung der Datenqualität (Inhalte, Frequenzen, Timeline), transparenter Datenströme
Effizientes Prozessmodell (Minimierung von Fehlerquellen und Redundanzen)
Passende Wertschöpfungstiefe
Professionalisiertes Datenmanagement – effizient und wirtschaftlich