Konsolidierung der dezentralen und hoch manuellen Datenverarbeitung hin zu einer automatisierten, zentralen Datenhaltung, Aufbau eines Unternehmens-Reportings und Evaluation der optimalen Liefer-/Produktionsmenge.
Die Vielzahl der manuellen Importdateien in unterschiedlichen Formaten wurden analysiert und für eine Speicherung in einem zentralen Datenmodell vorbereitet. Alle Daten wurden mit dem areto Data Chef modelliert und verarbeitet, welche mit MS PowerBI umgesetzt, die Basis für das Reporting darstellen.
Innerhalb kürzester Zeit sollte eine Beladung der Altdaten mit Data Vault als Zieldatenmodell realisiert werden, damit Vorschläge zur Ablösung des alten Reporting geliefert werden konnten. Erste Data Science Analysen beschäftigen sich mit der optimalen Thekenbefüllung.
Ablösung der extrem zeitaufwendigen und fehleranfälligen Datenverarbeitung der Umsatzberichte und Lieferung, sowie Retouren der Partner-Filialen. Damit wird es den Fachabteilungen ermöglicht, Kernaufgaben wahrzunehmen und ihre täglichen Aufgaben auf Basis qualitätsgesicherter Daten auszuführen. Retouren-Senkung sind das Resultat der Data Science Analyse, so dass eine bedarfs- und nachfragegerechte Belieferung der Märkte ermöglicht werden kann. Dieses sind Voraussetzungen für das geplante starke Wachstum.
Methoden
Anforderungsaufnahme, Anforderungsmodellierung, Data Vault, Architekturvorschlag, Reporting, Data Science
Technologien
Exasol, Data Chef, Microsoft PowerBI, Java, Python, Azure