areto Data Chef

areto data chef topf

Ein modernes Data Warehouse sollte in der Lage sein, die Anforderungen agiler BI-Projekte zu erfüllen und neue Datenquellen zu unterstützen. Traditionelle ETL-Tools und Data-Warehouse-Architekturen verfügen nicht über die dazu erforderliche Agilität, Benutzerfreundlichkeit und den Automatisierungsgrad.

Die Lösung
Der areto Data Chef – innovatives Open Source Data Warehouse Automation Tool

Der areto Data Chef ist ein innovatives DWH-Tool, das den Data Warehouse-Erstellungsprozess durchgehend optimiert. Dadurch werden die Zeitdauer, Kosten und Risiken von Data Warehouse-Projekten erheblich reduziert. areto Data Chef unterstützt die analytischen Datenbanken von Exasol und Snowflake, um near-realtime-Data-Warehousing mit kontinuierlicher und inkrementeller Datenerfassung zu ermöglichen.

Datenintegration in wenigen Schritten mit dem areto Data Chef

Als Open-Source-Tool automatisiert der areto Data Chef die Datenintegration weitgehend. Ohne Benutzereingriffe und aufwändige Anpassungen von Schnittstellen werden Daten in wenigen Schritten im DWH integriert.

Die Extraktion der Daten erfolgt über Java-JDBC. Zudem können Daten über .csv-Files in die Datenbank geladen werden. Ein mitgeliefertes Repository sorgt dafür, dass sich die Nutzer*innen nicht mehr um lange und aufwändige Konfigurationen kümmern müssen. Der areto Data Chef enthält alle Metadaten und Informationen der ablaufenden Prozesse und kann nach Bedarf in Lösungen für das Monitoring integriert werden.

Die Zukunft ist Data Vault 2.0

Der areto Data Chef basiert auf der Modellierungsmethode Data Vault 2.0 und generiert die Datenbankobjekte, Prozesssteuerung sowie die drei Zugriffsschichten eines DWHs (Stage, Core und Mart) auf Basis unterschiedlicher Mapping-Dateien selbstständig. Die Mappings bilden die Grundlage zur Datenorganisation im DWH. Über sie werden die in Data Vault verwendeten Objekte Hubs, Links und Satellites definiert. Zudem hat der Nutzer die Möglichkeit, die bei der Beladung erforderlichen Hard- und Soft Business Rules festzulegen.

Herkunft und Änderungen der Daten sichtbar und nachvollziehbar

Weitere Features des Data Chefs sind die selbstständige Generierung von Hash Keys und die Historisierung im DWH. Für die Nutzer*innen werden Herkunft und Änderungen der Daten sichtbar und nachvollziehbar.

Reduzieren Sie Ihren Zeitaufwand bei der Erstellung eines DWH um bis zu 50%

Die Verwendung des areto Data Chefs spart bis zu 50% des sonst üblichen Implementierungsaufwandes ein. Einerseits wird die Datenqualität durch die Reduktion manueller Nutzereingaben erhöht. Andererseits kann das DWH durch die Nutzung von Data Vault 2.0 flexibel erweitert und angepasst werden– und ist damit optimal für neue Anforderungen gerüstet.

Den areto Data Chef gibt es On-premises & on cloud

data chef topf

Datenhaltung einfach gemacht – Wie der areto Data Chef Ihre Daten strukturiert

Der areto Data Chef ermöglicht es dem Anwender, sich bei der Umsetzung von BI-Projekten auf die fachlichen Aspekte der Anforderungen zu konzentrieren. Eine Beachtung der technischen Umsetzung ist unter Einsatz des areto Data Chefs nicht weiter erforderlich. Mit geringen technischen Kenntnissen können Anwender*innen des Tools eine komplette Datenintegration umsetzen und diese in bestehende Systeme einfügen. Auf diese Weise kann die Erweiterung eines DWHs in kürzester Zeit und in konstanter Qualität realisiert werden.

Agile BI leicht gemacht mit dem areto Data Chef

Agile BI-Projekte stellen neue Anforderungen an das zugrundeliegende Datenmodell für den Aufbau eines Data Warehouse. Da das DWH mit jeder Iteration um weitere Funktionen erweitert wird, muss das Datenmodell mit seinen Anforderungen mitwachsen. Vorhandene Datenmodelle und deren Ladeprozesse sollen nach Möglichkeit unverändert bleiben, um eine erneute Ausführung von Tests zu vermeiden.

Unter Verwendung von Data Vault 2.0 werden Informationen nach Schlüsselwerten („Hubs“), Referenzen („Links“) und Kontextattributen („Satellites“) unterteilt. Diese Strukturierung ermöglicht einen höchstmöglichen Grad an Standardisierung des Datenmodells und der Ladeprozesse. Eine Erweiterung des Datenmodells hat keinen Einfluss auf bestehende Strukturen. Sobald der Anwender die Mappings für den Data Chef bestimmt hat, erzeugen diese die relevanten Datenbankobjekte nach Data Vault: Hubs, Links und Satellites.

Eine Trennung der Daten im DWH erfolgt über einen Raw Vault (integrierte Rohdaten) und einen Business Vault (Ergänzung des Raw Vault um transformierte Daten). In Kombination mit einer allumfassenden Historisierung kann eine volle Revisionsfähigkeit der Daten sichergestellt werden.

Der areto Data Chef enthält alle Metadaten und Informationen zu den ausgeführten Prozessen im DWH und kann in Lösungen für das Prozess-Monitoring integriert werden.

areto consulting karriere e1556180721943
Video abspielen
Datenversorgung von Snowflake mit Kafka Snowpipe Data Chef

areto Data Chef – innovative Technik open source

Überzeugen Sie sich von der Leistungsfähigkeit des areto Data Chef. Gern beraten wir Sie über den optimalen Einsatz der Lösung.

Nutzen Sie Ihre Daten. Entdecken Sie Chancen. Gewinnen Sie neue Erkenntnisse.

Wir freuen uns auf Ihren Kontakt !

Till Sander CTO areto