Die Agilität und Dezentralisierung treffen disruptiv die Architektur der analytischen Systeme. Von einem modernen Analytics System werden die folgenden Eigenschaften erwartet: Flexibilität, Elastizität, Automatisierung und Self Service, Entkoppelung der einzelnen Applikationen, sowie Real-time Fähigkeiten. Die Cloud und containerbasierte Architekturen bieten den optimalen Rahmen dafür an.
Die Agilität und Dezentralisierung treffen disruptiv die Architektur der analytischen Systeme. Von einem modernen Analytics System werden die folgenden Eigenschaften erwartet: Flexibilität, Elastizität, Automatisierung und Self Service, Entkoppelung der einzelnen Applikationen, sowie Real-time Fähigkeiten. Die Cloud und containerbasierte Architekturen bieten den optimalen Rahmen dafür an.
Die wichtigsten Treiber der modernen dezentralen Architektur-Konzepte sind Domain-driven Design (DDD) und Microservice Architekturen. DDD bringt eine dezentralisierte Architektur bestehend aus Domänen (häufig IT-Systemen) mit klar definierten fachlichen Einsatzbereichen (Bounded Context) und verständlichen visualisierten Abhängigkeiten und Interaktionen (Context Maps). Es gilt eine einheitliche für alle Personen verständliche, ubiquitäre Sprache. Microservice Architekturen, die Methoden der Dekomposition, Entkopplung, sowie Isolierung der einzelnen Services umfassen, verändern und definieren die Software-Entwicklung neu.
Die möglichen Ausprägungen der modernen Architekturen sind vielfältig. Architecutre follows Use Case.
Klassische Data Warehouse mit Data Marts nach Inmon- oder Kimball-Prinzipen für die strukturierten Daten unterstützen klar definierte fachliche Use Cases mit Top-Down Methoden optimal. Die Data Lakes mit zusätzlichem Speicher für die teil- und unstrukturierten Daten dienen den Data Scientisten für die Exploration und Bildung der Bottom-Up Use Cases.
Data Mesh wendet die Idee von dezentralen Domänen mit eigener Data Ownership und Architektur an. Die Daten werden als Produkt einer Domäne durch Microservices erstellt und anderen Domänen mit Self-Service Daten-Infrastruktur angeboten. Eine domänen-übergreifende Governance Organisation sorgt für die globalen Entscheidungen, definiert die globale ubiquitäre Sprache und die Domänengrenzen.
Data Fabric ist eine Daten Architektur, welche mit unterschiedlichen Technologien und Services mehrere Domänen verbindet. Die Daten können basierend auf den intelligenten metadaten-gestützten Pipelines ausgetauscht werden. Der Anwender kann einfach durch Self Service auf alle Daten zugreifen und diese beliebig konsumieren. AI und ML unterstützen die Data Governance, Datenqualität und ‑Aufbereitung.
synvert saracus unterstützt den Aufbau und die Modernisierung der Datenarchitekturen mit unterschiedlichen Technologien und in verschiedensten Umgebungen (On-Premises, Cloud, Hybrid und Multi Cloud).
Bei der Entwicklung einer Datenarchitektur ist es wichtig, klare Anwendungsfälle zu definieren. synvert saracus unterstützt Sie bei der Identifikation der notwendigen Daten aus internen und externen Domänen, bei der Auswahl der richtigen Technologien und beim Projektmanagement mit einer zielgerichteten Roadmap-Planung.
Je nachdem, wie die neue Architektur in Ihre bestehenden Systeme integriert werden soll, muss entschieden werden, ob sie On-Premises, in der Cloud oder hybrid konzipiert werden soll. Durch die Durchführung von PoCs und Piloten, einschließlich der Unterstützung bei der Toolauswahl, der Systemintegration und der Entwicklung der logischen Architektur, garantiert synvert saracus, dass sich Ihre neuen Systeme nahtlos in die bestehenden Systeme einfügen.
Die Implementierung von Data Governance unterstützt Sie bei der Einhaltung von Standards in Ihrer Datenarchitektur. Eine klare Zuweisung von Rollen und Verantwortlichkeiten sorgt dafür, dass Geschäftsprozesse standardisiert und workflowgestützt ablaufen und dass Ihre Mitarbeiter durch Geschäftsglossare und Datenkataloge ein klares Verständnis erhalten und so ihre Datenkompetenz verbessern.
Mit Hilfe von generischen Branchen- und Anwendungsfallmodellen kann saracus Ihnen agile Datenmodellierungskonzepte anbieten. Mit vorgefertigten Data Marts und Datenproduktstrukturen für eine Vielzahl von Anwendungsfällen, einschließlich Data Vault und Anker-Modellierung, stellt saracus sicher, dass Ihre neue Datenarchitektur Best Practices verkörpert und Branchenstandards erfüllt.
Im Zuge der Entwicklung einer Datenarchitektur ist es wichtig, auch einen Blick auf die Datenqualität und die Datenaufbereitung zu werfen. Die Definition von Datenqualitäts-KPIs sowie deren Messung und Visualisierung hilft Ihnen, ein hohes Niveau an Datenqualität zu halten. Der Entwurf und die Implementierung von automatisierten Datenpipelines sowie verschiedener Integrationsmuster (CDC, synchron, asynchron, Bulk, ETL/ELT, Streaming usw.) stellen sicher, dass diese Standards eingehalten werden.
Auf Abruf
Auf Abruf
Auf Abruf
Auf Abruf
Einleitung Im ersten Teil unserer Blogreihe „Effizienter Arbeiten“ haben wir uns intensiv damit beschäftigt, wie Meetings durch klare ...
Exasol ist eine Datenbank, die auf die Performance von Queries ausgelegt ist und den Anspruch hat, wartungsarm zu sein. In diesem Bl...
Daten gewinnen in unserer heutigen Welt stetig an Wert. Immer wieder entstehen neue Geschäftsmodelle zur sicheren Speicherung, datensch...
Ich beschäftige mich seit mehr als 30 Jahren mit der Modellierung von Daten und habe eine Vielzahl von Datenmodellen (3NF, dimensional, Ens...
Sie erhalten in Kürze eine E‑Mail zur Aktivierung Ihres Kontos.