Eine neue Tech­no­lo­gie ist dann aus­ge­reift, wenn sie von einem „nice-to-have“ zu einem „must-have“ wird. Die Daten­be­ob­ach­tung fällt in diese Kate­go­rie. Sie dient den kri­ti­schen Anwen­dungs­fäl­len der Erken­nung von Anoma­lien für die Daten­qua­li­tät und die Zuver­läs­sig­keit der Datenpipeline.

Daten­be­ob­ach­tung ist eine Schlüs­sel­kom­po­nente von Data­Ops, die dar­auf abzielt, die Geschwin­dig­keit und Qua­li­tät der Daten­be­reit­stel­lung zu ver­bes­sern, die Zusam­men­ar­beit zwi­schen IT- und Geschäfts­teams zu ver­bes­sern und den mit der Daten­ver­wal­tung ver­bun­de­nen Zeit- und Kos­ten­auf­wand zu redu­zie­ren. Data­Ops hilft Unter­neh­men, daten­ge­stützte Ent­schei­dun­gen schnel­ler und siche­rer zu tref­fen, da es ihnen eine ein­heit­li­che Sicht auf die Daten im gesam­ten Unter­neh­men bie­tet und sicher­stellt, dass die Daten kor­rekt, aktu­ell und sicher sind.

Mit dem Ein­tritt in eine neue Ära, die von zwei gro­ßen Ver­än­de­run­gen geprägt ist – der Ver­lang­sa­mung der Wirt­schaft und dem Auf­stieg von Daten­pro­duk­ten – sind neue Anwen­dungs­fälle für die Daten­be­ob­ach­tung ent­stan­den. Diese bezie­hen sich auf die Mes­sung und Ver­bes­se­rung der Unter­neh­mens­pro­duk­ti­vi­tät (Data­Bi­zOps) und die Kon­trolle der Kos­ten von Daten­pipe­lines (Data­Fin­Ops).

Wir gehen davon aus, dass mit zuneh­men­der Reife der Daten­be­ob­ach­tung wei­tere Anwen­dungs­fälle hin­zu­kom­men wer­den, z. B. die Über­wa­chung und der Schutz der Daten­si­cher­heit, was zu einer umfas­sen­den Meta­da­ten­platt­form füh­ren wird. Abbil­dung 1 zeigt den der­zei­ti­gen Umfang die­ses Konzepts.

Abbil­dung 1: Die Beob­acht­bar­keit von Daten ist ein mehr­di­men­sio­na­les Kon­zept, das drei Berei­che umfasst: Daten­qua­li­tät, Daten­zu­ver­läs­sig­keit und Geschäfts­ab­läufe ein­schließ­lich Kos­ten­kenn­zah­len. Diese drei Berei­che sor­gen jeweils für Ver­trauen, Zuver­läs­sig­keit und Wert.

Die­ses Papier kon­zen­triert sich auf Data­Fin­Ops und DataBizOps.

Wozu brau­chen wir DataFinOps?

Daten sind ein Opfer ihres eige­nen Erfolgs. Daten wer­den nicht mehr als „Aus­puff“ von Anwen­dun­gen ver­spot­tet, son­dern sind zum Königs­ma­cher gewor­den. Sie wer­den nicht mehr nur von eini­gen weni­gen spe­zia­li­sier­ten Ana­ly­ti­kern genutzt, son­dern von einer Viel­zahl von Ver­brau­chern, die sie für immer neue Zwe­cke ein­set­zen. Dar­über hin­aus hat sich die durch­schnitt­li­che Anzahl der Daten­quel­len, die Daten gene­rie­ren, eben­falls deut­lich erhöht. Stel­len Sie sich vor, wir sind von ein paar Dut­zend Daten­quel­len, wie ERP und CRM, die alle inner­halb unse­rer Fire­walls lie­gen, zu einer Explo­sion von SaaS-Pro­duk­ten über­ge­gan­gen. Jüngste Stu­dien zei­gen, dass Unter­neh­men im Durch­schnitt 110 SaaS-Pro­dukte ver­wen­den, und große Unter­neh­men haben jetzt fast 500.

Auf der einen Seite haben wir es mit einer grö­ße­ren Anzahl von Daten­quel­len, mehr Daten­kon­su­men­ten und mehr Anwen­dungs­fäl­len zu tun, aber auf der ande­ren Seite haben wir auch einen Ansturm neuer Tools und Anwen­dun­gen erlebt, die unsere Daten ver­ar­bei­ten. Diese Tools sind nicht mehr auf unsere Fire­wall-geschütz­ten Umge­bun­gen beschränkt, son­dern fin­den sich am Rande, in pri­va­ten und öffent­li­chen Clouds. Kurz gesagt, die Daten­pipe­lines sind kom­plex und unhand­lich gewor­den. Es ver­steht sich von selbst, dass die Unter­neh­men jetzt daran inter­es­siert sind, die finan­zi­el­len Kenn­zah­len für den Auf­bau und den Betrieb von Daten- und Ana­lyse-Workloads zu verstehen.

Die­ses Sze­na­rio ist die eigent­li­che Grund­lage für die Ent­ste­hung des Raums der Daten­be­ob­acht­bar­keit. Daten­in­ge­nieure über­wa­chen die Daten und die Pipe­line, um Pro­bleme in Bezug auf Qua­li­tät und Zuver­läs­sig­keit schnell zu erken­nen und zu ana­ly­sie­ren. Die Kos­ten für den Betrieb der Pipe­lines waren jedoch nie in ihrem Blick­feld. Bis jetzt.

Der wirt­schaft­li­che Abschwung im Jahr 2023 hat den Tech­no­lo­gie­sek­tor am stärks­ten getrof­fen. Da die Infra­struk­tur­kos­ten stei­gen, ist die Unter­neh­mens­lei­tung bestrebt, Prio­ri­tä­ten bei ihren Aus­ga­ben zu set­zen. Aber wie kann man Prio­ri­tä­ten set­zen, ohne ein kla­res Ver­ständ­nis der Kos­ten zu haben, die in den ver­schie­de­nen Sta­dien einer Daten­pipe­line anfal­len? In der Ver­gan­gen­heit schätz­ten Unter­neh­men ihr Bud­get und wie­sen ihren neuen IT-Initia­ti­ven Inves­ti­ti­ons­aus­ga­ben (CAPEX) und Betriebs­aus­ga­ben (OPEX) zu. Das Cloud Com­pu­ting hat die­ses Modell auf den Kopf gestellt, indem es die meis­ten Kos­ten auf die OPEX ver­la­gert hat. Durch diese Ver­la­ge­rung stel­len viele Teams fest, dass das Geld, das sie für das gesamte Jahr vor­ge­se­hen hat­ten, bereits im ers­ten Quar­tal ver­braucht wurde. Zusam­men­fas­send lässt sich sagen, dass wir es jetzt mit zwei Pro­ble­men zu tun haben: stei­gende Kos­ten und unvor­her­seh­bare Kosten.

Über­ra­schen­der­weise haben Stu­dien gezeigt, dass fast 30 % der Cloud-Kos­ten ein­fach ver­schwen­det wer­den. Für ein Team, das über­flüs­sige Kos­ten ein­spa­ren möchte, ist dies ein leich­tes Unter­fan­gen. Es ist rela­tiv ein­fach, die Kos­ten­ma­nage­ment-Tools der Cloud-Anbie­ter zu nut­zen, um unge­nutzte Instan­zen zu iden­ti­fi­zie­ren und sie abzu­schal­ten. Schon dadurch las­sen sich beträcht­li­che Sum­men an Kos­ten ein­spa­ren. Schwie­ri­ger wird es jedoch, Inef­fi­zi­en­zen bei kom­ple­xen SQL-Abfra­gen, ML-Trai­ning und Daten­um­wand­lungs-Workloads zu erken­nen. Data­Fin­Ops erfor­dert daher eine kon­zer­tierte Aktion.

Daten­in­ge­nieure, die den „shift-left“-Ansatz ver­fol­gen, kön­nen einen viel pro­ak­ti­ve­ren Ansatz zur Kos­ten­dämp­fung ver­fol­gen. Manch­mal sind stei­gende Kos­ten ein Vor­bote für fal­sche Daten oder Pipe­line-Feh­ler. Der Data­Fin­Ops-Anwen­dungs­fall der Daten­be­ob­ach­tung ergänzt also die bekann­te­ren Anwen­dungs­fälle der Daten­qua­li­tät und Pipeline-Zuverlässigkeit.

Zu den Fra­gen, die die Data­Fin­Ops-Funk­tio­nen Ihres Daten­be­ob­ach­tungs­pro­dukts auf­de­cken soll­ten, gehören:

  • In wel­chen Tei­len der Pipe­line sind die Kos­ten höher als in der Vergangenheit?
  • Wie wirkt sich eine Unter­bre­chung der Arbei­ten aus, die die Kos­ten in die Höhe treibt?
  • Wie sehen die Kos­ten­trends aus, und wann wer­den wir das Bud­get überschreiten?
  • Wer­den die Kos­ten­ein­spa­run­gen die Kos­ten für die Anschaf­fung und den Betrieb des Daten­be­ob­ach­tungs­tools ausgleichen?
  • Wird es eine fein­kör­nige Auf­schlüs­se­lung der Kos­ten nach Auf­trä­gen und deren Ver­brauch ermöglichen?

Tools zur Daten­be­ob­ach­tung haben es oft schwer, bei poten­zi­el­len Käu­fern Gehör zu fin­den, da es schwie­rig ist, eine klare Kapi­tal­ren­dite (ROI) nach­zu­wei­sen. Der Data­Fin­Ops-Anwen­dungs­fall ist ein ein­zig­ar­ti­ger Aspekt die­ser Kate­go­rie, da es ein­fa­cher ist, den ROI fast sofort zu berechnen.

Was ist DataFinOps?

Die Fin­Ops Foun­da­tion hat Best Prac­ti­ces für das Cloud-Finanz­ma­nage­ment (CFM) defi­niert. Wenn diese Grund­sätze auf das Daten­ma­nage­ment aus­ge­dehnt wer­den, nen­nen wir es Data­Fin­Ops. Die Finanz­me­tri­ken wer­den wie Daten­qua­li­tät und Leis­tungs­me­tri­ken ver­folgt und über­wacht. Und das Sys­tem zur Beob­ach­tung der Daten lie­fert Emp­feh­lun­gen zur Ver­bes­se­rung der Kosteneffizienz.

Data­Fin­Ops ist eine Reihe von Pro­zes­sen, die dazu die­nen, die Kos­ten zu ver­fol­gen, die im gesam­ten Daten­sta­pel und bei ver­schie­de­nen Benut­zern und Teams anfal­len, mit dem Ziel, die Gesamt­aus­ga­ben zu opti­mie­ren. Es bie­tet einen detail­lier­ten Ein­blick in die Kos­ten­ent­wick­lung, idea­ler­weise bevor sie sich auf Bud­gets und Pro­gno­sen aus­wir­ken. Mit­hilfe der Daten­be­ob­ach­tungs­funk­tio­nen für Über­wa­chung, War­nun­gen und Benach­rich­ti­gun­gen kön­nen pro­ak­tive Maß­nah­men ergrif­fen wer­den, um sicher­zu­stel­len, dass die Daten­pipe­lines effi­zi­ent laufen.

Abbil­dung 2 zeigt die DataFinOps-Funktionen.

Wie die Abbil­dung zeigt, kann der Kos­ten­ver­brauch gra­nu­lar oder agg­re­giert sein:

  • Res­sour­cen­ver­brauch, wie Snow­flake, Dat­ab­ricks, Google Big­Query, Hadoop, Kafka, usw.
  • Nut­zung (Nut­zer und Abtei­lun­gen), z. B. Geschäfts­ana­lys­ten, Daten­in­ge­nieure und Datenwissenschaftler
  • Arbeits­las­ten, wie Daten­vor­be­rei­tungs­pipe­line, Daten­qua­li­tät, Daten­um­wand­lung oder Schulungsmodelle

Eine Data­Fin­Ops-Platt­form sollte einen kon­so­li­dier­ten Satz von Funk­tio­nen bieten:

  • Beob­acht­bar­keit (oder Ent­de­ckung) der Kos­ten und Aus­ga­ben mit der Mög­lich­keit, Kos­ten auf der Grund­lage der gewünsch­ten Taxo­no­mie der Orga­ni­sa­tion zu kenn­zeich­nen und zu kate­go­ri­sie­ren. Die Benut­zer soll­ten in der Lage sein, die Kos­ten genau zu ver­fol­gen, zu visua­li­sie­ren und zuzu­ord­nen, wobei der Kon­text der Arbeits­be­las­tung berück­sich­tigt wird.
  • Zu den Opti­mie­rungs­funk­tio­nen gehö­ren Bud­ge­tie­rung, Vor­her­sage und Rück­ver­rech­nung von Kos­ten. Sie hel­fen, Inef­fi­zi­en­zen zu besei­ti­gen und Kos­ten zu opti­mie­ren. Die meis­ten Tools nut­zen heute KI zur Vor­her­sage von Kapa­zi­täts­an­pas­sun­gen und Auto­ma­ti­sie­rung, um prä­ven­tive Kor­rek­tu­ren auszulösen.
  • Zu den Gover­nance-Funk­tio­nen gehö­ren Emp­feh­lun­gen zu Kos­ten­sen­kungs­stra­te­gien und ‑mög­lich­kei­ten. Sie hel­fen bei der Ermitt­lung von Leit­plan­ken, die zur Kon­trolle und Ver­mei­dung von Kos­ten­über­schrei­tun­gen erfor­der­lich sind. Dies kann sich auf Infra­struk­tur­res­sour­cen, Kon­fi­gu­ra­tion, Code oder Daten bezie­hen. So könn­ten bei­spiels­weise Daten­sätze mit gerin­ger Nut­zung Kan­di­da­ten für die Migra­tion auf eine kos­ten­güns­ti­gere Spei­cher­ebene sein.

Wenn die Daten­be­ob­ach­tung für Qua­li­täts- oder Pipe­line-Zuver­läs­sig­keits­an­wen­dun­gen genutzt wird, sind die Per­so­nas Geschäfts­ana­lys­ten, Daten­in­ge­nieure oder Daten­wis­sen­schaft­ler. Für den Anwen­dungs­fall Data­Fin­Ops waren die pri­mä­ren Per­so­nas in der Regel Füh­rungs­kräfte, wie der Lei­ter des Cloud Cen­ter of Excel­lence oder der CIO. Diese Füh­rungs­kräfte arbei­ten mit Chief Data Offi­cers (CDO) oder dem Lei­ter der Ana­ly­se­ab­tei­lung zusam­men, die für die Ver­wal­tung der Daten­be­stände ver­ant­wort­lich sind.

Inter­es­san­ter­weise wird die Steu­er­dis­zi­plin nun auch auf Daten­in­ge­nieure und Geschäfts­part­ner über­tra­gen. Mit dem Kon­zept der „Links­ver­schie­bung“ wer­den die Kos­ten bei der Ent­wick­lung neuer Anwen­dun­gen berück­sich­tigt. Data­Fin­Ops-Experten sor­gen für eine Kul­tur der Finanz­dis­zi­plin und erleich­tern die Zusam­men­ar­beit zwi­schen Geschäfts‑, Technik‑, Betriebs- und Finanz­teams. Sie hel­fen bei der Ver­bes­se­rung der Cloud-Effi­zi­enz in ver­schie­de­nen Geschäfts­teams durch Kos­ten- und Effi­zi­enz­me­tri­ken wie Res­sour­cen­aus­las­tung und Trend­ana­ly­sen. Fin­Ops wird somit zu einem Teil der Daten­kom­pe­tenz und ‑kul­tur.

Her­aus­for­de­run­gen von DataFinOps

Cloud Com­pu­ting ist bekannt dafür, dass Berichte und Dash­boards unend­lich schnel­ler ent­wi­ckelt wer­den kön­nen. Inner­halb einer Minute kön­nen wir ein vir­tu­el­les Lager in Snow­flake auf­set­zen und die Daten mit dem Zero Copy Clone ana­ly­sie­ren. Ebenso kön­nen wir Ter­ra­form ver­wen­den, um Cloud-Res­sour­cen bei Bedarf zu star­ten. Diese Ein­fach­heit führt jedoch zu einem kom­ple­xen Netz von Cloud-Kosten.

Neh­men Sie das Bei­spiel von Accen­ture, wo über 1.000 Teams AWS nut­zen. Seine Cloud-Rech­nung beläuft sich auf zig Mil­lio­nen Zei­len mit Rech­nungs­da­ten. Der Grund dafür ist, dass es in der Cloud so viele Kos­ten­ele­mente gibt, wie z. B. Rechen­in­stan­zen, Rechen­trans­ak­tio­nen, Spei­cher, Speicher‑E/A, Daten­über­tra­gung, Sup­port, Netz­werke, Über­wa­chung, Not­fall­wie­der­her­stel­lung und ver­schie­dene andere Kosten.

Der zweite Grund für die Kos­ten­kom­ple­xi­tät ist die enorme Aus­wei­tung der Aus­wahl­mög­lich­kei­ten in der Cloud. Im Februar 2023 bie­tet AWS bei­spiels­weise 536 Instanz­ty­pen unter Linux und 427 unter Win­dows an. Dies führt zu der Her­aus­for­de­rung, die Gesamt­be­triebs­kos­ten (TCO) und den ROI der Cloud zu berech­nen. Daher wird ein auto­ma­ti­sier­tes Tool, wie z. B. Daten­be­ob­ach­tung, benötigt.

Eine wei­tere Her­aus­for­de­rung im Bereich der Daten ist das feh­lende Eigen­tum an den Daten. Da die Daten vom Erzeu­ger kom­men und ver­schie­dene Umwand­lungs­schritte durch­lau­fen, ist unklar, wer der Eigen­tü­mer der Daten ist. Die­ser Man­gel an Eigen­tum führt zu einem Man­gel an Ver­ant­wort­lich­keit für Kostenüberschreitungen.

Schließ­lich erlau­ben Cloud-Anbie­ter die Ein­rich­tung von Warn­mel­dun­gen, doch bis der Admi­nis­tra­tor Maß­nah­men ergrei­fen kann, ist der Scha­den manch­mal schon ange­rich­tet, und die hohen Kos­ten für die feh­ler­hafte Abfrage wer­den nun auf uns abge­wälzt. Daher wird ein pro­ak­ti­ves Data­Fin­Ops-Pro­dukt benö­tigt. Die­ses Tool sollte auch War­nun­gen intel­li­gent ver­wal­ten und das Pro­blem der „Warn­mü­dig­keit“ vermeiden.

Ein­füh­rung in DataBizOps

Wie in der ers­ten Abbil­dung in die­sem Doku­ment zu sehen ist, besteht der Zweck von Data­Bi­zOps darin, den Wert unse­rer Daten­be­stände zu demons­trie­ren. Es han­delt sich um eine Reihe von Metri­ken, die bei der Berech­nung der Pro­duk­ti­vi­tät und der Kos­ten­sen­kung hel­fen. So kann ein Unter­neh­men bei­spiels­weise Hun­derte von Daten­ar­te­fak­ten erstellt haben – Berichte, Dash­boards, Ansich­ten usw. Durch die Ana­lyse ihrer Nut­zung kön­nen Unter­neh­men jedoch die gesamte Reihe von Pro­zes­sen, die zu unge­nutz­ten Arte­fak­ten füh­ren, auf­ge­ben und Kos­ten sparen.

Der jüngste Anwen­dungs­fall der Daten­be­ob­ach­tung, Data­Bi­zOps, steht oft im Zusam­men­hang mit dem Anstieg der Erstel­lung von Daten­pro­duk­ten. „Daten als Pro­dukt“ wurde als eines der vier Prin­zi­pien der Daten­ver­flech­tung ein­ge­führt, wäh­rend Daten­pro­dukte die­ses Prin­zip in kon­su­mier­bare, auf das Geschäfts­er­geb­nis aus­ge­rich­tete Ein­hei­ten wie Berichte, Dash­boards, Tabel­len, Ansich­ten, ML-Modelle oder Metri­ken umset­zen. Data­Bi­zOps sam­melt „Daten­te­le­me­trie“, z. B. die Häu­fig­keit von Daten­pro­dukt­ver­öf­fent­li­chun­gen, die Nut­zung von Daten­pro­duk­ten und Anoma­lien bei der Nut­zung, die zu ande­ren Indi­ka­to­ren, z. B. schlech­ter Daten­qua­li­tät, füh­ren können.

Daten­pro­dukte ver­fol­gen einen geschäfts­ori­en­tier­ten Ansatz, im Gegen­satz zu der vor­herr­schen­den tech­no­lo­gie­zen­trier­ten Aus­rich­tung bei der Erstel­lung von Daten­ar­te­fak­ten. In der Tat kann die­ser Ansatz dazu bei­tra­gen, einige Her­aus­for­de­run­gen und Frus­tra­tio­nen des moder­nen Daten­sta­pels zu ver­rin­gern. Zum Bei­spiel beinhal­tet die Bereit­stel­lung von Ergeb­nis­sen der­zeit eine müh­same und kom­plexe Samm­lung von Pipe­lines, die zu erhöh­ten Kos­ten, Auf­wand und Zeit füh­ren. Diese schwer zu debug­gen­den Pro­zesse ver­ur­sa­chen Pro­bleme mit der Zuver­läs­sig­keit und den Aus­fall­zei­ten und erfor­dern daher eine Beob­ach­tung der Daten. Ein wei­te­res Bei­spiel ist die schlechte Akzep­tanz von Daten­ka­ta­lo­gen, da wir zunächst ver­su­chen, alle ver­füg­ba­ren Daten zu sam­meln und zu kenn­zeich­nen. Die­ser Ansatz schei­tert oft und ver­rin­gert das Ver­trauen in die Data-Gover­nance-Initia­tive. Wenn wir statt­des­sen die Daten für die zu erstel­len­den Daten­pro­dukte kata­lo­gi­sie­ren, haben wir eine bes­sere Chance auf ein erfolg­rei­ches Data-Governance-Ergebnis.

Was ist also die Rolle von DataBizOps?

Data­Bi­zOps kann dabei hel­fen, den ROI von Daten anhand von Kenn­zah­len zu ermit­teln, wie z. B. die Anzahl der erreich­ten daten­be­zo­ge­nen Ziele und der Grad der Zustim­mung von Daten­kon­su­men­ten und Manage­ment. Es kann dazu bei­tra­gen, die Daten­stra­te­gie inner­halb des Unter­neh­mens zu unter­stüt­zen. Das Beste daran ist, dass die Daten­stra­te­gie jetzt von der Geschäfts­stra­te­gie bestimmt wird. Sie kön­nen per­fekt auf­ein­an­der abge­stimmt wer­den, so dass das Poten­zial der Unter­neh­mens­da­ten opti­mal genutzt wer­den kann.

Ein Unter­neh­men kann von Data­Bi­zOps profitieren:

  • Star­ten Sie einen Daten­markt­platz und erhe­ben Sie Kenn­zah­len, die sicher­stel­len, dass die Daten für den beab­sich­tig­ten Zweck, von den beab­sich­tig­ten Nut­zern und inner­halb der fest­ge­leg­ten Leit­plan­ken ver­wen­det wer­den. Data­Bi­zOps kann die Data-Gover­nance-Bemü­hun­gen der Daten­pro­du­zen­ten ergän­zen, indem es sie auf die gemein­same Nut­zung und den Aus­tausch von Daten ausweitet.
  • Stär­kung der Data­Ops-Pro­zesse durch Bereit­stel­lung der erfor­der­li­chen Tele­me­trie, damit intel­li­gente Ent­schei­dun­gen für Auto­ma­ti­sie­rung, Tests und Orches­trie­rung getrof­fen wer­den kön­nen. Heute sind viele der Orchestra­to­ren regel­ba­siert und ver­hal­ten sich wie eine kom­plexe Samm­lung von CASE-Anwei­sun­gen. Data­Bi­zOps kann jedoch kon­text­be­zo­gene Infor­ma­tio­nen lie­fern, so dass die Orchestra­to­ren eine fein­kör­nige Bewer­tung der nächs­ten Schritte vor­neh­men können.

Dies ist ein kur­zer Über­blick über das Poten­zial der Data­Bi­zOps-Funk­tio­nen für die Daten­be­ob­ach­tung. Obwohl einige Anbie­ter eigen­stän­dige Pro­dukte ent­wi­ckeln, um die oben genann­ten Funk­tio­nen bereit­zu­stel­len, sollte dies Teil eines umfas­sen­den Pro­dukts zur Daten­be­ob­ach­tung sein.

Zusam­men­fas­sung

Data­Fin­Ops bezieht sich auf eine Reihe von Prak­ti­ken, Pro­zes­sen und Tech­no­lo­gien, die zur Bewer­tung und Ver­wal­tung der Kos­ten der Daten­be­stände eines Unter­neh­mens ein­ge­setzt wer­den. Es zielt dar­auf ab, einen ratio­na­li­sier­ten und effi­zi­en­ten Ansatz für die Ver­wal­tung des Daten­le­bens­zy­klus zu bie­ten, von der Erfas­sung und Spei­che­rung bis hin zur Ana­lyse und Ent­schei­dungs­fin­dung. Wie die Fall­stu­dien zei­gen, trägt es zur Kos­ten­sen­kung und Effi­zi­enz­stei­ge­rung bei.

Data­Bi­zOps ist das neu­este Mit­glied im Bereich der Daten­be­ob­acht­bar­keit. Es hat das Poten­zial, end­lich den ROI von Daten zu ermitteln.

Zum Abschluss die­ses Kapi­tels soll­ten wir anmer­ken, dass die ver­schie­de­nen Anwen­dungs­fälle von Meta­da­ten, wie bereits erwähnt, in einer gemein­sa­men Meta­da­ten­ebene ver­eint wer­den soll­ten. Diese Anwen­dungs­fälle sind in Abbil­dung 3 dargestellt.

Data­Fin­Ops- und Data­Bi­zOps-Metri­ken kön­nen dazu bei­tra­gen, die gesam­ten Meta­da­ten­ma­nage­ment-Initia­ti­ven zu inte­grie­ren, so dass unsere Assets eine hohe Qua­li­tät, Zuver­läs­sig­keit und Sicher­heit auf­wei­sen und die Ent­wick­ler pro­duk­ti­ver sind. Eine umfas­sende, auf Metri­ken basie­rende Meta­da­ten­ver­wal­tungs­ebene kann die Rolle des Daten­in­ge­nieurs von einer reak­ti­ven zu einer pro­ak­ti­ven ver­än­dern. Dar­über hin­aus wer­den die Daten­teams in den Rest des Unter­neh­mens inte­griert und erfül­len die stra­te­gi­schen Anfor­de­run­gen. Dies wird dazu bei­tra­gen, dass sich die Daten­be­ob­ach­tung in einer Umge­bung durch­setzt, in der die Daten und die Daten- und Ana­ly­se­last stän­dig explodieren.

Die ein­heit­li­che Meta­da­ten­ebene wird Meta­da­ten­si­los ver­mei­den. Mit der Ent­wick­lung gemein­sa­mer Meta­da­ten­stan­dards wird diese Vision zur Realität.

Quelle: medium.com