Es ist unbe­strit­ten: Daten sind heute einer der wert­volls­ten Ver­mö­gens­werte für Unternehmen.

Wäh­rend einige Unter­neh­men ganze Geschäfts­mo­delle rund um Daten auf­bauen, erfas­sen, spei­chern und ana­ly­sie­ren andere regel­mä­ßig rie­sige Daten­men­gen, um schlüs­sige Mus­ter zu iden­ti­fi­zie­ren, Erkennt­nisse zu gewin­nen, Geschäfts­er­geb­nisse vor­her­zu­sa­gen, das Kun­den­ver­hal­ten zu ver­fol­gen oder die Kun­den­bin­dung zu verbessern.

Gart­ner hat her­aus­ge­fun­den, dass Unter­neh­men zuneh­mend daten­ge­stützte Ent­schei­dun­gen gegen­über intui­ti­ven Ent­schei­dun­gen bevor­zu­gen, was wahr­schein­lich der Grund dafür ist, dass der Markt für Daten­ana­lyse mit einer durch­schnitt­li­chen jähr­li­chen Wachs­tums­rate von fast 30 % wächst.

Ange­sichts die­ser Fak­to­ren wol­len wir uns in die­sem Arti­kel fünf Makro­trends anse­hen, die die Daten­ana­lyse im Jahr 2023 prä­gen werden.

1.Die Ana­ly­tik wird all­ge­gen­wär­ti­ger, demo­kra­ti­scher und kom­po­si­ti­ons­fä­hi­ger werden.

Da die Nach­frage nach Busi­ness Intel­li­gence (BI) und Situa­ti­ons­be­wusst­sein wei­ter zunimmt, wird auch die Akzep­tanz von Ana­ly­sen Schritt hal­ten. Ana­ly­tik und BI sind bereits in allen wich­ti­gen Geschäfts­be­rei­chen all­ge­gen­wär­tig. Diese Nach­frage nach Erkennt­nis­sen in allen Geschäfts­be­rei­chen ist eine Her­aus­for­de­rung und es wird auch in Zukunft eine Her­aus­for­de­rung für die Ana­ly­tik­ver­ant­wort­li­chen sein, mit der Nach­frage Schritt zu hal­ten – und für die Tech­no­lo­gen, die dahin­ter­ste­hen, um Sys­teme zu ent­wi­ckeln, die mit den Zyklen wach­sen und schrump­fen können.

Das „Self-Ser­vice“- oder „demo­kra­ti­sierte“ Ana­ly­se­mo­dell ist nach wie vor der hei­lige Gral, nach dem die Daten­ex­per­ten stre­ben. Die­ses Modell, bei dem alle Geschäfts­be­rei­che (auch die nicht-tech­ni­schen) Zugang zu Daten und intel­li­gen­ten Erkennt­nis­sen haben, kann schwer ein­zu­rich­ten und zu ska­lie­ren sein. Das bedeu­tet jedoch nicht, dass die Bran­che nicht in der Lage war, sich wei­ter­zu­ent­wi­ckeln, um die­sen Bedarf zu decken. Cloud-Archi­tek­tu­ren und On-Demand-Ana­ly­se­platt­for­men wach­sen wei­ter und bie­ten Funk­tio­nen, um die Nach­frage zu befrie­di­gen. Aller­dings kön­nen die Kos­ten, die ent­ste­hen, wenn dies in gro­ßem Umfang und für alle Mit­ar­bei­ter des Unter­neh­mens geschieht, ent­mu­ti­gend sein. Die Limi­tie­rung die­ser Kos­ten kann auch zu mehr kom­pa­ti­blen Tech­no­lo­gien führen.

Dies wird ein inter­es­san­ter Trend sein, da die Mehr­heit der gro­ßen Unter­neh­men mehr als ein Ana­lyse- oder BI-Tool ein­setzt, so Garn­ter. Gart­ner geht außer­dem davon aus, dass 60 % der Unter­neh­men Ana­ly­se­tech­no­lo­gien ver­wen­den wer­den, die zusam­men­setz­bar sind. Mit ande­ren Wor­ten: Unter­neh­men wer­den Kom­po­nen­ten aus ver­schie­de­nen Ana­ly­se­lö­sun­gen zusam­men­füh­ren, um Geschäfts­an­wen­dun­gen zu erstel­len, die eine umfas­sen­dere Sicht auf ihre Daten bie­ten. Ohne eine klare Stra­te­gie kann dies zu mehr Kos­ten­über­schrei­tun­gen auf­grund von dop­pel­tem Auf­wand und Daten führen.

2. Mehr Unter­neh­men wer­den KI einsetzen.

Die meis­ten Unter­neh­men tun sich schwer damit, den Ozean der gesam­mel­ten Daten zu ana­ly­sie­ren. Das liegt daran, dass fast 90 % der Daten unstruk­tu­riert sind oder kein defi­nier­tes Schema haben. Mit Hilfe von KI und maschi­nel­len Lern­tech­no­lo­gien (ML) kön­nen Unter­neh­men diese unstruk­tu­rier­ten Daten intel­li­gen­ter und schnel­ler ana­ly­sie­ren. Mit die­sen Tech­no­lo­gien las­sen sich auch Mus­ter und Trends in struk­tu­rier­ten Daten erken­nen, die nicht ohne wei­te­res ersicht­lich sind.

Durch die Ein­bet­tung oder Kom­bi­na­tion von KI- und ML-Tech­no­lo­gien mit Daten­ana­lyse- und Busi­ness Intel­li­gence (BI)-Tools soll­ten Unter­neh­men in der Lage sein selbst die kom­ple­xes­ten Daten­ty­pen zu bewäl­ti­gen und den ver­bor­ge­nen Wert unstruk­tu­rier­ter Daten in gro­ßem Umfang abschöp­fen zu können.

KI/ML-Funk­tio­nen sind bereits heute in der Lage, Daten aus unstruk­tu­rier­ten Doku­men­ten mit einer Genau­ig­keit von fast 95 % zu loka­li­sie­ren und zu extra­hie­ren. Die Vor­her­sage, dass KI-Tools im Jahr 2023 wei­ter rei­fen und an Popu­la­ri­tät gewin­nen wer­den, ist daher mehr als nahe­lie­gend. Es bleibt jedoch abzu­war­ten, ob Large Lan­guage Model-Anwen­dun­gen (wie ChatGPT) einen Ein­fluss auf den Ana­ly­se­be­reich haben wer­den, aber wir haben bereits einige inter­es­sante Inno­va­tio­nen gese­hen, die diese Modelle zur Gene­rie­rung von SQL-Abfra­gen aus natür­li­cher Spra­che nutzen.

3. Meta­da­ten-gesteu­erte Daten­struk­tu­ren wer­den wei­ter zunehmen.

In dem Maße, in dem Unter­neh­men unter­schied­li­che Sys­teme inte­grie­ren und auto­ma­ti­sie­ren und KI/ML-Tech­no­lo­gien zur Ana­lyse rie­si­ger Daten­be­stände ein­set­zen, kom­bi­nie­ren sie tra­di­tio­nelle Daten­quel­len mit moder­nen Funk­tio­nen – hier kommt das Kon­zept der Daten­struk­tur ins Spiel. Data Fabric unter­stützt Unter­neh­men bei der Ver­ar­bei­tung und Ana­lyse von Daten aus phy­sisch oder logisch unter­schied­li­chen Sys­te­men, wie z. B. loka­len Sys­te­men, ver­schie­de­nen Clouds, sozia­len Medien, IoT-Gerä­ten, mobi­len Anwen­dun­gen usw., unter einem ein­heit­li­chen Satz von Objek­ten. Den­noch fra­gen sich Daten­ei­gen­tü­mer und Ana­lys­ten oft: „Ste­hen diese Daten im rich­ti­gen Kon­text?“ Indem sie die Daten­struk­tur mit Meta­da­ten anrei­chern, kön­nen Ana­lys­ten ein tie­fe­res Ver­ständ­nis der Daten gewin­nen. Dies bedeu­tet, dass sie den Daten einen Kon­text hin­zu­fü­gen müs­sen, damit sie einen Sinn erge­ben; dass sie ihre Bezie­hung zu ande­ren Daten­ar­ten ver­ste­hen müs­sen, was zu ganz­heit­li­che­ren Geschäfts­ein­bli­cken füh­ren kann, und dass sie schließ­lich Beur­tei­lun­gen oder Maß­nah­men tref­fen müs­sen, die dazu bei­tra­gen, das volle Poten­zial der Daten auszuschöpfen.

4. Die Ana­ly­tik wird sich wei­ter ausbreiten.

Die Welt erlebt eine explo­si­ons­ar­tige Zunahme von maschi­nell erzeug­ten Daten aus dem Inter­net der Dinge (IoT) und dem indus­tri­el­len Inter­net der Dinge (IIoT). Das Volu­men die­ser Daten ist so groß, dass es eine große Belas­tung für die tra­di­tio­nel­len Modelle der Daten­ver­ar­bei­tung dar­stellt, bei denen alles zen­tral gesteu­ert und ana­ly­siert wird. Infol­ge­des­sen ten­die­ren Unter­neh­men zu einem dezen­tra­le­ren Com­pu­ter­mo­dell (auch bekannt als Edge Com­pu­ting), bei dem Ana­ly­sen, KI und Ent­schei­dungs­in­tel­li­genz in Edge-Anwen­dun­gen inte­griert sind.

Die­ses Modell ermög­licht es Unter­neh­men, Daten nahezu in Echt­zeit zu ana­ly­sie­ren und den Ent­schei­dungs­trä­gern mehr ver­wert­bare Daten zur Ver­fü­gung zu stel­len. Edge Com­pu­ting stei­gert auch die Geschwin­dig­keit der Ana­lyse erheb­lich. Um einige Bei­spiele zu nen­nen: Feh­ler oder Unre­gel­mä­ßig­kei­ten in Daten kön­nen inner­halb von Mil­li­se­kun­den erkannt wer­den; Fabri­ken kön­nen eine vor­aus­schau­ende War­tung durch­füh­ren; Ban­ken kön­nen betrü­ge­ri­sche Trans­ak­tio­nen in Echt­zeit erken­nen; trag­bare Geräte kön­nen Ver­än­de­run­gen der Vital­pa­ra­me­ter über­wa­chen. Daten­schutz­be­den­ken wer­den auch dazu füh­ren, dass bestimmte Arten von Ana­ly­sen lokal durch­ge­führt wer­den, um Daten­ver­luste zu ver­mei­den. Infol­ge­des­sen wird die bedarfs­ge­steu­erte Daten­ver­ar­bei­tung am Rande des Net­zes wahr­schein­lich das Wachs­tum der Mikro­ana­ly­tik in der Nähe des End­kun­den fördern.

5. Die Ana­ly­tik wird wei­ter­hin adap­tive und Echt­zeit-Ent­schei­dun­gen ermöglichen.

Da die Ana­ly­tik kon­text­be­zo­ge­ner und kon­ti­nu­ier­li­cher wird, sollte sie dank KI- und ML-Tech­no­lo­gien auch anpas­sungs­fä­hi­ger wer­den. Die Ana­ly­tik sollte sich daher nicht mehr nur auf his­to­ri­sche Daten kon­zen­trie­ren, son­dern Daten in Echt­zeit ver­ar­bei­ten, den Kon­text ver­ste­hen und ihr Ver­hal­ten ent­spre­chend anpas­sen. Der Haupt­vor­teil der adap­ti­ven Ana­ly­tik besteht darin, dass Unter­neh­men in der Lage sein wer­den, Ent­schei­dun­gen auf der Grund­lage von Echt­zeit­da­ten mit einem extrem hohen Maß an Genau­ig­keit zu tref­fen. Da die Daten kon­ti­nu­ier­lich in Echt­zeit ana­ly­siert wer­den, sollte das Sys­tem selbst nicht ver­al­ten oder über­flüs­sig werden.

Fazit

Kurz gesagt: Daten sind das neue Öl, aber man braucht einen leis­tungs­star­ken Motor, um sie effi­zi­ent zu extra­hie­ren, zu ver­fei­nern und nutz­bar zu machen. Unter­neh­men, die eine solide ana­ly­ti­sche Grund­lage und eine starke ana­ly­ti­sche Kul­tur und Kom­pe­tenz auf­bauen, wer­den mit Sicher­heit in der Lage sein, inno­va­tiv zu sein und klü­gere Ent­schei­dun­gen zu treffen.

Quelle: For­bes