Es ist unbestritten: Daten sind heute einer der wertvollsten Vermögenswerte für Unternehmen.
Während einige Unternehmen ganze Geschäftsmodelle rund um Daten aufbauen, erfassen, speichern und analysieren andere regelmäßig riesige Datenmengen, um schlüssige Muster zu identifizieren, Erkenntnisse zu gewinnen, Geschäftsergebnisse vorherzusagen, das Kundenverhalten zu verfolgen oder die Kundenbindung zu verbessern.
Gartner hat herausgefunden, dass Unternehmen zunehmend datengestützte Entscheidungen gegenüber intuitiven Entscheidungen bevorzugen, was wahrscheinlich der Grund dafür ist, dass der Markt für Datenanalyse mit einer durchschnittlichen jährlichen Wachstumsrate von fast 30 % wächst.
Angesichts dieser Faktoren wollen wir uns in diesem Artikel fünf Makrotrends ansehen, die die Datenanalyse im Jahr 2023 prägen werden.
1.Die Analytik wird allgegenwärtiger, demokratischer und kompositionsfähiger werden.
Da die Nachfrage nach Business Intelligence (BI) und Situationsbewusstsein weiter zunimmt, wird auch die Akzeptanz von Analysen Schritt halten. Analytik und BI sind bereits in allen wichtigen Geschäftsbereichen allgegenwärtig. Diese Nachfrage nach Erkenntnissen in allen Geschäftsbereichen ist eine Herausforderung und es wird auch in Zukunft eine Herausforderung für die Analytikverantwortlichen sein, mit der Nachfrage Schritt zu halten – und für die Technologen, die dahinterstehen, um Systeme zu entwickeln, die mit den Zyklen wachsen und schrumpfen können.
Das „Self-Service“- oder „demokratisierte“ Analysemodell ist nach wie vor der heilige Gral, nach dem die Datenexperten streben. Dieses Modell, bei dem alle Geschäftsbereiche (auch die nicht-technischen) Zugang zu Daten und intelligenten Erkenntnissen haben, kann schwer einzurichten und zu skalieren sein. Das bedeutet jedoch nicht, dass die Branche nicht in der Lage war, sich weiterzuentwickeln, um diesen Bedarf zu decken. Cloud-Architekturen und On-Demand-Analyseplattformen wachsen weiter und bieten Funktionen, um die Nachfrage zu befriedigen. Allerdings können die Kosten, die entstehen, wenn dies in großem Umfang und für alle Mitarbeiter des Unternehmens geschieht, entmutigend sein. Die Limitierung dieser Kosten kann auch zu mehr kompatiblen Technologien führen.
Dies wird ein interessanter Trend sein, da die Mehrheit der großen Unternehmen mehr als ein Analyse- oder BI-Tool einsetzt, so Garnter. Gartner geht außerdem davon aus, dass 60 % der Unternehmen Analysetechnologien verwenden werden, die zusammensetzbar sind. Mit anderen Worten: Unternehmen werden Komponenten aus verschiedenen Analyselösungen zusammenführen, um Geschäftsanwendungen zu erstellen, die eine umfassendere Sicht auf ihre Daten bieten. Ohne eine klare Strategie kann dies zu mehr Kostenüberschreitungen aufgrund von doppeltem Aufwand und Daten führen.
2. Mehr Unternehmen werden KI einsetzen.
Die meisten Unternehmen tun sich schwer damit, den Ozean der gesammelten Daten zu analysieren. Das liegt daran, dass fast 90 % der Daten unstrukturiert sind oder kein definiertes Schema haben. Mit Hilfe von KI und maschinellen Lerntechnologien (ML) können Unternehmen diese unstrukturierten Daten intelligenter und schneller analysieren. Mit diesen Technologien lassen sich auch Muster und Trends in strukturierten Daten erkennen, die nicht ohne weiteres ersichtlich sind.
Durch die Einbettung oder Kombination von KI- und ML-Technologien mit Datenanalyse- und Business Intelligence (BI)-Tools sollten Unternehmen in der Lage sein selbst die komplexesten Datentypen zu bewältigen und den verborgenen Wert unstrukturierter Daten in großem Umfang abschöpfen zu können.
KI/ML-Funktionen sind bereits heute in der Lage, Daten aus unstrukturierten Dokumenten mit einer Genauigkeit von fast 95 % zu lokalisieren und zu extrahieren. Die Vorhersage, dass KI-Tools im Jahr 2023 weiter reifen und an Popularität gewinnen werden, ist daher mehr als naheliegend. Es bleibt jedoch abzuwarten, ob Large Language Model-Anwendungen (wie ChatGPT) einen Einfluss auf den Analysebereich haben werden, aber wir haben bereits einige interessante Innovationen gesehen, die diese Modelle zur Generierung von SQL-Abfragen aus natürlicher Sprache nutzen.
3. Metadaten-gesteuerte Datenstrukturen werden weiter zunehmen.
In dem Maße, in dem Unternehmen unterschiedliche Systeme integrieren und automatisieren und KI/ML-Technologien zur Analyse riesiger Datenbestände einsetzen, kombinieren sie traditionelle Datenquellen mit modernen Funktionen – hier kommt das Konzept der Datenstruktur ins Spiel. Data Fabric unterstützt Unternehmen bei der Verarbeitung und Analyse von Daten aus physisch oder logisch unterschiedlichen Systemen, wie z. B. lokalen Systemen, verschiedenen Clouds, sozialen Medien, IoT-Geräten, mobilen Anwendungen usw., unter einem einheitlichen Satz von Objekten. Dennoch fragen sich Dateneigentümer und Analysten oft: „Stehen diese Daten im richtigen Kontext?“ Indem sie die Datenstruktur mit Metadaten anreichern, können Analysten ein tieferes Verständnis der Daten gewinnen. Dies bedeutet, dass sie den Daten einen Kontext hinzufügen müssen, damit sie einen Sinn ergeben; dass sie ihre Beziehung zu anderen Datenarten verstehen müssen, was zu ganzheitlicheren Geschäftseinblicken führen kann, und dass sie schließlich Beurteilungen oder Maßnahmen treffen müssen, die dazu beitragen, das volle Potenzial der Daten auszuschöpfen.
4. Die Analytik wird sich weiter ausbreiten.
Die Welt erlebt eine explosionsartige Zunahme von maschinell erzeugten Daten aus dem Internet der Dinge (IoT) und dem industriellen Internet der Dinge (IIoT). Das Volumen dieser Daten ist so groß, dass es eine große Belastung für die traditionellen Modelle der Datenverarbeitung darstellt, bei denen alles zentral gesteuert und analysiert wird. Infolgedessen tendieren Unternehmen zu einem dezentraleren Computermodell (auch bekannt als Edge Computing), bei dem Analysen, KI und Entscheidungsintelligenz in Edge-Anwendungen integriert sind.
Dieses Modell ermöglicht es Unternehmen, Daten nahezu in Echtzeit zu analysieren und den Entscheidungsträgern mehr verwertbare Daten zur Verfügung zu stellen. Edge Computing steigert auch die Geschwindigkeit der Analyse erheblich. Um einige Beispiele zu nennen: Fehler oder Unregelmäßigkeiten in Daten können innerhalb von Millisekunden erkannt werden; Fabriken können eine vorausschauende Wartung durchführen; Banken können betrügerische Transaktionen in Echtzeit erkennen; tragbare Geräte können Veränderungen der Vitalparameter überwachen. Datenschutzbedenken werden auch dazu führen, dass bestimmte Arten von Analysen lokal durchgeführt werden, um Datenverluste zu vermeiden. Infolgedessen wird die bedarfsgesteuerte Datenverarbeitung am Rande des Netzes wahrscheinlich das Wachstum der Mikroanalytik in der Nähe des Endkunden fördern.
5. Die Analytik wird weiterhin adaptive und Echtzeit-Entscheidungen ermöglichen.
Da die Analytik kontextbezogener und kontinuierlicher wird, sollte sie dank KI- und ML-Technologien auch anpassungsfähiger werden. Die Analytik sollte sich daher nicht mehr nur auf historische Daten konzentrieren, sondern Daten in Echtzeit verarbeiten, den Kontext verstehen und ihr Verhalten entsprechend anpassen. Der Hauptvorteil der adaptiven Analytik besteht darin, dass Unternehmen in der Lage sein werden, Entscheidungen auf der Grundlage von Echtzeitdaten mit einem extrem hohen Maß an Genauigkeit zu treffen. Da die Daten kontinuierlich in Echtzeit analysiert werden, sollte das System selbst nicht veralten oder überflüssig werden.
Fazit
Kurz gesagt: Daten sind das neue Öl, aber man braucht einen leistungsstarken Motor, um sie effizient zu extrahieren, zu verfeinern und nutzbar zu machen. Unternehmen, die eine solide analytische Grundlage und eine starke analytische Kultur und Kompetenz aufbauen, werden mit Sicherheit in der Lage sein, innovativ zu sein und klügere Entscheidungen zu treffen.
Quelle: Forbes