So kann ein ganzheitlicher BigData-Ansatz aussehen

 So kann ein ganzheitlicher BigData-Ansatz aussehen
Der Markt der Big-Data-Technologien wächst kontinuierlich – schließlich versprechen die Analyse-Tools, die Entscheidungsgrundlage für Prozessoptimierungen, neue Geschäftsmodelle und bessere Kundeninteraktion zu liefern. Doch dazu müssen Daten zielgerichtet analysiert werden. Eine Bestandsaufnahme.

Laut einer aktuellen Studie von Bitkom Research im Auftrag von KPMG nutzen in Deutschland bereits 35 % der Unternehmen Big-Data-Analysen; vor zwei Jahren waren es lediglich 23 % gewesen. Doch eine „One-Size-fits-All“-Lösung erfüllt nur selten individuelle Ansprüche: Wenn Unternehmen ihre Einsatzzwecke und Geschäftsziele nicht im Vorfeld identifizieren, haben sie möglicherweise Hochleistungssysteme installiert, deren Potenzial sie jedoch nur teilweise oder gar nicht nutzen.

Ebenso wenig erfolgversprechend wie ein singuläres oder übereiltes Vorgehen ist eine zögerliche Umsetzung von Big-Data-Projekten. Der sogenannte Wasserfall-Ansatz traditioneller IT-Projekte ist mit seiner linearen Vorgehensweise zeitintensiv und kann mit den rasanten Veränderungen, die den Big-Data-Markt prägen, nicht mithalten; vielmehr ist eine agile und flexible Herangehensweise gefragt. Dabei können externe Spezialisten mit einem umfangreichen Erfahrungsschatz helfen und Unternehmen einen entscheidenden Wettbewerbsvorsprung verschaffen.
Schritt für Schritt zur Datenerkenntnis
Zuerst geht es darum, die übergeordneten Geschäftsziele zu definieren und Potenziale zu erkennen; die IT-Abteilung sollte hier von Anfang an mit im Boot sein. Sicherheits-, Rechts- und Compliance-Fragen sind ebenfalls zu klären, um sensible personenbezogene und geschäftskritische Daten zu schützen. Wenn diese grundlegenden Fragen beantwortet sind, beginnt die gemeinsame Analyse von Entscheidern, Consultants, Data Scientists und -Architekten. Am Ende dieser Bestandsaufnahme sollte festgehalten werden, welche Daten im Unternehmen zur Verfügung stehen, ob und welche externen Quellen miteinzubeziehen sind, wie das aktuelle Geschäftsmodell aussieht und wie sich mithilfe der Daten weitere Prozessoptimierungen oder Services realisieren lassen.
Anschließend erarbeiten die Beteiligten gemeinsam relevante Einsatzszenarien – genau nach Bedarf des Unternehmens. In der folgenden Wertnachweis-Phase stellen die Big-Data-Spezialisten dann eine Experimentierumgebung zur Verfügung und nehmen sich ein konkretes Datenset vor. Anhand dessen identifizieren sie die Schlüssel-Korrelationen und -Muster und untersuchen, welches Potenzial für vorausschauende Analysen in den Datensätzen steckt. Sie exerzieren ein Einsatzszenario durch und können innerhalb kürzester Zeit darstellen, welche konkreten Vorteile die Datenanalyse bringt. So lassen sich mit detaillierten Produktions- und Maschinendaten Lieferengpässe und Defekte vermeiden, indem die entsprechenden Datenmuster beispielsweise auf Warenrückstände oder nötige Wartungsarbeiten hinweisen.
Geschickt kombinieren
Sowohl bei der Wahl der Software als auch der Hardware gehen Big-Data-Analytics-Anbieter passgenau auf die Bedürfnisse eines Unternehmens ein. Sie bieten wahlweise Cloud-, Hybrid-Cloud oder On-Premises-Lösungen und integrieren neue Elemente in die bestehende IT-Infrastruktur. Eine komplementäre Kombination von standardisierten Best-Practices-Komponenten mit maßgeschneiderten Lösungen senkt die Anpassungskosten deutlich – so können Unternehmen beispielsweise mehr Budget für Experimente aufwenden. Schließlich geht es nicht zuletzt darum, mit dieser Big-Data-Analytics-Strategie den Wert der Daten freizulegen.
Thomas Schramm ist Senior Vice President Consulting & System Integration bei Atos Deutschland.
https://atos.net/en/solutions/atos-codex-analytics?utm_source=/en-us/home/we-do/atos-codex.html&utm_medium=301