Big Data - und welche Rolle die IT-Infrastruktur dabei spielt

am 25. August 2017
Um aus der wachsenden Flut von Daten, die in Folge der Digitalen Transformation in die Unternehmen fließen, sinnvolle Erkenntnisse zu ziehen, bedarf es neuer Methoden und Technologien – aber auch einer leistungsfähigen RZ-Infrastruktur, die speziell auf die Speicherung und Analyse großer Datenmengen zugeschnitten ist.

Die Anwendungsgebiete, Motivationen und Ansätze beim Einstieg in Big Data sind äußerst vielfältig und hängen zum großen Teil von branchen- und unternehmensspezifischen Anforderungen ab, aber auch davon, welche Szenarien Unternehmen adressieren wollen. Während es im Bereich Automotive und Maschinenbau oft in erster Linie um IoT, Industrie 4.0 oder Predictive-Maintenance-Anwendungen geht, stehen in anderen Branchen oft Big Data und Business-Analytics-Lösungen für ein verbessertes Controlling, die Analyse von Markttrends und Kundenverhalten im Vordergrund. Auch Web-Shop und E-Commerce-Anwendungen, die Optimierung der Supply Chain oder intelligente Lösungen für den Einkauf oder den Vertrieb sind oft erste Anwendungsfelder beim Einstieg in Big Data.

Aktuelle Studien belegen, dass Big Data bei immer mehr Unternehmen ganz oben auf der Agenda steht. So prognostizieren die Analysten von IDC, dass der weltweite Umsatz mit Big Data bis zum Jahre 2020 auf über 200 Milliarden Dollar ansteigen wird, wobei mehr als die Hälfte aller Unternehmen neue Big-Data-Projekte aufsetzen werden. Bei fast zwei Drittel dieser Projekte geht es darum, verschiedene Datenquellen zusammenzuführen, fast die Hälfte der Anwender (48 Prozente) will damit Voraussagen über das zukünftige Kundenverhalten oder Umsatzzahlen (42 Prozente) treffen. Diesen generellen Trend bestätigt auch Fritz Schinkel, Distinguished Engineer und Leiter des Big Data Competence Center bei Fujitsu: „Wir sehen bei Big Data eine große Dynamik, besonders aus dem Bereich der KMU erhalten wir zahlreiche Anfragen. Die Anzahl der Projekte und die Awareness für das Thema haben stark zugenommen.“

Für den Einstieg in Big Data reiche es aber nicht, die fachlichen Fragestellungen zu formulieren und entsprechende Hardware- und Software einzukaufen: „Um Big-Data-Projekte erfolgreich durchzuführen, muss man den gesamten Stack beherrschen. Neben fachlichen und technologischen Fragen geht es auch um die Methoden- und Umsetzungskompetenz“, sagt der Fujitsu-Experte. Hinzu komme, dass gerade bei Big Data immer öfter Cloud-basierte Komponenten Teil einer Gesamtlösung sind. Folgerichtig beobachtet er, dass Unternehmen nicht mehr nur nach Hardware, sondern nach Konzepten für schnell einsetzbare, komplette Lösungen suchten. „Bei Big Data erwarten die Anwender oft ein Gesamtpaket aus Beratung, Hilfestellung bei der Konzeption und Planung, passgenauer und kostengünstiger Hard- und Software bis hin zur Umsetzung.“

Dabei verfügten die meisten Unternehmen durchaus schon über Erfahrungen mit großen Datenmengen: Data Warehouse und BI-Anwendungen (Business Intelligence) sind auch bei KMU seit vielen Jahre erfolgreich im Einsatz. Aber während sich klassische Data Warehouse Systeme vor allem auf die retrospektive Auswertung von Daten - mit zeitlicher Verzögerung - und oft auf einzelne Datensegmente begrenzt – richten, zielt Big Data auf die Analyse und Nutzung der Ergebnisse in Echtzeit. Darüber hinaus wächst die Datenmenge aus Social Media, mobilen Geräten und dem Internet of Things gewaltig an, wobei ein immer größerer Anteil davon unstrukturiert ist, so dass traditionelle BI-Systeme, die auf die Verarbeitung strukturierter Daten etwa aus ERP- und CRM-Systemen ausgelegt sind, unweigerlich daran scheitern müssen. Es geht nicht mehr um Terabyte, sondern Petabyte, Exabyte und Zettabyte.

Big Data dreht sich nicht mehr nur um die Erfassung der Daten selbst, sondern auch um bezahlbare Systeme, die Speicherung, Erschließung und Analyse riesiger Datenmengen in Echtzeit ermöglichen. Mit der Verarbeitung in höchster Geschwindigkeit können Abfragen immer weiter verfeinert und die Abfrageergebnisse und verbessert werden. Und während die Auswertung der Daten bei klassischen BI-Systemen nur einer kleinen Gruppe von Spezialanwendern zugänglich war, versetzen Big-Data-Systeme einen großen Benutzerkreis auch ohne tiefgreifende Vorkenntnisse in die Lage, produktiv mit Analysedaten umzugehen.

„Es geht ja nicht darum, Datenmengen zu akkumulieren, sondern daraus Erkenntnisse abzuleiten. Big Data verschafft einen unkomplizierten Zugang zu Analysedaten, und damit zu Wissen, und zwar für alle, die diesen Zugang benötigen“, sagt Fujitsu-Manager Schinkel. Erst auf diese Weise könne Big Data sein gewaltiges Potenzial für intelligente Anwendungen, digitale Geschäftsmodelle und bessere Unternehmensentscheidungen entfalten.

Beim Einstieg in Big Data richten sich die Projekte in aller Regel auf ein konkretes Ziel und adressieren einen klar definierten Use-Case. Die Hardware spielt dabei eine entscheidende Rolle: Sie muss exakt auf die speziellen Anforderungen in Big-Data-Szenarien zugeschnitten sein und entsprechende Rechen- und Speicherkapazitäten zur Verfügung stellen. „Fujitsu hat darauf reagiert und spezielle Big Data Plattformen entwickelt die wir beispielsweise als Appliances schlüsselfertig ausliefern“ sagt Schinkel. Daneben biete Fujitsu eine Reihe von Server- und Storage-Systemen bis hin zu Cloud-Ressourcen, die sich passgenau zu Big-Data-Lösungen zusammenfügen ließen. „Zusammen mit unserem Beratungsangebot und unserer ausgewiesenen Methoden- und Umsetzungskompetenz liefern wir eine umfassende Palette an Hardware und Services und ermöglichen Unternehmen den schnellen und unkomplizierten Einstieg in Big Data“ verspricht der Fujitsu-Experte.