Big Data avanciert in der IT zum „Next Big Thing“. Angesichts rasant wachsender Datenmengen nur allzu verständlich. „Das Heu ist da, aber man will die Stecknadeln darin“, schreibt die Süddeutsche Zeitung. Was viele Unternehmen über den neuen Hype vergessen: Auch im klassischen Datenmanagement gäbe es noch viel zu tun. Über die Hälfte der deutschen Banken wissen noch nicht einmal, was es sie kostet.
„Durch professionelles Datenmanagement lassen sich operative Kosten in Höhe von 15 bis 20 Prozent einsparen“, sagt Bernd Richter von Capco. Das Beratungsunternehmen hat außerdem ermittelt, dass nur 53 Prozent der Institute Richtlinien für Data Governance haben. Um Daten verfügbarer, besser kontrollierbar und nutzbar zu machen, hält Richter außerdem „teilweise umfangreiche Umstrukturierungen“ für unumgänglich.
Alle Studienteilnehmer gaben an, dass ihr Datenvolumen innerhalb eines Jahres stark gestiegen sei. Kopfzerbrechen bereitet ihnen vor allem die Qualität der Daten und ihre sinnvolle Aufbereitung für das Management. Besonders die unstrukturierten Daten wachsen enorm schnell, für sie gibt es aber noch kein brauchbares Rezept. „Der Buzz um Big Data ist erst einmal schiere Verzweiflung an der großen Zahl, verkauft als Freude“ – so schreibt Bernd Graff treffend auf SZ Online. Klassische Datenbank-Anwendungen sind überfordert, es fehlt an Rechenleistung. Ratlos blicken wir auf Informationsberge, deren Wert wir noch nicht kennen. Bis der Markt entsprechende Analysetechniken bereit hält, bleiben jedoch genügend Aufgaben im klassischen Datenmanagement. Etwa wenn es darum geht, Datensilos zu überwinden. So rät Capco dazu,
Am Ende dieses klassischen Weges stehen eine bessere Sicht auf den Kunden, weniger Kosten im Datenmanagement – und eine brauchbare Basis, auf der sich später Big Data realisieren lässt.