Big Data

1.1 Einführung

Um Big Data zu verstehen, ist es zunächst wichtig zwischen Daten und Informationen, sowie zwischen externen und internen Kennzahlen zu unterscheiden.

Daten bilden die Grundlage zur Bildung von Informationen. Die rohen Werte werden analysiert, interpretiert und für den Nutzer verwendbar aufbereitet. In der Vergangenheit lag der Schwerpunkt der Informationsbeschaffung größtenteils auf internen Ergebnissen aus den verschiedenen Unternehmensbereichen. Zunehmend erfolgt die Deckung des Bedarfs aber über den externen Bereich. Dies beschreibt sowohl den Beschaffungsmarkt, mit  Lieferanten, Wettbewerbern und Kunden, als auch den Absatzmarkt, bestehend aus Börseninformationen, Beteiligungen, volkswirtschaftlichen Kennzahlen und anderen Wirtschaftsdaten.

Die Informationsbereitstellung und –nachfrage, sowie deren Verwendung kann anhand eines Informationskontinuums dargestellt werden.

Informationskontinuum[1]

Aussagen über die Gegenwart lassen sich mit geringem Implementierungsaufwand, aber auch eingeschränktem Geschäftsnutzen, treffen. Die einfachste Möglichkeit ist hierbei das Nachschlagen und Suchen in bestehenden Datenquellen, gefolgt von der Analyse auf Häufigkeiten und Muster.

Aussagen über die Vergangenheit werden durch die klassischen Instrumente zur Beurteilung der Unternehmensperformance gestützt. Daten aus den vorherigen Geschäftsjahren werden zusammengefasst, verglichen und abschließend anhand von Kennzahlen und Schwellenwerten eingeordnet.

Analytische Modelle machen Aussagen über die Zukunft möglich. Sie unterteilen sich in die vier Techniken extrapolierend, beschreibend, vorhersagend und Entscheidungs-optimierend. Der Input erfolgt über das sogenannte Big Data.

1.2 Allgemeine Definition

Im weiten Sinne können unter Big Data alle Informationen dieser Welt verstanden werden. Im engeren Sinne beschreibt der Begriff den Einsatz großer Datenmengen aus vielfältigen Quellen, die ein Unternehmen zur Erzeugung eines wirtschaftlichen Nutzens einsetzen kann.

Der Konzern und Datenanalyst IBM misst die Qualität anhand der folgenden vier Dimensionen. [2]

1.2.1 Volumen

Das Volumen beschreibt den Maßstab der Daten.

Zurzeit wächst das weltweite Datenvolumen um jährlich 40 Prozent und verdoppelt somit seine Größe alle zwei Jahre. Experten schätzen, dass es bis 2020 einen Umfang von 43 Billionen Gigabyte erreichen wird. 

1.2.2 Variety

Ein Großteil der Informationen wird aus unstrukturierten Daten gewonnen. Diese liegen in einer nicht formalisierten Struktur vor und können daher nicht konventionell in Datenbanken abgelegt werden. Die Beschaffenheit umfasst Texte, Dokumente, Bilder, Videos oder Sprachnachrichten.

1.2.3 Velocity

Velocity beschreibt die Frequenz mit der Streaming Daten erstellt werden können. Für Unternehmen ist es wichtig, auch mit sehr hohen Geschwindigkeiten umgehen zu können, um möglichst schnell auf wirtschaftlich relevante Ereignisse reagieren zu können.

1.2.4 Varecity

Die Messgenauigkeit von Daten ist erforderlich, um fundierte Entscheidungen über zukünftige Geschäftsprozesse treffen zu können.

1.2.5 Gesamtkonzept

Die Nutzung von Big Data zur Analyse, Prognose und Optimierung von Daten erfordert ein durchgängiges Gesamtkonzept. Hierbei sollte eine Strategie zur erfolgreichen Umsetzung die vier Ebenen Datenbeitrag, Modellierung, Datenverarbeitung sowie Speicherung und Visualisierung umfassen.

Aufgrund des unstrukturierten Aufbaus reichen zur Abbildung und Auswertung klassische transaktionale, analytische und Dokumentenmanagement-Systeme nicht mehr aus. Die steigenden technischen Anforderungen erfordern zum einen andere Modellstrukturen, zum anderen eine Änderung im Maschinenlernen („Machine Learning“). [3]

Gesamtkonzept[4]

So werden Daten auf der untersten Ebene beispielsweise über Scanner, Sensoren oder Kundeneingaben generiert. Auf der zweiten Ebene werden die gesammelten Daten integriert, aufbereitet und modelliert. Maßnahmen auf der Datenverarbeitungs- und Speicherebene beschäftigen sich vor allem mit der Herausforderung der großen, notwendigen Bandbreite und Rechenleistung. Die Visualisierung auf der vierten Ebene ist entscheidend für die Effektivität von getroffenen Entscheidungen. Ohne eine umfassende Darstellung ist die potenzielle Wertschöpfung unvollständig. [5]

Klassische Modelle der Unternehmenssteuerung sind linear und statisch. Sie müssen durch manuelle Eingaben angepasst  und verbessert werden. Bei Big Data können Algorithmen Modellstrukturen und Parameter auf Basis des Datenstroms anpassen und somit das System selbstständig entwickeln.

Damit findet ein Wechsel von menschlicher Tätigkeit zu maschineller Analyse statt und bisherige Aufgaben des Controllers werden automatisch ausgeführt.

1.3 Mögliche Einsatzfelder des Big Data im Controlling

Die Bereitstellung von Informationen zur Entscheidungsfindung ist eine grundlegende Funktion des Big Data. Sie bildet gleichzeitig die Schnittstelle zum Controlling, da die Informationsversorgung von Entscheidungsträgern gleichzeitig zu den Hauptaufgaben des Controllers gehört. Hierbei wird zwischen den drei Entwicklungsstufen „aspirational“, „experienced“ und „transformed“ für analytische Verfahren unterschieden. [6]

„Aspirational“ beschreibt die Betrachtung historischer Daten zur Bewertung bereits getroffener Entscheidungen. Die Dokumentation erfolgt anhand konventioneller Methoden und bietet keinen Ansatz für Big Data.

Auf der zweiten Stufe „experienced“ werden verschiedene Entscheidungsalternativen anhand von internen und externen Daten bewertet und ausgewählt. Das Potenzial von Big Data kann hierbei zur Analyse dieser Daten genutzt werden.

Weitere Potenziale bieten Daten, wenn es gelingt Entscheidungsalternativen auf Grundlage von Daten zu generieren. „Transformed“ identifiziert grundlegende Zusammenhänge. Sind die Ursache-Wirkungstreiber erkannt, können Entscheidungen abgeleitet werden, um zukünftige Produkte, Dienstleistungen oder die Gestaltung interner Prozesse zu verbessern. [7]

1.3.1 Marktfähigkeit

Um die Marktfähigkeit eines Unternehmens zu gewährleisten, ist es Aufgabe des Controllings ein Verständnis des Zusammenspiels zwischen Produktherstellung, Verkauf, Kosten und Preisen darzustellen. Big Data kann hierbei als Instrument zur Entscheidungsfindung eingesetzt werden:

 

  • Welche Aktivitäten wurden von einem Kunden nach Kauf eines Produktes vollzogen? Es kann analysiert werden, welche weiteren Produkte gekauft wurden, welche Alternativen in Frage gekommen sind und welche Rückfragen gestellt wurden.
  •  Informationen aus den verschiedenen Interaktionen können zu Kunden-Clustern zusammengefügt und der potenzielle Nutzen eines Produktes konkretisiert werden.
  • Diskussionen, Foren und Beurteilungen können in standardisierte Empfindungen und Einschätzungen von Seiten des Kunden transformiert werden.
  • Die Analyse der Preissensibilität der Kunden kann zur dynamischen Preisfindung genutzt werden. Eine kundenspezifische Differenzierung ist möglich.
  • Die systematische Beobachtung der Wettbewerbspreise führt zu einer genaueren Kenntnis der Konkurrenzsituation.

1.3.2 Predictive Maintenance

Der Einsatz von Sensoren in der Produktion, erlaubt eine automatische Erkennung von ungewöhnlichen Produktionsbedingungen. Potenzielle Ausfälle, Qualitätsmängel oder Ausschüsse werden somit prognostiziert und können durch eine angepasste Wartungsstrategie vermieden werden. Dies kann auch im Rahmen des Qualitätsmanagements an den Kunden weitergegeben werden. [8]

1.3.3 Zahlungsverkehr

Die Analyse von Zahlungsströmen ist wichtig für das Unternehmen und seine Stakeholder, um die Liquidität zu sichern und die Ansprüche aller Interessensgruppen zu erfüllen.

Umfangreichere Prognosen, die neben Zeitreihen auch kausale Aspekte einbeziehen, können dabei helfen Unsicherheiten zu erkennen und zu bewältigen.

 

  • Bandbreiten können durch die Zusammenfassung von Zahlungsverhalten einzelner Kunden ermittelt werden
  • Der Einfluss volkswirtschaftlicher Parameter auf Zahlungsausfälle kann untersucht werden.
  • Die Analyse der Wirkung von Qualitätsproblemen auf das Zahlungsverhalten ermöglicht differenzierte Aussagen über die Signifikanz konkreter Mängel.

 

Neben der Einzahlungsseite werden auch die Auszahlungen betrachtet. Hierbei fließen vor allem Informationen  über die realisierbare Kaufkraft des Unternehmens ein. Dies umfasst Daten über die Leistungsfähigkeit, Zuverlässigkeit und Kooperationsbereitschaft des Zahlungsempfängers, sowie über die Bedarfsentwicklung des Unternehmens bezüglich Personal, bezogener Leistungen und Material.

1.3.4 Risikomanagement

Modernes Risiko-Management bezieht neben Eintrittswahrscheinlichkeiten auf Basis von historischen Daten auch Schwankungen der erfolgsrelevanten Faktoren und deren Wirkung auf Unternehmensziele mit ein. Es geht um Verhaltensweisen wichtiger Stakeholder und die Entwicklungen von Produktgruppen und deren Preisen.

Big Data kann zum einen die Auswahl der kritischen Faktoren unterstützen und zum anderen die Ableitung von unternehmensrelevanten Aussagen zu den Schwankungen fundieren. Kunden können genauer bezüglich ihres Ausfallrisikos ausgewählt werden.

Im Risiko-Controlling können Risiken in einem Simulationsmodell verknüpft werden. Hierbei wird jedoch zurzeit kritisch die Ermittlung der Abhängigkeiten diskutiert. [9]

1.4 Verankerung von Big Data im Controlling-System

Big Data bedeutet eine Vielzahl von Ansätzen, die neben den bestehenden konventionellen Analyse-Informationen integriert werden müssen. Zur Einbindung sind Veränderungen in den steuerungsrelevanten Prozessen Planung, Reporting und Konsolidierung nötig.

Die Analyse wird zunehmend maschinell und automatisch ausgeführt. Der Schwerpunkt des Controllers liegt daher mehr auf der Interpretation der Ergebnisse. [10]

Mit der Einführung einer Reporting-Factory können Reporting-Aufgaben an einer Stelle im Unternehmen gesammelt und standardisiert werden. Dieser Ansatz ermöglicht dem Controlling eine Fokussierung auf wertschöpfende Tätigkeiten der Geschäftsanalyse, Entscheidungsunterstützung und Beratung des Managements. [11]

Der, in Abbildung 3 gezeigte, Aktivitätensplit zwischen Datenerzeugung, Informationsbereitstellung und Beratung bildet die Möglichkeit für die organisatorische Umsetzung der Rollen. Die Big Data spezifischen Kompetenzen bei den Geschäftscontrollern können verankert werden.

Fazit

Die Digitalisierung und die damit verbundenen Potenziale durch Big Data verändern das Verständnis der heutigen etablierten Systeme. Noch werden allerdings nur 5% der vorhandenen Datenmenge konkret analysiert. [13] Mögliche Wirkungen auf die Wertorientierung müssen noch durch praktische Erfahrungen und wissenschaftliche Forschung untersucht werden. [14]

Um von den Möglichkeiten zu profitieren und gleichzeitig Arbeitsprofile und Menschen zu schützen müssen systematisch Voraussetzungen geschaffen werden. Eine frühzeitige Auseinandersetzung und Gestaltung des Wandels sichert die Zukunft der Unternehmenssteuerung und somit auch des Unternehmenserfolges. [15]

1.6 Quellenverzeichnis

  • vgl. [1] Eigene Darstellung in Anlehnung an Becker Wolgang / Ulrich Patrick (2016): S.20
  • vgl. [2] www.ibmbigdatahub.com
  • vgl. [3]Kieninger, Michael / Mehanna, Walid / Vocelka, Alexander (2016): S.243
  • vgl. [4] eigene Darstellung in Anlehnung an Kieninger, Michael / Mehanna, Walid / Vocelka, Alexander (2016): S.242
  • vgl. [5]Kieninger, Michael / Mehanna, Walid / Vocelka, Alexander (2016): S.242
  • vgl. [6] LaValle, S. / Lesser, E. / Shockley, R. / Hopkins, M.S. / Kruschwitz, N. (2011): S.22-23
  • vgl. [7] ICV Ideenwerkstatt (2014): S.20
  • vgl. [8] Ohler, Karsten / Schmidt, Walter / Seufert, Andreas (2016): S. 64-66
  • vgl. [9] Ohler, Karsten / Schmidt, Walter / Seufert, Andreas (2016): S. 64-66
  • vgl. [10] Gleich, Ronald / Grönke, Kai / Kirchmann, Markus / Leyk, Jörg (2014): S.77
  • vgl. [11] www.haufe.de
  • vgl. [12] Gleich, Ronald / Grönke, Kai / Kirchmann, Markus / Leyk, Jörg (2014): S.78
  • vgl. [13] www.icv-controlling.com
  • vgl. [14] Oehler, Karsten / Schmidt, Walter / Seufert, Andreas (2016): S. 69
  • vgl. [15] Kieninger, Michael / Mehanna, Walid / Vocelka, Alexander (2016): S. 247

1.6.1 Literaturverzeichnis

  • Becker, Wolfgang / Ulrich, Patrick / Botzkowski, Tim (2016): Data Analytics im Mittelstand, 1. Auflage, Springer Fachmedien, Wiesbaden
  • Gleich, Ronald / Grönke, Kai / Kirchmann, Markus / Leyk, Jörg (2014): Controlling und Big Data – Anforderungen, Auswirkungen, Lösungen, 1. Auflage, Haufe Gruppe, Freiburg/München
  • Horton, F. W. (1985): Information Resources Management: Harnessing Information Assets for Productivity Gains in the Office, Factory and Laboratory, Prentice Hall, Englewood Cliffs
  • Turner, Vernon / Reinsel, David / Gantz, John F. / Minton, Stephen (2014): Studie „The Digital Universe of Opportunities: Rich Data and the Increasing Value of the Internet of Things”, www.emc.com/leadership/digital-universe/index.htm. Framingham USA Zugriff: 15.05.2016

1.6.2 Zeitschriften

  • Kieninger, Michael / Mehanna, Walid / Vocelka, Alexander (2016): “Wie Big Data das Controlling verändert”, 28. Jahrgang, Controlling, Vahlen, München
  • LaValle, S. / Lesser, E. / Shockley, R. / Hopkins, M.S. / Kruschwitz, N. (2011): “Big data, analytics and the path from insights to value”, MIT Sloan Management Review, 52. Jahrgang, Massachusetts
  • Oehler, Karsten / Schmidt, Walter / Seufert, Andreas (2016): „Bedeutung von Big Data für Controller – Chancen der Digitalisierung bei der Umsetzung moderner Wertorientierung“, Ausgabe 3, Controller Magazin, Verlag für ControllingWissen AG, Wörthsee-Etterschlag

1.6.3 Links

  • https://www.bitkom.org/Publikationen/2012/Leitfaden/Leitfaden-Big-Data-im-Praxiseinsatz-Szenarien-Beispiele-Effekte/BITKOM-LF-big-data-2012-online1.pdf Zugriff: 14.05.2016
  • https://www.haufe.de/finance/finance-office-professional/reporting-factory-gestaltung-aufbau-und-einordnung-in-den-finanzbereich_idesk_PI11525_HI2088959.html Zugriff: 26.05.2016
  • www.ibmbigdatahub.com/infographic/four-vs-big-data Zugriff: 12.05.2016
  • https://www.icv-controlling.com/fileadmin/Assets/Content/AK/Ideenwerkstatt/Files/ICV_Ideenwerkstatt_DreamCar-Bericht_BigData.pdf Zugriff:15.05.2016

Verfasserin: Alischa Marquart