Cookie

Jens Kamionka, Experte für Big Data und Predictive Analytics, im Interview

Dort ansetzen, wo die Kosten lauern

Herr Kamionka, Big Data und vor allem Predictive Analytics sind in vielen Unternehmen bereits gesetzt. Brechen wir das Thema aber einmal konkret herunter auf die deutsche Industrie, wie ist da der Stand der Dinge?

Hier sehe ich unterschiedliche Reifegrade. Wenn man die Branchen in die drei Segmente Service, Produktion und Logistik unterteilt, dann lässt sich festhalten, dass die Logistik einen deutlichen Vorsprung hat. Ein hoher Kostendruck und viel Wettbewerb haben dazu geführt, dass diese Unternehmen weit vorn sind. Bereits seit den 90er-Jahren setzt man beispielsweise auf SIM-Karten, die Betriebsdaten wie die Motorleistung etwa in die Zentrale funken. Keine Frage: Hier ist das Thema nicht neu.

Im Umkehrschluss: Warum sind die anderen Teilsegmente noch nicht so weit?

Salopp formuliert, schießen einige Beteiligte noch zu oft ins Blaue. Blickt man auf die Zeitachse, dann setzten die Anwender zu Beginn der Datenanalyse auf die Vergangenheit: „Wie war mein Umsatz?“, ist so eine typische Fragestellung. Anschließend gab es die Phase der Diagnostik: „Warum ist mein Umsatz eingebrochen?“ Die Königsdisziplin sind schließlich Predictive Analytic mit denen man in die Zukunft schaut: „Wie wird sich mein Umsatz im Jahr 2018 entwickeln?“ Bei der Ausgestaltung der entsprechenden Analyse stehen die Unternehmen indes oft erst am Anfang, das ist noch nicht konkret genug.

… was woran liegt?

Ganz eindeutig fehlen konkrete Anwendungsfälle. Meiner Ansicht nach existiert das Thema Predictive Analytics in der Industrie in genau vier Dimensionen: Image, Risiko, Kosten und Umsatz. Die Analyse soll belastbare Informationen geben, wie man die Kundensicht auf das Unternehmen positiv beeinflussen, den Umsatz steigern sowie Risiko und Kosten senken kann. Können Unternehmen keine greifbaren Anwendungsfälle auf Basis dieser vier Ebenen schaffen, dann nützen auch keine Predictive Analytics. Das kann man so scharf formulieren, das erleben wir in der Beratung jeden Tag aufs Neue.

Das ist nachvollziehbar, aber: Warum ist es so schwierig, für diese vier Größen nachvollziehbare Use-Cases zu konstruieren? Die müssten doch allein aufgrund des Tagesgeschäfts auf der Hand liegen?

Die größten Herausforderungen identifizieren wir bei der grundsätzlichen Datenerhebung. Es gibt nur wenige Standards, sodass Datenerhebungskomponenten zumeist nur unternehmensindividuell vorhanden sind. Es wäre zudem von Vorteil, wenn wir beim Thema Schnittstellen weiter wären sowie bei der übergreifenden Echtzeit-Datenerhebung. Letztlich sitzen manche Marktteilnehmer schlicht auf ihren Daten und rücken diese nicht raus …

Wie bitte?

Ja. Beispielsweise gibt es schon Maschinenbauer, die ihre Produkte nicht mehr verkaufen, sondern verleasen. Und sie behalten sich dabei vor, die beim Betrieb entstehenden Daten exklusiv auszuwerten und diese Informationen ebenfalls als Service zum Verkauf anzubieten. Das ist aus ökonomischer Sicht verständlich, hilft uns in der übergreifenden Digitalisierung der Industrien aber nicht unbedingt weiter, da neue Silos entstehen.

Offensichtlich kommen manche Industrieunternehmen – selbst wenn sie es wollten – auch erst gar nicht an ihre Daten ran?

Leider stimmt das. Wir stellen immer wieder fest, dass historische Daten und auch Livedaten vorhanden sind. Aber es existieren oft die berüchtigten Datensilos, sodass die Informationen nicht den notwendigen Verknüpfungsgrad haben. Da braucht es häufig einen höheren internen Vernetzungsgrad bereits innerhalb der eigenen Fabrikmauern. Darüber hinaus wissen manche Organisationen auch nicht, wo überhaupt ihre Goldadern liegen. Denn eines muss klar sein: Daten gibt es zuhauf. Die Herausforderung ist jedoch, diejenigen Datentöpfe zu identifizieren, aus denen sich Prognosen überhaupt extrahieren lassen und deren Ergebnisse auch zu etwas führen. Prognostik zum Selbstzweck ist redundant. Und nicht nur das: Auch bei der Suche danach, sitzen einige Organisationen einem Trugschluss auf.

Und zwar welchem?

… dass die Implementierung von Predictive Analytics als Standard funktioniert. Dem ist aber leider nicht so. Es wird immer um individuelle Ansätze gehen. Die ganze Angelegenheit ist und bleibt eine unternehmensspezifische Sache, das ist die harte Realität.

Wenn dem so ist, dann helfen wir der Industrie doch einmal bei der Identifikation verheißungsvoller Datenquellen. Wo würden sie also ansetzen wollen?

Ein Erfahrungswert ist: ansetzen, wo die meisten Kosten entstehen. Hier erleben wir auch immer wieder Überraschungen. Wir berieten unlängst einen Kunden, dessen Prozesse bereits sehr optimiert waren. Durch Datenanalyse ließen sich jedoch Greifwege zwischen Regalen verbessern und um sechs Sekunden beschleunigen. Das klingt nicht überragend, doch Fachleute wissen, dass das je nach Branche sehr viel ausmachen kann. Und darum geht es letztlich: Es gilt, die einzelnen Prozesse im Unternehmen genau unter die Lupe zu nehmen und nicht die Gesamtheit. Derart lassen sich dann auch einfacher die entsprechenden Datenquellen identifizieren und auswerten.

Können Sie ein Beispiel nennen?

Klar, etwa in der Produktion. Nehmen wir mal an, ein Unternehmen möchte seine Produktionsplanung an der Kundennachfrage ausrichten, um sich so vor Überraschungen zu schützen. Da kann beispielsweise sein, dass es nicht mehr nach grober Prognose, sondern nach möglichst exaktem Bedarf produziert. Die Frage, die es also zu beantworten gilt, ist: „Welche Daten benötige ich, um den möglichst genauen Bedarf meiner Kunden vorhersagen zu können?“ Auf diese Weise lassen sich auch Trendprodukte analysieren. Damit man bereits heute weiß, was morgen gekauft wird.

Das heißt, im Kern der Predictive Analytics stehen in der Industrie weiterhin die gefertigten Produkte?

Klares Jein an dieser Stelle. Für manche Firmen mag das sein. Mein Beispiel des Turbinenherstellers zeigt jedoch, dass aus den Rohdaten durchaus auch verheißungsvolle Geschäftsmodelle entwickelt werden können. Oder schauen Sie sich ein Beispiel wie Uber an. Ich will diese hinlänglich bekannte Erfolgsgeschichte als ein auf Daten basierendes Unternehmen nicht wiederholen. Entscheidend ist jedoch: Es befindet sich in einem fortlaufenden Evolutionsprozess. Das nun von Uber entwickelte Angebot, dass sich mehrere Fahrgäste eine Fahrt teilen, ist ein gutes Beispiel dafür. Hier hat man den Prozess Taxifahrt zum Markteintritt in einer optimierten Form angeboten. Jetzt – gewissermaßen als Uber 2.0 – optimiert das Unternehmen diesen weiter, indem die Nutzer pro Fahrt Geld einsparen können, weil sie sich die Kosten teilen. Man hat also auf der Basis einer Echtzeit-Datenanalyse – wer nutzt unser Angebot wann und wo? – den schon guten Bestands-Prozess weiter optimiert. Das ist ein Paradebeispiel, das sich auch in der Industrie anwenden lässt: Wie kann ich mit Predictive Analytics also einen überwiegend menschbasierten Prozess weiter verbessern – darum geht's.

  • Über den Experten

    Jens Kamionka war bis 2022 bei der Telekom MMS beschäftigt. In dieser Zeit hat er sich unter anderem mit der strategischen Entwicklung neuer Fokusthemen sowie der Erschließung neuer Märkte beschäftigt. 2016 übernahm er die Leitung des Bereichs Big Data und Data Analytics und betreute eine Vielzahl von Unternehmen aus Industrie und Mittelstand bei der strategischen Umsetzung der digitalen Transformation.