Interview

Drei Fragen an Jens Kamionka

"Datenqualität ist die größte Herausforderung", meint Jens Kamionka, Head of Big Data & Data Analytics bei der T-Systems Multimedia Solutions GmbH. "Denn viele kleine Fehler sorgen für eine große Abweichung in der Datenanalyse."

Die meisten Unternehmen arbeiten bereits datenbasiert, doch die spätere Nutzung dieser Daten wir häufig nicht effizient umgesetzt. Unternehmen, die eine klare Datenstrategie entwickeln sind widerstandsfähiger und kurbeln zudem noch den Geschäftserfolg an. Wie wichtig eine Struktur innerhalb der Data Analytics ist, betont auch Jens Kamionka.

Vor welchen Herausforderungen stehen die Unternehmen bei Data Analytics, welche Handlungsfelder müssen zunächst bearbeitet werden?

Es reicht nicht, einfach Daten zu sammeln. Unternehmen benötigen eine Datenstrategie, die von der Geschäftsführung gefördert wird. Sie muss gegenüber der Belegschaft und dem ganzen Unternehmen transparent sein. So entsteht eine klare Agenda, die alle Mitarbeiter auf die Digitalisierung ausrichtet und Orientierung schafft.

Wenn Unternehmen in kleinen Schritten vorangehen, bleibt es ohne Strategie nur bei punktuellen Experimenten. Sie sind nicht langlebig und fast nie erfolgreich. Stattdessen sollten Unternehmen eine Agenda und einen Plan aufsetzen, die strukturierte Abläufe ermöglichen. Die kleinen Schritte müssen miteinander verbunden werden und Mehrwert erzeugen.

Dafür müssen die Unternehmen Informationen sammeln und internes Know-how schaffen: Was bietet Data Analytics? Wie kann sie unserem Unternehmen helfen? Sinnvoll ist auch ein Blick auf Partnerunternehmen, Wettbewerber und in andere Branchen. Auf dieser Basis wird die Strategie entwickelt und anschließend in verschiedene Arbeitspakete aufgeteilt – kleine, machbare Use Cases, die als Proof of Concept (PoC) vorangetrieben werden. Anschließend geht es dann darum, erfolgreiche PoC zu größeren Lösungen auszubauen und in den Alltagsbetrieb einzugliedern.

Worauf sollten Unternehmen auf dem Weg der Digitalisierung achten?

Eine große Herausforderung ist weiterhin die Datenqualität. Es gibt im Prinzip keinen perfekten Datensatz, die Fehlerquellen sind vielfältig. Schwierigkeiten entstehen durch fehlerhafte Sensoren, Pannen bei der Übertragung oder der Speicherung der Daten. Und natürlich geschehen auch menschliche Fehler bei der manuellen Erfassung und Bearbeitung von Daten. Ein einzelner Fehler ist kein großes Problem. Doch mit der Anzahl der Fehler steigt die Abweichung der Analysegenauigkeit exponentiell an.

  • Jens Kamionka, Head of Big Data & Data Analytics

    Eine grosse Herausforderung ist weiterhin die Datenqualität. Es gibt im Prinzip keinen perfekten Datensatz, die Fehlerquellen sind vielfältig.

    Zum Trendbook Smarter Analytics 2020!

Ein zweiter Punkt ist der Wirkungsgrad der Algorithmen. Zum Beispiel eine Verkaufsprognose: Wenn sie nur eine Genauigkeit von 50 Prozent hat, erkennt sie lediglich die Hälfte aller Kaufentscheidungen richtig. Das bringt nicht viel. Mindestens 95 Prozent Genauigkeit sind notwendig, damit die Prognose zu mehr Wertschöpfung führt. Oft reichen hier die Standard Frameworks nicht aus und das Unternehmen muss auf professionelle Data Scientists zurück greifen.

Darüber hinaus müssen Data-Analytics-Systeme moderne Verfahren unterstützen. Firmen nutzen meist klassische Business-Intelligence-Infrastrukturen mit Data Warehouses. Häufig sind sie mit Open-Source-Technologien aus der Big-Data-Welt aufgerüstet, um schnelle Experimente und Ergebnisse zu ermöglichen. Doch diese Experimente lassen sich nicht unbedingt skalieren.

Ein weiteres Hindernis ist der Datenschutz. Obwohl sinnvoll, blockieren die sehr umfangreichen Grenzen bei der Verwendung von personenbezogenen bereits einfache Use Cases. Dafür müssen die Unternehmen kreative Lösungen finden, beispielsweise über Anonymisierung oder Pseudonymisierung von Daten, alternative Datenquellen, On-Edge-Daten-verarbeitung oder den Einsatz von Open Data. Letzteres sind DSGVO-kompatible Datensammlungen, die für Data Analytics oder Machine Learning freigegeben sind.

Wie sieht es mit dem Know-how aus? Haben die Unternehmen genug Leute, um ihre Datenstrategie umzusetzen und ein Data-Analytics-Team aufzubauen?

Ein internes Team hat viele Vorteile. Die Kosten sind geringer, das Know-how bleibt im Haus, Projekte passen besser zur Infrastruktur und den Geschäftsprozessen.
Doch die Nachteile liegen auf der Hand: Das Team muss aufgebaut und ausgebildet werden, was unter Umständen einige Jahre dauert. Außerdem lernt dieses Team zunächst, was andere Unternehmen bereits wissen – es macht die gleichen Fehler noch einmal.

Deshalb sind vor allem zu Beginn externe Dienstleister und Partner empfehlenswert. Sie bringen viel Know-how mit, so dass der Weg von der Strategie zum Proof of Concept kürzer wird. Allerdings entstehen hier Abhängigkeiten.Es ist ratsam, parallel zu den externen Teams auch internes Know-how aufzubauen.

Für den Anfang ist zudem der Einsatz vorgefertigter Analytics-Produkte sinnvoll. Einige KI-Plattformen bieten Routinen und Maschine-Learning-Modelle an, etwa Google und Microsoft. Der Vorteil: Es ist nur wenig oder sogar gar kein Know-how notwendig, um erste Experimente zu starten. Diese vorgefertigten Produkte sind allerdings eingeschränkt und bieten nur wenige Konfigurationsmöglichkeiten. Deshalb ist auch ihr Wirkungsgrad nicht optimal. Aber sie sind ideal für einen ersten Ausflug in die Data Analytics und ihre grenzenlosen Möglichkeiten.

  • Smarter Analytics – Daten nutzen, um Mehrwerte gewinnen

    Ein weiteres Hindernis ist der Datenschutz. Die sehr umfangreichen Grenzen bei der Verwendung von Perso-nendaten blockieren bereits einfache Use Cases.

Trendbook: Smarter Analytics 2020
Das Trendbook zeigt die Potenziale einer intelligenten Datenanalyse für Ihre Wertschöpfungskette anhand von Top-Handlungsfelder und Best Practices auf. Erfahren Sie mehr.
Zum Download

Über den Experten

Jens Kamoinka ist Head of Big Data & Data Analytics bei der T-Systems Multimedia Solutions GmbH. Neben umfassender Erfahrung in unterschiedlichen Schwerpunkten der IT-Branche, war er zudem für den Aufbau eines neuen Standortes, sowie eines Fachbereiches für Mobile Testing innerhalb der MMS verantwortlich. Heute vereint er in bereichsübergreifender Verantwortung die Themenfelder Business Intelligence, Big Data und Data Analytics innerhalb der Telekom und konzentriert sich mit seinem Team auf die Unterstützung der Kunden auf ihrem Weg zur und durch die Digitalisierung.