Cookie

Interview mit Dr. Falko Guderian, ehemaliger Senior Consultant Analytics bei T-Systems

Testautomatisierung in Big Data: Weniger Risiken, geringere Kosten

 

Viele reden über die Erfolge mit Big Data – nur wenige über den Aufwand, der dahintersteckt. Denn maßgeblich für aussichtsreiche Big-Data-Analysen ist vor allem deren Datenqualität. Wie diese von Unternehmen durch Testautomatisierung gesichert werden kann und warum dieses Verfahren auch noch kostensenkend wirkt, verrät Experte Dr. Falko Guderian (bis 2018 Senior Consultant Analytics bei T-Systems).

Herr Guderian, warum ist Testautomation im Kontext von Big Data derzeit ein solch großes Thema?

Automatisierte Testabläufe ermöglichen eine schnelle, fehlerfreie und effiziente Sicherung von sowohl Daten- als auch Softwarequalität. Dadurch lassen sich Testkosten sparen, und den Mitarbeitern steht mehr Zeit für ihre Kernaufgaben zur Verfügung. Zudem ermöglicht die Automatisierung den Übergang von einer stichprobenhaften zu einer fortlaufenden Qualitätssicherung ...

… die Unternehmen weshalb benötigen?

Aus mehreren Gründen, aber insbesondere für die korrekte Funktionsweise ihrer Big-Data-Lösungen. Die Testautomation minimiert Risiken für Big Data. Ebenso sorgen gesetzliche Dokumentationspflichten dafür, dass immer mehr Unternehmen die Automatisierung erwägen.

Konkret?

Was die Datenquellen angeht: Eine Big Data Lösung verwendet meistens eine Mischung aus unternehmensinternen Daten und – teilweise zugekauften – externen Daten. Diese unterscheiden sich unter anderem in ihrer Erzeugungsrate, Datenmenge, Datengüte, Datenvarianz und Aktualität. Daraus entwickeln sich dann mögliche Qualitätsrisiken wie potenziell unbekannte Datenanforderungen, beispielsweise bei Onlinedaten von Nutzern. Die Datenanforderungen sind mitunter veränderlich, etwa Social-Media-Daten oder Protokolldaten. Und es gibt Daten, die womöglich unzuverlässig sind wie Crowdsourcing-Daten. Und genau an dieser Stelle setzt Testautomation an und minimiert diese Risiken durch eine kontinuierliche Überwachung mit automatischen Qualitätschecks und Alarmen.

Auf der anderen Seite gibt es aber auch Qualitätsrisiken bei der sogenannten Datensenke, also dem Bestimmungsort der Daten: Viele Big-Data-Lösungen trainieren ihre Algorithmen mit Onlinedaten oder mit Daten in kurzen Betrachtungszeiträumen. Dies geschieht sowohl aus Kostengründen als auch um sich schnell an neue Nutzergewohnheiten anpassen zu können. Ein kurzer Betrachtungszeitraum birgt jedoch die Gefahr, wichtige Datenkonstellationen bei der Entwicklung nicht betrachtet zu haben. Damit besteht das potentielle Risiko von veränderlichen oder fehlerhaften Endergebnissen. Nur eine kontinuierliche Überwachung der Endergebnisse kann dieses Qualitätsrisiko minimieren. Testautomation für Big Data liefert hier für die jeweilige Anwendung zugeschnittene Lösungen.

Und was sind die Herausforderungen aus gesetzgeberischer Sicht?

Die Dokumentationspflicht unter anderem von Prozessabläufen und Funktionsabläufen ist eine wichtige betriebliche Rahmenbedingung von vielen Produktionsunternehmen. Etwa in der Pharmaindustrie oder der Medizintechnik. Automatisierte Testabläufe mit automatischer Testdokumentation haben dabei den wesentlichen Vorteil, den Dokumentationsaufwand unter Einhaltung der regulatorischen Pflichten zu minimieren.

Wenn Testautomation mittlerweile so wichtig ist: was muss ein Unternehmen bei der Einführung beachten?

Sie steht und fällt mit den Anforderungen an Daten, Software und Testergebnisse und diese mit den organisatorischen, technischen und gesetzlichen Rahmenbedingungen abzugleichen.

Wie läuft das Verfahren technisch ab, welche technischen Voraussetzungen müssen Unternehmen bieten, damit sie Testautomation nutzen können?

Heutige Big-Data-Lösungen laufen in Cloud-Umgebungen. Daher ist es notwendig, die entsprechenden Zugänge und Freischaltungen verfügbar zu machen. Darüber hinaus ist Testautomation aus separaten IT-Lösungen aufgebaut, die in einer eigenständigen IT-Umgebung laufen. Damit können Entwicklung, Testautomation und Betrieb getrennt und parallel voneinander ihre Aufgaben bewältigen. Konkret funktioniert Testautomation dann wie folgt: Sind neue Daten an der Datenquelle oder Datensenke vorhanden, wird dies erkannt und die relevanten Testroutinen werden automatisch ausgeführt. Die Testergebnisse werden im Anschluss gesammelt und in Berichtsform aufbereitet.

Welche Teststrategie verfolgt die MMS?

Diese ist von vielen Faktoren beeinflusst und wird von uns auf jeden Kunden individuell zugeschnitten. Das vorliegende Projektbudget, die Projektdauer und der Projektumfang sind für uns wichtige Anhaltspunkte für die Auswahl der richtigen Teststrategie. Grundsätzlich verfolgt die MMS ein Ziel: Sicherstellung einer größtmöglichen Qualität bei einem vertretbaren Testaufwand. Insbesondere durch eine laufende Vergrößerung des Anteils agiler Projekte wird eine schnelle Testdurchführung zu einer immer wichtigeren Projektanforderung. Wir liefern dafür mit Testautomation einen wesentlichen Beitrag.

Und in der Praxis dann, wie verläuft das konkrete Testvorgehen?

Grundsätzlich lässt sich das in die drei nacheinander ablaufenden Phasen Testvorbereitung, Testdurchführung und Testauswertung gliedern. In der Testvorbereitung entwerfen und erstellen unsere Experten die Tests gemäß den Anforderungen an die Daten und Funktionen. Dies beinhaltet auch den Aufbau einer separaten IT-Umgebung und die Installation der Testautomation-Werkzeuge. Die Tests erfolgen dann automatisch auf der separaten IT-Umgebung. Bei der Testauswertung sichten erfahrene Testexperten die Testergebnisse für die Weitergabe an den Kunden. Je nach Projektlage werden die Testergebnisse an Drittsysteme automatisch weitergereicht, etwa an ein Testmanagementsystem.

Welche Erkenntnisgewinne kann dann eine Organisation oder ein Unternehmen aus der Automatisierung ziehen?

Ganz klar: Die Risiken aus den großen Datenmengen, hohen Datenerzeugungsraten und vielen Datenformaten einer Big-Data-Lösung wären ohne Automatisierung nicht beherrschbar. Darüber hinaus lassen sich potenzielle Fehler mit Testautomation schnell erkennen und damit eine effektive Qualitätssicherung realisieren.

Riesenthema in Big Data sind ja derzeit Predictive Analytics. Liefert die Automatisierung hierzu auch Antworten?

Absolut, denn die bei Predictive Analytics entwickelten Prognoseverfahren basieren auf Big-Data-Quellen. Daher kann Testautomation zur effektiven Qualitätssicherung von Predictive Analytics und damit wiederum zu einer höheren Kundenakzeptanz beitragen.

Was ist noch möglich, was sind zukünftig denkbare Szenarien der Big-Data-Qualitätssicherung?

Ein stetig zunehmender und über Branchengrenzen hinweg verlaufender Einsatz von Big-Data-Qualitätssicherung ist sicher realistisch. Big-Data-Qualitätssicherung dürfte eine wichtige Rolle bei der Akzeptanz von IoT-Anwendungen, von Industrie-4.0-Lösungen und vom autonomen Fahren spielen. Hier wird die Testautomation sicher noch eine wichtige Rolle spielen.