Big Data und maschinelles Lernen wird alles verändern – Fast täglich lesen oder hören wir im Rahmen der digitalen Transformation davon. Gemäss Experten wird die Technologie jeden einzelnen Lebensbereich nachhaltig verändern. Googles autonomes Fahren, die Gesichtserkennung bei Facebook, IBM Watson und Microsoft Cortana sind prominente Beispiele. Bereits heute gibt es unzählige Anwendungsmöglichkeiten aus dem Finanzsektor, in Vertrieb und Marketing, Produktion und Logistik oder in der Medizin- und Biotechnologie. Dass davon in vielen Lebensbereichen wenig zu spüren ist, liegt an der technischen Komplexität der einzelnen Verfahren. Früher oder später ist der Einsatz von Data Analytics aber kein wirtschaftlicher Vorteil mehr, sondern schlichtweg Standard.
Wie im Blog „Big Data: Das Eichhörnchen in der Wolke“ beschrieben, erscheint das Thema Big Data (und damit verbunden Data Analytics) 2018 nicht mehr im Gartner Hype Cycle für Technologietrends. Dies aber nicht, weil sich die Wogen um das Thema geglättet hätten, sondern weil die Analysten davon ausgehen, dass Big Data in der Zwischenzeit so tief in das Denken der Unternehmen eingeprägt hat, dass man nicht mehr von einem Zukunftstrend reden kann.
Neuer Wein in alten Schläuchen?
Riesige Mengen an Daten sammeln ist das eine. Mit Data Analytics geht es um die gewinnbringende Analyse der Daten mithilfe maschineller Lernverfahren. Dabei werden Wahrscheinlichkeiten berechnet und Vorhersagen getroffen. Diese bilden dann die Grundlage zur Entscheidungsfindung in Prozessen oder beim Erschliessen neuer Märkte. Das allein ist nicht neu und ist noch kein Anlass, von einer Revolution zu sprechen. Anlagebanker, Marktforschungsinstitute, Wirtschaftsverbände und andere Institutionen erfassen seit jeher Informationen und werten sie zur Entscheidungsfindung aus. Neu ist, dass Vorhersagen nicht mehr anhand von Stichproben getroffen werden müssen – es können schlichtweg alle vorhandenen Daten ausgewertet werden. Das erlaubt eine völlig neue Exaktheit, die bisher undenkbar war.
Wie funktioniert der Blick durch die Big-Data-Glaskugel?
Data Analytics basiert im Wesentlichen auf Data Mining. Klassische Data-Mining-Methoden umfassen beispielsweise Regressionsanalyse, Klassifizierung (Clustering), neuronale Netze sowie Assoziationsanalysen. Über ein solches Erkennen von Mustern in Datenmengen nutzt Data Analytics statistische Berechnungen, maschinelles Lernen, Elemente der Spieltheorie sowie Methoden des Operations Research (z.B. Optimierungsrechnung und Simulationsverfahren). Hinter Data Analytics steckt also eine ganze Menge an Mathematik und Statistik. Im Rahmen von Data Analytics gibt es verschiedene Betrachtungshorizonte, welche verschiedene Verfahren anwenden:
- Descriptive Analytics beschäftigt sich mit der Vergangenheit. Es dient dazu, Beziehungen zwischen Kunden und Produkten zu verstehen. Ziel ist es, von der Vergangenheit zu lernen, um mittels dieses Wissens in der Zukunft besser entscheiden zu können. Typische Beispiele sind OLAP-Analysen. Das Problem solcher Analysen besteht darin, dass man zwar Korrelationen aufdecken kann, aber solche Korrelationen rein zufällig sein können und daher nicht ausreichen, um Ursache-Wirkungs-Zusammenhänge zu identifizieren. Descriptive Analytics ist aber ein erster wichtiger Schritt, um neue, unbekannte und nicht-triviale Einsichten in Daten zu bekommen.
- Predictive Analytics beschäftigt sich mit der Zukunft. Predictive Analytics ermöglicht die Abschätzung der Wahrscheinlichkeit des Eintretens eines zukünftigen Ereignisses. Das klingt im ersten Augenblick kompliziert, aber machen wir uns das an einem weiteren Beispiel klar, dem Kredit-Scoring: Hier soll die Wahrscheinlichkeit abgeschätzt werden, mit der ein Kunde die zukünftigen Ratenzahlungen eines gewährten Kredits nicht leisten könnte. Das dient der Risiko-Abschätzung einer Kreditvergabe und liefert so eine Entscheidungsunterstützung. Es werden also historische und Transaktionsdaten genutzt, um Muster in den Daten zu entdecken. Mittels statistischer Modelle und Algorithmen werden dazu Beziehungen in den verschiedenen Datenmengen identifiziert.
- Prescriptive Analytics liefert Vorschläge basierend auf Predictive Analytics. Diese Methode setzt auf Predictive Analytics auf und geht noch einen Schritt weiter. Sie liefert zusätzlich auch Erklärungen, warum ein zukünftiges Ereignis eintreten wird und gibt Empfehlungen, wie man auf ein solches Ereignis reagieren sollte. Im Falle des Kredit-Scorings bekäme man also zusätzlich noch Information, warum der Kunde nicht zahlen können wird, und welches die beste Entscheidung sei, den Kredit zu vergeben oder nicht. Prescriptive Analytics versucht also die Auswirkung zukünftiger Entscheidungen abzuschätzen, um so Entscheidungen zu bewerten, bevor sie getroffen werden.
Die Grenzen bestehender Lösungen
Im Zuge der Digitalisierung wird Data Analytics immer wichtiger. Es dient insbesondere dazu, die Spuren der digitalen Kunden im Big Data (quer über alle Kanäle) zu entdecken, zu analysieren und zukünftiges Kundenverhalten und Kundeneigenschaften vorherzusagen. Aus der Datenvielfalt und dem Datenvolumen aus diversen Datenquellen soll aus Big Data die Essenz über unsere Kunden, Prozesse oder Produkte herausgefiltert werden. Klassischen BI-Strukturen sind mit der Analyse von grossen Datenvolumina überfordert. In klassischen BI-Lösungen fungieren Data Warehouses, basierend auf relationalen Datenbanken als Datenspeicher. Da relationale Datenbanken eine gewisse Struktur erfordern, ist es notwendig, unstrukturierte Daten im Vorfeld aufzubereiten und Metadaten zu erzeugen. Dies würde immense Rechen- und Speicherkapazitäten beanspruchen. Abfragegeschwindigkeit würden bei herkömmlichen Verfahren gefühlt unendlich dauern. Angesichts des hohen Datenvolumens bei Big Data stossen daher die relationalen Datenbanken bei BI-Anwendungen entweder an Grenzen der wirtschaftlichen Machbarkeit oder wären für den täglichen Einsatz aufgrund schlechter Performance nicht zu gebrauchen.
Neue Technologien im Umgang mit grossen und unstrukturierten Datenmengen
Grundlegende Voraussetzung für die effiziente Datenanalyse ist ein leistungsfähiger Data Lake, beziehungsweise eine geeignete Big Data-Infrastruktur, die auch grosse Datenmengen schnell auswerten kann. Beispiele dazu sind die neuen Datenbank-Konzepte wie noSQL, Hadoop, MongoDB oder SAP HANA. Diese Systeme können mit verschiedenen Formen von Daten umgehen. Sie normieren und verbinden diese in sehr kurzer Zeit. Im Rahmen von Data Analytics ist es unerlässlich, Daten aus unterschiedlichsten Quellen zu aggregieren und zu analysieren. Sämtliche Datenquellen (Maschinen, Prozesse, Produkte, Wetterdaten etc.) und Systeme (ERP, CRM, BI etc.) müssen miteinander integriert werden.
Die zweite grosse Herausforderung ist es, die Vielfalt von Datentypen und Formaten sowie die Qualität der einzelnen Daten umfassend zu verstehen. Um daraus entsprechende Einsichten zu gewinnen ist es wichtig die Daten und ihr Zustandekommen zu verstehen. Insbesondere für Predictive Analytics müssen genügend historische Daten vorhanden sein, damit sich diese mit geeigneten Prognosetechniken aussagekräftig in die Zukunft fortschreiben lassen.
3 Anwendungsbeispiele für Data Analytics
- Betrug erkennen (fraud detection): Von doppelt gestellten oder fehlerhaften Rechnungen bis zu manipulierten Bilanzen erkennen Regeln und Algorithmen automatisch Unregelmässigkeiten. Verdächtige Geschäftsvorgänge werden automatisch angehalten und manuell geprüft.
- Wartungszeitpunkt vorhersagen (predictive maintenance): Das Ziel ist, „die ausfallbedingte Instandsetzung durch eine vorbeugende Instandhaltung zu ersetzen“, wie Sven Bauszus erläutert. Algorithmen analysieren ständig das Verhalten der Maschinen und beziehen dafür auch historische Daten ein. So berechnet das System den geeigneten Zeitpunkt für die nächste Inspektion und hält benötigte Ersatzteile auf Lager.
- Unzufriedene Kunden erkennen (churn management): Rufen bei einem Mobilfunkunternehmen eher junge Kunden, die ein Tablet und ein Smartphone nutzen und in den letzten zwölf Monaten nichts von sich haben hören lassen, plötzlich häufig im Call-Center an, ist ein Muster entstanden, das den Kunden als „gefährdet“ identifiziert. Mit entgegenkommenden Preisen oder neuen Angebotspaketen ist es nun möglich, gezielt eine Abwanderung des Kunden zu verhindern.
Wie sollten Data Analytics Projekte umgesetzt werden?
Angesichts der Komplexität der Data Analytics-Projekte mit vielen Variablen und Einflussfaktoren raten viele Experten ein schrittweises Vorgehen. Oftmals sind kleine Pilotprojekte zum Starten und Kennenlernen der Tools sinnvoll. Sind diese gesammelt, kann in einem laufenden Prozess ständig weiterentwickelt und optimiert werden. Es besteht immer das Risiko, dass die Vorhersagemodelle nicht das erwartete Ergebnis bringen. Das kann unterschiedlichste Ursachen haben. Beispielsweise kann es an der Datenqualität mangeln. Daher ist es äusserst wichtig, Projekte gemeinsam mit Experten schrittweise zu erarbeiten und Datenquellen sukzessive zu erweitern.
In eigener Sache: Sie haben sich für 2018 vorgenommen, ein IoT-Projekt anzugehen? Zögern Sie nicht, unser Portal „ServiceFox“ kostenlos zu testen: das Portal mit 100% „Brain inside“. Weitere Informationen finden sie hier.