Data Science verstehen – Revolutionäres Potential aus vier Megatrends!

Wir befinden uns an der Schwelle zu einem neuen Zeitalter, weil verschiedene Strömungen zusammenkommen und damit ein einzigartiges Umfeld schaffen. Vieles (manche würden sagen: alles) wird digital. Damit ist auch das Interesse an den Themen Datenanalyse und -exploration – also Data Science – enorm gestiegen. Data Science ist der Konvergenzpunkt von vier Megatrends, die die letzten Jahren dominiert haben und auch die kommenden dominieren werden: Cloud Computing, IoT, Big Data und algorithmische Analyse.

Was sind die Gründe für das Zusammenkommen verschiedener Strömungen und damit eines neuen, einzigartigen Umfeldes?

  1. Zum ersten Mal in der Geschichte der Künstliche Intelligenz, die in den 1950er Jahren als Disziplin begonnen hat, steht die notwendige Rechenleistung zu niedrigen Kosten zur Verfügung, um praktische Probleme mit den schon länger verfügbaren Algorithmen zu lösen.
  2. Die Algorithmen für das Machine Learning sind deutlich verbessert worden und können nun mit vertretbarem Aufwand für praktische Probleme eingesetzt werden.
  3. Die Popularität von Data Science trägt dazu bei, seine Methoden aus den akademischen Zirkeln in die Breite zu tragen, so dass eine große experimentierfreudige Community eine rapide Weiterentwicklung fördert.
  4. Heutzutage gibt es vor allem durch das Internet, die sozialen Netzwerke und die großen Einkaufsplattformen einen Datenschatz in nie gekannter Größenordnung, der auf seine Auswertung wartet.
  5. Das Internet der Dinge wird für weitere Datenströme sorgen, die zu neuen Geschäftsmodellen führen, die mit Hilfe von Data Science erschlossen werden.

Diese Faktoren haben dazu beigetragen, Data Science als eigene wissenschaftliche Fachdisziplin und Ergänzung zur klassischen Statistik zu etablieren. Data Scientist mit ihren Fähigkeiten im Bereich Programmierung, Statistik und neuerer Algorithmik bringen die erforderliche Expertise mit, um die heutigen Möglichkeiten der Datenanalyse gewinnbringend zu nutzen. Die verschiedenen Data Science Techniken lassen sich nach algorithmischen Verfahren oder nach dem Einsatzzweck grob so kategorisieren:

  • Regression
  • Klassifikation
  • Anomalienerkennung
  • Clustering
  • Reinforcement Learning

Auf der einen Seite der bestehenden Software-Landschaft gibt es bereits sehr spezifische Lösungen für gut umrissene Probleme, zum Beispiel im Einzelhandel oder in der Finanzindustrie. Am anderen Ende des Spektrums stehen die Anbieter von Software-Paketen, die ein abgestimmtes Toolset für den Spezialisten im Bereich Data Science zur Verfügung stellen.

Die meisten Lösungen basieren dabei auf Open Source Software. Im Bereich Toolsets dominieren vor allem zwei Sprachen den Markt: R and Python. Python hat sich zur Standardsprache für Data Scientists entwickelt, vor allem im Bereich Machine Learning.

Die gewaltigen Investitionen und die anziehenden Umsätze von großen Commodity-Plattformen wie Amazon, Microsoft und Google zeigen: Die Megatrends Cloud Computing, IoT, Big Data und algorithmische Analyse bestimmen bereits heute oder in naher zukunft die Geschäftsprozesse, und dass bis in die letzten Winkel. Für Unternehmen, die dieses Thema näher interessiert, hat CONTACT ein neues Data Science White Paper herausgebracht. Dies kann hier heruntergeladen werden.

 

Neue Servicekonzepte braucht die Bahn

In den letzten Wochen habe ich in Deutschland Urlaub gemacht – jawohl, das kann man, ohne vom Wetter reden zu müssen, was prächtig war. Es gibt ja auch spannendere Themen: Alle reden von der Deutschen Bahn, die sich zum Sinnbild für die neuen deutschen Untugenden entwickelt: Fortwährende Unpünktlichkeit, technische Unzuverlässigkeit und mangelnde Servicefreundlichkeit. Gut, letztere ist keine besonders neue Untugend und auch keine Erfindung der Bahn.

Ich war viel mit dem Zug unterwegs, mit Kindern und großem Gepäck, was der Urlaubslaune nicht immer zuträglich war, obwohl wir das Stellwerk Mainz weiträumig umfuhren. Verspätungen, verpasste Anschlusszüge, Zugausfälle – das ganze Programm an Foltermaßnahmen, mit dem die Bahn ihre Kunden tagtäglich malträtiert. Und weit und breit kein Kundendienstmitarbeiter zu sehen, der einem erklärt, wie man wenigstens das zum Fenster rausgeworfene Geld für die Sitzplatzreservierung wieder bekommt. Einziger Bahnbonuspunkt: Kinder in Begleitung der Eltern fahren auf den meisten Strecken umsonst, was ich nett von der Bahn finde. Erfreulich auch, dass die meisten Menschen mit undeutscher Gelassenheit auf die Pannen bei der Bahn reagieren. Nur ausländische Urlauber verstehen die Welt nicht mehr.

Image
By Courtesy of Kenneth Cratty, www.FreeDigitalPhotos.net

Während sich die Personalsituation  im Stellwerk Mainz nach Sommerurlaub und Sommergrippe wieder normalisieren dürfte, geben die vielen technischen Pannen zu denken, besonders wenn man mit 300 Stundenkilometern über die Schnellbahntrasse zwischen Köln und Mannheim saust. Man hat nicht gerade den Eindruck, dass die Bahn ein proaktives Servicekonzept verfolgt, das heißt Servicefälle durch vorbeugende Wartungsmaßnahmen zu vermeiden versucht. Sie reagiert auf Störungen, und das meistens zu spät.

Vielleicht sollten sich die Bahn und ihre Systemlieferanten mal ein Beispiel an der Japanische Staatsbahn nehmen, die bei ihren Zügen ein Konzept der Nullstillstandswartung verfolgt. Das bedeutet, dass die Züge im laufenden Betrieb gewartet werden und sich natürlich auch warten lassen müssen. Die konsequente Auswertung der Servicehistorie und ein permanentes Monitoring von Loks und Zügen schützt die japanischen Wartungstechniker vor unliebsamen Überraschungen – und das mit Erfolg: Verspätungen von mehr als 30 Minuten kommen bei Japan Railways so selten vor, dass sie Thema in den Nachrichten sind. Davon wagt man in Deutschland nicht mal zu träumen.

Softwaretechnisch sind solche proaktiven Servicekonzepte, die nicht nur die Bahn gut zu Gesicht stünden, dank der Vernetzung intelligenter Systeme über das Internet der Dinge viel leichter umsetzbar als noch vor ein paar Jahren. Voraussetzung dafür ist aber auch die Optimierung der Serviceprozesse, die in vielen Unternehmen immer noch recht hemdsärmelig organisiert sind. Sie betrachten den Service als notweniges Übel, statt ihn als Quelle zusätzlicher Einnahmen zu begreifen, was natürlich auch bedeuten würde, dass sie die Serviceleistungen zusammen mit den Produkten entwickeln müssten. Davon ist man jedoch noch weit entfernt: Produktentwicklung und Service führen in den meisten Unternehmen ein ausgeprägtes Eigenleben.

Die zunehmende Bedeutung des Serviceangebots für den Markterfolg der Produkte spricht dafür, Entwicklungs- und Serviceprozesse enger zu verzahnen. Grundlage dafür ist ein integriertes Produkt- und Service-Lifecycle-Management, das es beispielsweise erlaubt, Informationen über gehäuft auftretende Servicefälle in Form von Änderungen in die laufende Entwicklung einzusteuern. Für die PDM/PLM-Hersteller bedeutet das, dass sie ihre Lösungen entweder um zusätzliche Werkzeuge ergänzen oder aber Schnittstellen zu gängigen Serviceanwendungen schaffen müssen. Das werden sie allerdings nur tun, wenn ihre Kunden entscheiden, Entwicklung und Service endlich IT-technisch zu verheiraten.

Viel Lärm um Nichts

Von meiner letzten Reise in die USA habe ich ein tolles, neues Schlagwort mitgebracht: Servitization. Es beschreibt die beinahe kafkaeske Verwandlung von Produkten, die immer mehr eingebettete Software enthalten und über das Internet der Dinge miteinander kommunizieren, in hybride Produkt- und Serviceangebote. Im Extremfall kauft der Gebäudebetreiber keine Klimaanlage mehr, sondern zahlt für die Klimatisierung eines bestimmten Raumvolumens. Der Hersteller übernimmt die Verantwortung für die korrekte Auslegung der Klimatechnik und die Wartung der Anlage. Sie ist mit zig Sensoren ausgestattet und meldet Unmengen an Daten zurück, aus denen intelligente Software-Lösungen dann die Auffälligkeiten (z. Bsp. ein offenes Fenster) herausfiltern.

An diese Brave New World musste ich denken, als ich in meinem Appartementzimmer in New York morgens um 5 Uhr durch die ratternde Klimaanlage geweckt wurde. Genau genommen wurde ich nicht durch sie geweckt, sondern durch den Verkehrslärm auf der 3rd Avenue, der etwa ab dieser Uhrzeit die Klimaanlage übertönte. Wer New York kennt, kennt auch die etwas vorsintflutliche Gebäudetechnik: Die mehrfach verglasten Schiebefenster werden einfach hochgeschoben und fest arretiert, um die kastenförmigen Klimaanlagen einzubauen, womit zwar das Leben des Untermieters gesichert ist, nicht aber das eigene Überleben im Brandfall, weil der Zugang zur traditionellen Feuerleiter vor dem Fenster blockiert ist. Es sei denn, man schafft es, sich durch den engen Spalt rechts oder links des Geräts zu zwängen, der nur mit einer dünnen Plastikblende verschlossen ist. Schall- und Wärme-Isolierung gleich null.

Image
Alte und neue Fassaden in New York. Bild: Wendenburg

Vergeblich versuchte ich, den Kopf unter das Kopfkissen zu stecken und noch ein bisschen weiter zu schlafen. Mein unsanft aufgeweckter Geist suchte fieberhaft nach einer innovativen Lösung zur Senkung des Geräuschpegels. Kissen in die Aussparungen rechts und links neben der Klimaanlage zu knuffen, war weder besonders innovativ noch effektiv. Mir kam der Vortrag eines hochrangigen Airbus-Mitarbeiters über des Kabinenkonzept für das Jahr 2050 in den Sinn: Die komfortablen Sitze im Airbus der Zukunft sollen durch Gegenschallwellen von plärrenden Kindern und schnarchenden Nachbarn abgeschottet werden. Wenn man doch die amerikanischen Klimaanlagen mit Geräuschsensoren ausstatten und die Schallwellentäler des notorischen Brummens mit den Wellenbergen des Straßenlärms synchronisieren könnte? Das wäre wirklich mal eine Innovation, die diesen Namen verdient, mit schön viel Elektronik und eingebetteter Software.

Man könnte die Vision noch weiter spinnen und aus den Big Data sämtlicher New Yorker Klimaanlagen und ihren Positionsinformationen die Verkehrsdichte der jeweiligen Avenue berechnen, um die Verkehrströme in der Stadt besser zu lenken. Das Verkehrschaos in New York ist zu bestimmten Zeiten nämlich unbeschreiblich. Die Klimaanlage würde zum Herzen eines komplexen cyberphysischen Verkehrsleitsystems. Es darf nur keiner auf die Idee kommen, den Straßenbelag auszubessern, um den Geräuschpegel zu senken. Das würde die Berechnung total verfälschen.

Was ich eigentlich damit sagen will, ist dass die technischen Innovationen im allgemeinen und ganz besonders das Internet der Dinge mit einer gewissen Zwanghaftigkeit zur Entwicklung von immer komplexeren Systemen führt. Das mag zwar gut sein für die Hersteller von PLM- und Service Lifecycle Management-Systemen, die davon leben, diese Komplexität wieder beherrschbar zu machen. Aber manchmal fragt man sich wirklich, ob es unbedingt notwendig ist, auch noch die letzte Glühbirne mit Internet-IP und Wifi-Ersatz auszustatten, um sie über eine App in unserem Smartphone individuell ansteuern zu können? Auch ohne den ökologischen Fußabdruck mit PLM berechnet zu haben, bin ich mir ziemlich sicher, dass Entwicklung und Fertigung dieser smarten Produkte mehr Gehirnschmalz und Energie verbraucht haben als sie je in ihrem Lifecycle einsparen werden.

Homo informaticus hat ein quasi sado-masochistisches Verhältnis zur Komplexität. Wir jammern ständig darüber, dass alles immer komplexer wird, lassen uns aber wollüstig stöhnend von Complexitas in Ketten legen. Zum Glück gibt es Rettung. Im Jahr 2020 sollen bereits 70 Prozent der weltweiten Nachfrage nach Gütern und Dienstleistungen aus den Emerging Countries kommen. Im Zuge von Globalisierung und Personalisierung der Produktentwicklung bringen die Unternehmen immer mehr Produkte für diese Länder auf den Markt, deren Innovation im wesentlichen darin besteht, dass sie einfacher und kostengünstiger sind. Und plötzlich stellt man fest, dass es in unserer entwickelten Welt dafür einen Markt gibt und importiert sie zurück. Auch dafür haben die Amis ein schönes Schlagwort kreiert: Reverse Innovation.