Data Science verstehen – Revolutionäres Potential aus vier Megatrends!

 Wir befinden uns an der Schwelle zu einem neuen Zeitalter, weil verschiedene Strömungen zusammenkommen und damit ein einzigartiges Umfeld schaffen. Vieles (manche würden sagen: alles) wird digital. Damit ist auch das Interesse an den Themen Datenanalyse und -exploration – also Data Science – enorm gestiegen. Data Science ist der Konvergenzpunkt von vier Megatrends, die die letzten Jahren dominiert haben und auch die kommenden dominieren werden: Cloud Computing, IoT, Big Data und algorithmische Analyse.

Was sind die Gründe für das Zusammenkommen verschiedener Strömungen und damit eines neuen, einzigartigen Umfeldes?

  1. Zum ersten Mal in der Geschichte der Künstliche Intelligenz, die in den 1950er Jahren als Disziplin begonnen hat, steht die notwendige Rechenleistung zu niedrigen Kosten zur Verfügung, um praktische Probleme mit den schon länger verfügbaren Algorithmen zu lösen.
  2. Die Algorithmen für das Machine Learning sind deutlich verbessert worden und können nun mit vertretbarem Aufwand für praktische Probleme eingesetzt werden.
  3. Die Popularität von Data Science trägt dazu bei, seine Methoden aus den akademischen Zirkeln in die Breite zu tragen, so dass eine große experimentierfreudige Community eine rapide Weiterentwicklung fördert.
  4. Heutzutage gibt es vor allem durch das Internet, die sozialen Netzwerke und die großen Einkaufsplattformen einen Datenschatz in nie gekannter Größenordnung, der auf seine Auswertung wartet.
  5. Das Internet der Dinge wird für weitere Datenströme sorgen, die zu neuen Geschäftsmodellen führen, die mit Hilfe von Data Science erschlossen werden.

Diese Faktoren haben dazu beigetragen, Data Science als eigene wissenschaftliche Fachdisziplin und Ergänzung zur klassischen Statistik zu etablieren. Data Scientist mit ihren Fähigkeiten im Bereich Programmierung, Statistik und neuerer Algorithmik bringen die erforderliche Expertise mit, um die heutigen Möglichkeiten der Datenanalyse gewinnbringend zu nutzen. Die verschiedenen Data Science Techniken lassen sich nach algorithmischen Verfahren oder nach dem Einsatzzweck grob so kategorisieren:

  • Regression
  • Klassifikation
  • Anomalienerkennung
  • Clustering
  • Reinforcement Learning

Auf der einen Seite der bestehenden Software-Landschaft gibt es bereits sehr spezifische Lösungen für gut umrissene Probleme, zum Beispiel im Einzelhandel oder in der Finanzindustrie. Am anderen Ende des Spektrums stehen die Anbieter von Software-Paketen, die ein abgestimmtes Toolset für den Spezialisten im Bereich Data Science zur Verfügung stellen.

Die meisten Lösungen basieren dabei auf Open Source Software. Im Bereich Toolsets dominieren vor allem zwei Sprachen den Markt: R and Python. Python hat sich zur Standardsprache für Data Scientists entwickelt, vor allem im Bereich Machine Learning.

Die gewaltigen Investitionen und die anziehenden Umsätze von großen Commodity-Plattformen wie Amazon, Microsoft und Google zeigen: Die Megatrends Cloud Computing, IoT, Big Data und algorithmische Analyse bestimmen bereits heute oder in naher zukunft die Geschäftsprozesse, und dass bis in die letzten Winkel. Für Unternehmen, die dieses Thema näher interessiert, hat CONTACT ein neues Data Science White Paper herausgebracht. Dies kann hier heruntergeladen werden.

Der Fortschritt ist ein Walkürenritt

Den Fortschrittsglauben meiner technikverliebten Freunde und Kollegen teile ich nur bedingt. Ich bin der festen Überzeugung, dass wir jeden Fortschritt mit lauter kleinen Rückschritten erkaufen. Vor ein paar Tagen, als mein “alter” DVD-Player plötzlich seinen Geist aufgab, ist mit das wieder bewusst geworden. Das No-Name-Gerät hatte einen analogen Audio-Ausgang mit zwei Cinch-Buchsen, so dass ich ihn an meine (wirklich alte) Stereo-Anlage anschließen und mir Filme mit guter Musik über die Boxen anhören konnte. Da klang Wagners Walkürenritt in Apocalyse Now noch mal so gut.

Jetzt habe ich einen nagelneuen Blu(e)-Ray-Player von einem namhaften koreanischen Hersteller, den ich sogar ins WLAN hängen kann. Aber statt der Cinch-Buchsen hat er nur noch einen digitalen Coaxial-Ausgang, und in dem ganzen Medienmarkt war kein Mitarbeiter in der Lage mir zu erklären, wie ich das Gerät wieder an meine Stereo-Anlage anschließen kann. Einer meinte, ich solle das Audiosignal doch am Euro Connector des Fernsehers abgreifen und in den Receiver einspeisen, worauf mir der Song von Mike Krüger in den Sinn kam: “Sie müssen erst den Nippel durch die Lasche ziehen…”

Stecker2
Mit freundlicher Genehmigung Hyena Reality, www.FreeDigitalPhotos.net

Smart Connected Systems stelle ich mir anders vor. Vielleicht hätte ich einen der Kunden fragen sollen, die – wenn man der Werbung besagten Marktes Glauben schenken darf – nicht blöd sind. Der hätte mir dann gesagt, dass ich dafür ein Zusatzgerät benötige, das ich im Spezialhandel suchen muss und das mehr kostet als der neue Player. Aber zum Glück gibt es ja heute das Internet, um die Probleme zu lösen, die man vor dem Internet-Zeitalter nicht hatte. Und wo man den Digital Audio Converter dann auch gleich online bestellen kann.

Sie werden sich sicher fragen, was das alles mit PLM zu tun hat? Ich überlege auch schon die ganze Zeit fieberhaft, wie ich die Kurve kriege. Nun, zunächst einmal macht das Beispiel einmal mehr deutlich, warum wir PLM so dringend benötigen. Es gibt keine einfachen Lösungen mehr – alles wird komplizierter, und ohne PLM sind wir einfach nicht mehr in der Lage, die Komplexität zu beherrschen.

Zwingend erforderlich ist die Integration eines leistungsfähigen Anforderungsmanagements in die PLM-Systeme, damit unsere Kundenbedürfnisse endlich besser erfasst werden. Allerdings befürchte ich, dass mein Wunsch nach Anschluss des Players an eine klassische Stereo-Anlage spätestens bei der Priorisierung der erfassten Anforderungen dem Mainstream zum Opfer fallen würde. Stereo-Anlagen sind halt “mega-out”, wie meine Kinder sagen würden. Die hören Musik mit Handy und Knopf im Ohr und wissen deshalb gar nicht mehr wie gut Musik aus Boxen klingen kann.

Ich kann nur hoffen, dass irgendein Hersteller sein Player-Portfolio PLM-gestützt managt und dank eines integrierten Variantenmanagements in der Lage ist, eine meinen Anforderungen entsprechende Produktvariante zu konfigurieren. Es wird doch ständig von Mass Customization geredet – davon dass Massenprodukte immer variantenreicher werden, um individuelle Kundenanforderungen zu erfüllten. Das mag für deutsche Premium-Fahrzeuge und deutsche Premium-Maschinen sicher lohnenswerter sein, als für elektronische Massenware aus dem fernen Korea, die – das muss man der Fairness halber sagen – sehr viel Leistung für wenig Geld bietet. Aber mit Elektronik und Software lässt sich Varianz doch angeblich viel preisgünstiger abbilden als in Hardware.

Das Problem ist, dass die Lebenszyklen elektronischer Konsumgüter im Ladenregal so kurz sind, dass man kaum Zeit hat, sie zu managen. Ihre Lebensdauer ist hingegen wesentlich länger, was dazu führt, dass in unseren Haushalten Produkte unterschiedlicher Generationen zusammenleben. Wir brauchen also ein generationenübergreifendes Produktfamilien-Management. Und wir brauchen ein PLM-gestütztes Systems Engineering, das die Connectivity-Konflikte zwischen unterschiedlichen Produktgenerationen berücksichtigt.

Nachtrag: Ich habe meinen alten, voll funktionsfähigen Receiver inzwischen dem Fortschritt geopfert und ein Gerät mit digitalem Audio-Eingang bestellt – in der Gewissheit, dass es nicht besser klingen, dafür aber höchstens halb so lange halten wird. Zum Glück dürfte dank PLM zumindest die Recyclingfähigkeit sichergestellt sein.