Data Science verstehen – Revolutionäres Potential aus vier Megatrends!

Wir befinden uns an der Schwelle zu einem neuen Zeitalter, weil verschiedene Strömungen zusammenkommen und damit ein einzigartiges Umfeld schaffen. Vieles (manche würden sagen: alles) wird digital. Damit ist auch das Interesse an den Themen Datenanalyse und -exploration – also Data Science – enorm gestiegen. Data Science ist der Konvergenzpunkt von vier Megatrends, die die letzten Jahren dominiert haben und auch die kommenden dominieren werden: Cloud Computing, IoT, Big Data und algorithmische Analyse.

Was sind die Gründe für das Zusammenkommen verschiedener Strömungen und damit eines neuen, einzigartigen Umfeldes?

  1. Zum ersten Mal in der Geschichte der Künstliche Intelligenz, die in den 1950er Jahren als Disziplin begonnen hat, steht die notwendige Rechenleistung zu niedrigen Kosten zur Verfügung, um praktische Probleme mit den schon länger verfügbaren Algorithmen zu lösen.
  2. Die Algorithmen für das Machine Learning sind deutlich verbessert worden und können nun mit vertretbarem Aufwand für praktische Probleme eingesetzt werden.
  3. Die Popularität von Data Science trägt dazu bei, seine Methoden aus den akademischen Zirkeln in die Breite zu tragen, so dass eine große experimentierfreudige Community eine rapide Weiterentwicklung fördert.
  4. Heutzutage gibt es vor allem durch das Internet, die sozialen Netzwerke und die großen Einkaufsplattformen einen Datenschatz in nie gekannter Größenordnung, der auf seine Auswertung wartet.
  5. Das Internet der Dinge wird für weitere Datenströme sorgen, die zu neuen Geschäftsmodellen führen, die mit Hilfe von Data Science erschlossen werden.

Diese Faktoren haben dazu beigetragen, Data Science als eigene wissenschaftliche Fachdisziplin und Ergänzung zur klassischen Statistik zu etablieren. Data Scientist mit ihren Fähigkeiten im Bereich Programmierung, Statistik und neuerer Algorithmik bringen die erforderliche Expertise mit, um die heutigen Möglichkeiten der Datenanalyse gewinnbringend zu nutzen. Die verschiedenen Data Science Techniken lassen sich nach algorithmischen Verfahren oder nach dem Einsatzzweck grob so kategorisieren:

  • Regression
  • Klassifikation
  • Anomalienerkennung
  • Clustering
  • Reinforcement Learning

Auf der einen Seite der bestehenden Software-Landschaft gibt es bereits sehr spezifische Lösungen für gut umrissene Probleme, zum Beispiel im Einzelhandel oder in der Finanzindustrie. Am anderen Ende des Spektrums stehen die Anbieter von Software-Paketen, die ein abgestimmtes Toolset für den Spezialisten im Bereich Data Science zur Verfügung stellen.

Die meisten Lösungen basieren dabei auf Open Source Software. Im Bereich Toolsets dominieren vor allem zwei Sprachen den Markt: R and Python. Python hat sich zur Standardsprache für Data Scientists entwickelt, vor allem im Bereich Machine Learning.

Die gewaltigen Investitionen und die anziehenden Umsätze von großen Commodity-Plattformen wie Amazon, Microsoft und Google zeigen: Die Megatrends Cloud Computing, IoT, Big Data und algorithmische Analyse bestimmen bereits heute oder in naher zukunft die Geschäftsprozesse, und dass bis in die letzten Winkel. Für Unternehmen, die dieses Thema näher interessiert, hat CONTACT ein neues Data Science White Paper herausgebracht. Dies kann hier heruntergeladen werden.

 

Systems Engineering und der Innovationseffet

Elektronik und Software sind zum Motor der Innovation geworden – nicht nur im Automobil, sondern auch in vielen anderen Produkten. Und wie beim Billard stößt eine Innovation die andere an, auch wenn die Effets nicht immer vorhersehbar ist. Die softe Revolution erlaubt die schnelle Integration von zusätzlichen Funktionen, die den Produktlebenszyklus verlängern, und erleichtern gleichzeitig die funktionale Differenzierung der Produktpalette. Wie viel Pferdestärken ein Motor auf die Straße bringt, das hängt heute auch und vor allem von der eingebetteten Software ab.

Image

In einem Fahrzeug der Oberklasse stecken inzwischen mehr Zeilen Programmcode als in manchem PLM-System. Die eigentliche Herausforderung ist jedoch nicht die Menge an Software, die sich wesentlich schneller entwickeln lässt als andere Produktbestandteile, sondern das perfekte Zusammenspiel von Software, Elektrik/Elektronik und Mechanik. Ihre Abstimmung erfordert neue Werkzeuge, Methoden und Prozesse für die interdisziplinäre Produktentwicklung. Systems Engineering (SE) heißt das Schlagwort, das in aller Munde ist, auch wenn jeder SE-Experte es etwas anders definiert.

Verwunderlich ist die Definitionsvielfalt nicht, denn letztlich geht es genau darum: Erst einmal eine gemeinsame Sprache zu finden. Eine gemeinsame Sprache, mit der man komplexe Produkte als Gesamtsystem beschreiben und überprüfen kann, unabhängig davon, wie und mit welchen Werkzeugen die beschriebenen Funktionen und Eigenschaften nachher umgesetzt werden. Eine Sprache, die es den unterschiedlichen Disziplinen erlaubt, ein gemeinsames Verständnis für die bestehenden Abhängigkeiten zwischen Anforderungen, Funktionen, Bauteilen etc. zu entwickeln und gerade bei Änderungen einfacher miteinander zu kommunizieren. Sozusagen ein Esperanto für die Produktentwicklung.

Ganz gleich welche Sprache(n) und Sprachwerkzeuge zum Einsatz kommen, müssen sie in die Product Lifecycle Management-Lösungen integriert werden, um die beschriebenen Anforderungen und die daraus abgeleiteten Funktionen und Eigenschaften des Produkts über den gesamten Entwicklungsprozess verfolgen und die Wechselwirkungen von Änderungen beurteilen zu können. In diesem Sinne ist das Systems Engineering zum Motor für die Innovation der PLM-Technologie geworden, die lange Zeit einseitig auf die Datenverwaltung und Prozessteuerung in der Mechanikentwicklung fokussiert war. Die meisten PLM-Lösungen unterstützen heute ein disziplinenübergreifendes Anforderungs-Management und ermöglichen die Abbildung einer funktionalen Sicht auf das Produkt.

Anforderungen abzubilden und in Beziehung zu anderen Anforderungen, Funktionen, Bauteilen etc. zu setzen, ist weniger eine technische Herausforderung. Die PLM-Datenmodelle sind dafür ausreichend flexibel. Die Kunst besteht darin, dies so zu tun, dass die Systeme für die Anwender noch bedienbar sind. Oder anders ausgedrückt: Zu vermeiden, dass man den Teufel mit dem Belzebub austreibt. Schließlich soll das Systems Engineering die Komplexität der Produktentwicklung besser beherrschbar zu machen. Wenn die IT-Werkzeuge zur Unterstützung der Systementwicklung dadurch so komplex werden, dass sie für die Anwender kaum noch zu beherrschen sind, ist nichts gewonnen.

Die PLM-Hersteller müssen sich darüber Gedanken machen, wie sie die Definition der Beziehungen zwischen Anforderungen und anderen PLM-Objekten und vor allem die Visualisierung der komplexen Zusammenhänge besser unterstützen. Die Anwender benötigen komfortable grafische Eingabehilfen und neue Peripheriegeräte mit taktilen Oberflächen, um die Beziehungsgeflechte großformatig darstellen und mit ihnen direkt interagieren zu können.  Mit anderen Worten genau die Art von Produkten, deren Entwicklung ein interdisziplinäres Vorgehen im Sinne des Systems Engineering erfordert.