PLM-Fauxpenness hat keine Zukunft

PLM-Blogger Oleg Shilovitsky, der sich wiederum auf einen Beitrag von Monica Schnitger bezieht, verdanke ich die Entdeckung eines wundervollen Begriffs, der ursprünglich in der Open Source Community geprägt wurde: Fauxpenness. Er bezeichnet eine Software, die vorgibt Open (Source) zu sein, aber es nicht wirklich ist. Der Begriff lässt sich prächtig auf die PLM-Hersteller und ihre Produkte übertragen, die aller Lippenbekenntnisse und der Unterzeichnung des Code of PLM Opennness (CPO) zum Trotz noch längst nicht so offen sind, wie sie sein müssten, um den wachsenden Kundenanforderungen in punkto Interoperabilität zu genügen. Continue reading “PLM-Fauxpenness hat keine Zukunft”

Data Science verstehen – Revolutionäres Potential aus vier Megatrends!

 Wir befinden uns an der Schwelle zu einem neuen Zeitalter, weil verschiedene Strömungen zusammenkommen und damit ein einzigartiges Umfeld schaffen. Vieles (manche würden sagen: alles) wird digital. Damit ist auch das Interesse an den Themen Datenanalyse und -exploration – also Data Science – enorm gestiegen. Data Science ist der Konvergenzpunkt von vier Megatrends, die die letzten Jahren dominiert haben und auch die kommenden dominieren werden: Cloud Computing, IoT, Big Data und algorithmische Analyse.

Was sind die Gründe für das Zusammenkommen verschiedener Strömungen und damit eines neuen, einzigartigen Umfeldes?

  1. Zum ersten Mal in der Geschichte der Künstliche Intelligenz, die in den 1950er Jahren als Disziplin begonnen hat, steht die notwendige Rechenleistung zu niedrigen Kosten zur Verfügung, um praktische Probleme mit den schon länger verfügbaren Algorithmen zu lösen.
  2. Die Algorithmen für das Machine Learning sind deutlich verbessert worden und können nun mit vertretbarem Aufwand für praktische Probleme eingesetzt werden.
  3. Die Popularität von Data Science trägt dazu bei, seine Methoden aus den akademischen Zirkeln in die Breite zu tragen, so dass eine große experimentierfreudige Community eine rapide Weiterentwicklung fördert.
  4. Heutzutage gibt es vor allem durch das Internet, die sozialen Netzwerke und die großen Einkaufsplattformen einen Datenschatz in nie gekannter Größenordnung, der auf seine Auswertung wartet.
  5. Das Internet der Dinge wird für weitere Datenströme sorgen, die zu neuen Geschäftsmodellen führen, die mit Hilfe von Data Science erschlossen werden.

Diese Faktoren haben dazu beigetragen, Data Science als eigene wissenschaftliche Fachdisziplin und Ergänzung zur klassischen Statistik zu etablieren. Data Scientist mit ihren Fähigkeiten im Bereich Programmierung, Statistik und neuerer Algorithmik bringen die erforderliche Expertise mit, um die heutigen Möglichkeiten der Datenanalyse gewinnbringend zu nutzen. Die verschiedenen Data Science Techniken lassen sich nach algorithmischen Verfahren oder nach dem Einsatzzweck grob so kategorisieren:

  • Regression
  • Klassifikation
  • Anomalienerkennung
  • Clustering
  • Reinforcement Learning

Auf der einen Seite der bestehenden Software-Landschaft gibt es bereits sehr spezifische Lösungen für gut umrissene Probleme, zum Beispiel im Einzelhandel oder in der Finanzindustrie. Am anderen Ende des Spektrums stehen die Anbieter von Software-Paketen, die ein abgestimmtes Toolset für den Spezialisten im Bereich Data Science zur Verfügung stellen.

Die meisten Lösungen basieren dabei auf Open Source Software. Im Bereich Toolsets dominieren vor allem zwei Sprachen den Markt: R and Python. Python hat sich zur Standardsprache für Data Scientists entwickelt, vor allem im Bereich Machine Learning.

Die gewaltigen Investitionen und die anziehenden Umsätze von großen Commodity-Plattformen wie Amazon, Microsoft und Google zeigen: Die Megatrends Cloud Computing, IoT, Big Data und algorithmische Analyse bestimmen bereits heute oder in naher zukunft die Geschäftsprozesse, und dass bis in die letzten Winkel. Für Unternehmen, die dieses Thema näher interessiert, hat CONTACT ein neues Data Science White Paper herausgebracht. Dies kann hier heruntergeladen werden.

Neue Servicekonzepte braucht die Bahn

In den letzten Wochen habe ich in Deutschland Urlaub gemacht – jawohl, das kann man, ohne vom Wetter reden zu müssen, was prächtig war. Es gibt ja auch spannendere Themen: Alle reden von der Deutschen Bahn, die sich zum Sinnbild für die neuen deutschen Untugenden entwickelt: Fortwährende Unpünktlichkeit, technische Unzuverlässigkeit und mangelnde Servicefreundlichkeit. Gut, letztere ist keine besonders neue Untugend und auch keine Erfindung der Bahn.

Ich war viel mit dem Zug unterwegs, mit Kindern und großem Gepäck, was der Urlaubslaune nicht immer zuträglich war, obwohl wir das Stellwerk Mainz weiträumig umfuhren. Verspätungen, verpasste Anschlusszüge, Zugausfälle – das ganze Programm an Foltermaßnahmen, mit dem die Bahn ihre Kunden tagtäglich malträtiert. Und weit und breit kein Kundendienstmitarbeiter zu sehen, der einem erklärt, wie man wenigstens das zum Fenster rausgeworfene Geld für die Sitzplatzreservierung wieder bekommt. Einziger Bahnbonuspunkt: Kinder in Begleitung der Eltern fahren auf den meisten Strecken umsonst, was ich nett von der Bahn finde. Erfreulich auch, dass die meisten Menschen mit undeutscher Gelassenheit auf die Pannen bei der Bahn reagieren. Nur ausländische Urlauber verstehen die Welt nicht mehr.

Image
By Courtesy of Kenneth Cratty, www.FreeDigitalPhotos.net

Während sich die Personalsituation  im Stellwerk Mainz nach Sommerurlaub und Sommergrippe wieder normalisieren dürfte, geben die vielen technischen Pannen zu denken, besonders wenn man mit 300 Stundenkilometern über die Schnellbahntrasse zwischen Köln und Mannheim saust. Man hat nicht gerade den Eindruck, dass die Bahn ein proaktives Servicekonzept verfolgt, das heißt Servicefälle durch vorbeugende Wartungsmaßnahmen zu vermeiden versucht. Sie reagiert auf Störungen, und das meistens zu spät.

Vielleicht sollten sich die Bahn und ihre Systemlieferanten mal ein Beispiel an der Japanische Staatsbahn nehmen, die bei ihren Zügen ein Konzept der Nullstillstandswartung verfolgt. Das bedeutet, dass die Züge im laufenden Betrieb gewartet werden und sich natürlich auch warten lassen müssen. Die konsequente Auswertung der Servicehistorie und ein permanentes Monitoring von Loks und Zügen schützt die japanischen Wartungstechniker vor unliebsamen Überraschungen – und das mit Erfolg: Verspätungen von mehr als 30 Minuten kommen bei Japan Railways so selten vor, dass sie Thema in den Nachrichten sind. Davon wagt man in Deutschland nicht mal zu träumen.

Softwaretechnisch sind solche proaktiven Servicekonzepte, die nicht nur die Bahn gut zu Gesicht stünden, dank der Vernetzung intelligenter Systeme über das Internet der Dinge viel leichter umsetzbar als noch vor ein paar Jahren. Voraussetzung dafür ist aber auch die Optimierung der Serviceprozesse, die in vielen Unternehmen immer noch recht hemdsärmelig organisiert sind. Sie betrachten den Service als notweniges Übel, statt ihn als Quelle zusätzlicher Einnahmen zu begreifen, was natürlich auch bedeuten würde, dass sie die Serviceleistungen zusammen mit den Produkten entwickeln müssten. Davon ist man jedoch noch weit entfernt: Produktentwicklung und Service führen in den meisten Unternehmen ein ausgeprägtes Eigenleben.

Die zunehmende Bedeutung des Serviceangebots für den Markterfolg der Produkte spricht dafür, Entwicklungs- und Serviceprozesse enger zu verzahnen. Grundlage dafür ist ein integriertes Produkt- und Service-Lifecycle-Management, das es beispielsweise erlaubt, Informationen über gehäuft auftretende Servicefälle in Form von Änderungen in die laufende Entwicklung einzusteuern. Für die PDM/PLM-Hersteller bedeutet das, dass sie ihre Lösungen entweder um zusätzliche Werkzeuge ergänzen oder aber Schnittstellen zu gängigen Serviceanwendungen schaffen müssen. Das werden sie allerdings nur tun, wenn ihre Kunden entscheiden, Entwicklung und Service endlich IT-technisch zu verheiraten.