Shh, don’t talk out loud about PLM!

Phew, as a PLM fan you had to take a deep breath last week: Two well-known bloggers lowered their thumbs in the headlines: Joe Barkai: “Why I Don’t Do PLM” and Oleg Shilovitsky: “Are PLM conferences dead?

Curiously, both pull on the opposite ends of the rope. For Barkai, the classic view of PLM as a “single version of the truth” falls short, while Shilovitsky conjures up the basics behind the PLM idea.

Barkai: „I find it fascinating that traditional PLM software vendors are not realizing how the Internet of Things and the connected enterprise are breathing a new life into the PLM space that does not quite know how to reinvent itself. After decades of using enterprise PLM software, it is still common to hear at a PLM conference a speaker announcing, “Let me give you my definition of PLM.” Or those never-ending debates about eBOMs and mBOMs and where PDM ends and PLM begins.“

Shilovitsky: “I know many people struggling with their PLM decisions and fighting alone to balance tools, budgets, organizational and cultural changes and timelines. Companies are struggling with very basics things – Part Numbers, Change Management, Revisions, and others. To discuss the real problems, can be an opportunity. This is the foundation – the story. This is a single unit… If a single unit doesn’t sell, making it broader or scaling it up won’t solve the problem.”

To be honest, depending on which colleagues I talk to in our company, it could turn out similar. But there is one thing we are all pretty sure about: Writing PLM in bold on an invitation or an advertisement takes some courage these days.

So are the best times of PLM over?

Companies survive in the market because they listen to their customers and adapt their offer to new requirements and possibilities in good time! Yes, the basics are still the low-hanging fruits, and the pioneers are taking care of the more demanding potentials in the product lifecycle, where the integration of disciplines, tools and processes is at stake. Some PLM providers, for example, are using their experience and their current portfolio around the virtual product to expand their offering towards the internet of things and the digital twin.

This highlights the dilemma: PLM, unlike ERP or financial accounting, has never been a self-runner. The PLM idea has always had to be particularly convincingly motivated by the sponsors.

And this has often not been successful, as my colleague Rolf Stübbe puts it in a nutshell in his blog post “20 years of PLM: Why do many still doubt the benefits“: “Despite the renewed increase in attention for PLM, I notice that the term still has a large, cumbersome, tedious and uneconomical flavour. Supposed lighthouse projects such as the almost endless Teamcenter introduction at VW and Dassault’s licensing policy, which was one of the reasons for the Code of PLM Openness Initiative, are representative of the many pinpricks that have tarnished the reputation of PLM over time.

Conclusion

It’s like Monty Python in the Fawlty Towers episode of “The Germans”: “Don’t mention the war!” PLM: Everyone thinks about it, but everyone tries to avoid the term. 

Yet times have never been better for the PLM idea than today. The pressure in companies is high and continues to rise in order to take advantage of the opportunities offered by the digital transformation. But storytelling must get better. The old stories and complicated definitions are certainly no longer suitable, and the PLM concept as an advertising medium is only of limited use. Storytelling and project marketing belong together right from the start. It starts with the goals. Here I am with Oleg Shilovitsky: we shouldn’t throw out the baby with the bathwater. Crude promises and obscure visions that are doomed to failure do not help, on the contrary. It is better to package the low hanging fruits attractively, give the project a meaningful name and do everything possible to ensure that the initial, manageable goals are achieved.

PLM-Fauxpenness hat keine Zukunft

PLM-Blogger Oleg Shilovitsky, der sich wiederum auf einen Beitrag von Monica Schnitger bezieht, verdanke ich die Entdeckung eines wundervollen Begriffs, der ursprünglich in der Open Source Community geprägt wurde: Fauxpenness. Er bezeichnet eine Software, die vorgibt Open (Source) zu sein, aber es nicht wirklich ist. Der Begriff lässt sich prächtig auf die PLM-Hersteller und ihre Produkte übertragen, die aller Lippenbekenntnisse und der Unterzeichnung des Code of PLM Opennness (CPO) zum Trotz noch längst nicht so offen sind, wie sie sein müssten, um den wachsenden Kundenanforderungen in punkto Interoperabilität zu genügen. Continue reading “PLM-Fauxpenness hat keine Zukunft”

Data Science verstehen – Revolutionäres Potential aus vier Megatrends!

 Wir befinden uns an der Schwelle zu einem neuen Zeitalter, weil verschiedene Strömungen zusammenkommen und damit ein einzigartiges Umfeld schaffen. Vieles (manche würden sagen: alles) wird digital. Damit ist auch das Interesse an den Themen Datenanalyse und -exploration – also Data Science – enorm gestiegen. Data Science ist der Konvergenzpunkt von vier Megatrends, die die letzten Jahren dominiert haben und auch die kommenden dominieren werden: Cloud Computing, IoT, Big Data und algorithmische Analyse.

Was sind die Gründe für das Zusammenkommen verschiedener Strömungen und damit eines neuen, einzigartigen Umfeldes?

  1. Zum ersten Mal in der Geschichte der Künstliche Intelligenz, die in den 1950er Jahren als Disziplin begonnen hat, steht die notwendige Rechenleistung zu niedrigen Kosten zur Verfügung, um praktische Probleme mit den schon länger verfügbaren Algorithmen zu lösen.
  2. Die Algorithmen für das Machine Learning sind deutlich verbessert worden und können nun mit vertretbarem Aufwand für praktische Probleme eingesetzt werden.
  3. Die Popularität von Data Science trägt dazu bei, seine Methoden aus den akademischen Zirkeln in die Breite zu tragen, so dass eine große experimentierfreudige Community eine rapide Weiterentwicklung fördert.
  4. Heutzutage gibt es vor allem durch das Internet, die sozialen Netzwerke und die großen Einkaufsplattformen einen Datenschatz in nie gekannter Größenordnung, der auf seine Auswertung wartet.
  5. Das Internet der Dinge wird für weitere Datenströme sorgen, die zu neuen Geschäftsmodellen führen, die mit Hilfe von Data Science erschlossen werden.

Diese Faktoren haben dazu beigetragen, Data Science als eigene wissenschaftliche Fachdisziplin und Ergänzung zur klassischen Statistik zu etablieren. Data Scientist mit ihren Fähigkeiten im Bereich Programmierung, Statistik und neuerer Algorithmik bringen die erforderliche Expertise mit, um die heutigen Möglichkeiten der Datenanalyse gewinnbringend zu nutzen. Die verschiedenen Data Science Techniken lassen sich nach algorithmischen Verfahren oder nach dem Einsatzzweck grob so kategorisieren:

  • Regression
  • Klassifikation
  • Anomalienerkennung
  • Clustering
  • Reinforcement Learning

Auf der einen Seite der bestehenden Software-Landschaft gibt es bereits sehr spezifische Lösungen für gut umrissene Probleme, zum Beispiel im Einzelhandel oder in der Finanzindustrie. Am anderen Ende des Spektrums stehen die Anbieter von Software-Paketen, die ein abgestimmtes Toolset für den Spezialisten im Bereich Data Science zur Verfügung stellen.

Die meisten Lösungen basieren dabei auf Open Source Software. Im Bereich Toolsets dominieren vor allem zwei Sprachen den Markt: R and Python. Python hat sich zur Standardsprache für Data Scientists entwickelt, vor allem im Bereich Machine Learning.

Die gewaltigen Investitionen und die anziehenden Umsätze von großen Commodity-Plattformen wie Amazon, Microsoft und Google zeigen: Die Megatrends Cloud Computing, IoT, Big Data und algorithmische Analyse bestimmen bereits heute oder in naher zukunft die Geschäftsprozesse, und dass bis in die letzten Winkel. Für Unternehmen, die dieses Thema näher interessiert, hat CONTACT ein neues Data Science White Paper herausgebracht. Dies kann hier heruntergeladen werden.