20 years of PLM: Why do many still doubt the benefits?

In the meantime, I can look back on several years of consulting for Product Life Cycle Management. A topic whose popularity has fluctuated considerably over the years and is currently on the rise again in the wake of digital transformation.

Despite the increasing attention for PLM again, I notice that the term continues to have a large, cumbersome, tedious, and uneconomical taste. Amazing, because the effort that many companies put into ERP projects, for example, was and is significantly higher in most cases. Nevertheless, the necessity and benefits of – expensive – ERP projects are discussed, but rarely questioned, see Haribo and Lidl.

How do these different perceptions come about? One explanation could be that the benefits of PLM for management and employees in companies have not been sufficiently exploited over the years. This was mainly due to the fact that the scope and visibility of PLM projects in companies was often very limited.

A closer look shows that many of the earlier PLM implementations were in fact PDM implementations. PDM, Product Data Management, focuses on product descriptive data, primarily CAD models and drawings. “PLM” was therefore limited to the core areas of product development, very often even to Mechanical Design. Although beeing avilable in some PLM solutions for years, Change Management, Document Management, Project Management, cross-departmental collaboration or communication with external parties have not been used. Instead, solutions based on Excel, Outlook, the file system or SharePoint were often created on their own. Tools that everyone in the company knows. And for those one can very easily find someone to “optimize” these tools by macro programming. In addition to that, the negative attitude towards PLM was certainly fuelled by the overloaded, highly compressed “engineering user interfaces” of the 1st and 2nd PLM product generations.

So it’s no surprise that PLM was seen in the company as an expensive, less useful and exotic application!

In the current PLM renaissance, companies now have every opportunity to learn from the deficits of the past and to take advantage of the impressive potential of Product Lifecycle Management. Many obsolete and discontinued PDM and PLM solutions are currently or soon to be replaced by modern 3rd generation PLM platforms, which also support the use cases around the Digital Twin and the Internet of Things. They breathe life into the PLM idea by effectively and efficiently supporting processes across phases, departments and company boundaries. New, web-based HTML-5 user interfaces significantly increase acceptance among all user groups in the company by making even complex relationships clearer and handling them more efficient.

Now there is a chance to realize “real” Product Lifecycle Management! Against the background of new, digital business models, which put the use phase of products much more in the foreground, this becomes all the more important. PLM solutions play a central role here, as they lay the foundation for data relating to the Digital Twin.

But in the end, hard facts also count when it comes to benefits and ROI: If PLM is actually used company-wide with all its possibilities, high economies of scale quickly result from the significant minimization of non-value-adding activities. This alone often enables a return on investment after just one year. Regardless of the additional revenue potential from new, data-driven business models that PLM will enable in the future.

Hat PLM eine Zukunft und wie sieht die aus?

In meinem letzten Blog-Beitrag habe ich darzulegen versucht, warum es aus Anwendersicht so wichtig ist, PLM aus seinem Engineering-Nischendasein zu befreien. Ebenso wichtig ist es aber auch aus Anbietersicht, wenn die PLM-Hersteller sich auf Dauer am Markt behaupten wollen. Darauf hat vor ein paar Monaten Oleg Shilovitsky in einem Gastblog hingewiesen, den ich jetzt erst entdeckt habe. Continue reading “Hat PLM eine Zukunft und wie sieht die aus?”

Data Science verstehen – Revolutionäres Potential aus vier Megatrends!

 Wir befinden uns an der Schwelle zu einem neuen Zeitalter, weil verschiedene Strömungen zusammenkommen und damit ein einzigartiges Umfeld schaffen. Vieles (manche würden sagen: alles) wird digital. Damit ist auch das Interesse an den Themen Datenanalyse und -exploration – also Data Science – enorm gestiegen. Data Science ist der Konvergenzpunkt von vier Megatrends, die die letzten Jahren dominiert haben und auch die kommenden dominieren werden: Cloud Computing, IoT, Big Data und algorithmische Analyse.

Was sind die Gründe für das Zusammenkommen verschiedener Strömungen und damit eines neuen, einzigartigen Umfeldes?

  1. Zum ersten Mal in der Geschichte der Künstliche Intelligenz, die in den 1950er Jahren als Disziplin begonnen hat, steht die notwendige Rechenleistung zu niedrigen Kosten zur Verfügung, um praktische Probleme mit den schon länger verfügbaren Algorithmen zu lösen.
  2. Die Algorithmen für das Machine Learning sind deutlich verbessert worden und können nun mit vertretbarem Aufwand für praktische Probleme eingesetzt werden.
  3. Die Popularität von Data Science trägt dazu bei, seine Methoden aus den akademischen Zirkeln in die Breite zu tragen, so dass eine große experimentierfreudige Community eine rapide Weiterentwicklung fördert.
  4. Heutzutage gibt es vor allem durch das Internet, die sozialen Netzwerke und die großen Einkaufsplattformen einen Datenschatz in nie gekannter Größenordnung, der auf seine Auswertung wartet.
  5. Das Internet der Dinge wird für weitere Datenströme sorgen, die zu neuen Geschäftsmodellen führen, die mit Hilfe von Data Science erschlossen werden.

Diese Faktoren haben dazu beigetragen, Data Science als eigene wissenschaftliche Fachdisziplin und Ergänzung zur klassischen Statistik zu etablieren. Data Scientist mit ihren Fähigkeiten im Bereich Programmierung, Statistik und neuerer Algorithmik bringen die erforderliche Expertise mit, um die heutigen Möglichkeiten der Datenanalyse gewinnbringend zu nutzen. Die verschiedenen Data Science Techniken lassen sich nach algorithmischen Verfahren oder nach dem Einsatzzweck grob so kategorisieren:

  • Regression
  • Klassifikation
  • Anomalienerkennung
  • Clustering
  • Reinforcement Learning

Auf der einen Seite der bestehenden Software-Landschaft gibt es bereits sehr spezifische Lösungen für gut umrissene Probleme, zum Beispiel im Einzelhandel oder in der Finanzindustrie. Am anderen Ende des Spektrums stehen die Anbieter von Software-Paketen, die ein abgestimmtes Toolset für den Spezialisten im Bereich Data Science zur Verfügung stellen.

Die meisten Lösungen basieren dabei auf Open Source Software. Im Bereich Toolsets dominieren vor allem zwei Sprachen den Markt: R and Python. Python hat sich zur Standardsprache für Data Scientists entwickelt, vor allem im Bereich Machine Learning.

Die gewaltigen Investitionen und die anziehenden Umsätze von großen Commodity-Plattformen wie Amazon, Microsoft und Google zeigen: Die Megatrends Cloud Computing, IoT, Big Data und algorithmische Analyse bestimmen bereits heute oder in naher zukunft die Geschäftsprozesse, und dass bis in die letzten Winkel. Für Unternehmen, die dieses Thema näher interessiert, hat CONTACT ein neues Data Science White Paper herausgebracht. Dies kann hier heruntergeladen werden.