PLM ist tot – lang lebe PLM!

Credit: Sean McGrath, flickr.com
Credit: Sean McGrath, flickr.com

PLM hat im Laufe der Jahre nicht nur Freunde gewonnen. Weil man PLM nicht gut erklären kann, Projekte aus dem Ruder gelaufen sind und der PLM-Alltag – nun ja – anstrengend sein kann.

Man könnte meinen, der eine oder andere wechselt nun schon mal das Klingelschild mit der Aufschrift „PLM“. Bekannte PLM-Player reduzieren ihre Belegschaft, ziehen in die Cloud um und setzen scheinbar alle ihre Chips auf das Thema IoT: „Is PTCs CEO Jim Heppelmann Playing with Fire?

Passend dazu hat jetzt eine ProSTEP iViP Initiative das Thema unter dem Titel „Hat PLM im Zeitalter der Digitalisierung ein Zukunft“ aufs Korn genommen und dazu ein sehr lesenswertes Thesenpapier veröffentlich. Dies ist hier als PDF zugänglich. Unser Blog-Mitstreiter Michael Wendenburg ist einer der Autoren und hat das Thema mit seinem vorangegangenen Blog-Beitrag schon mal eröffnet.

Der Titel mag auf den ersten Blick nicht optimal sein, denn im Mittelpunkt stand ja eigentlich schon immer das virtuelle – also digitale – Produkt. Es geht darum, was passiert, wenn die Produkte selbst und ihre Verwendung durch die Kunden und Nutzer immer digitaler werden. Anhand von insgesamt 22 Thesen zeigen die Autoren, wie der PLM-Begriff im Zeitalter der Digitalen Transformation fortgeschrieben werden sollte. Auf den Punkt bringen sie es mit dem Schlagwort „Future PLM“.

Nun aber: Chefsache PLM

Meine Favoriten aus der Thesensammlung:

„Future PLM ist Chefsache.“ Eigentlich hätte das schon immer so sein sollen (was sollen wir als Lieferant auch anders sagen). Die gute Nachricht: jetzt wird es so kommen, denn die Prozessketten und Implikationen sind nochmal eine Größenordnung bedeutender.

„PLM-Architekturen machen nicht an der Unternehmensgrenze halt. Die Unterstützung der Kollaboration mit Joint Ventures, Entwicklungspartnern, Lieferanten von Systemen, Software und Services etc. ist eine Kernanforderung an die zukünftige PLM-Architektur.“

Eine Lanze für Offene Systeme

Weiter beleuchten die Autoren, wie sich Software und Systeme wandeln müssen: „Monolithische Systeme haben ausgedient.“  „PLM Systeme müssen offener werden.“ „Future PLM muss veränderbar sein … Künftige PLM-Architekturen müssen … flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten.“

Und schließlich: „Future PLM muss kostengünstiger werden“. Den Seitenhieb kann ich mir dann doch nicht verkneifen: Das Papier zeigt ja sehr schön: die Ansprüche an das Management des Produktlebenszyklus wachsen noch einmal deutlich. Da gilt es, die Kosten egal ob aus Erwerb oder Subskription von PLM-Software im Vergleich zum Hebel für die Prozesse und Business Cases nüchtern ins Verhältnis zu setzen. Wie sagt der Schwabe: „Was nix kostet, ist nix“.

Fazit  

PLM ist tot – lang lebe PLM! Es geht nicht darum, die PLM-Idee zu begraben, sondern sie im Gegenteil konsequent zu Ende zu denken. Das erfordert gute Kommunikation in der Community und in den Unternehmen, um auf die neuen Herausforderungen mit tragfähigen innovativen Lösungen zu antworten, die auch auf den vorhandenen PLM-Fundamenten aufbauen. Sonst wird das eine wackelige Angelegenheit!

Hat PLM eine Zukunft und wie sieht die aus?

In meinem letzten Blog-Beitrag habe ich darzulegen versucht, warum es aus Anwendersicht so wichtig ist, PLM aus seinem Engineering-Nischendasein zu befreien. Ebenso wichtig ist es aber auch aus Anbietersicht, wenn die PLM-Hersteller sich auf Dauer am Markt behaupten wollen. Darauf hat vor ein paar Monaten Oleg Shilovitsky in einem Gastblog hingewiesen, den ich jetzt erst entdeckt habe. „Hat PLM eine Zukunft und wie sieht die aus?“ weiterlesen

Data Science verstehen – Revolutionäres Potential aus vier Megatrends!

Wir befinden uns an der Schwelle zu einem neuen Zeitalter, weil verschiedene Strömungen zusammenkommen und damit ein einzigartiges Umfeld schaffen. Vieles (manche würden sagen: alles) wird digital. Damit ist auch das Interesse an den Themen Datenanalyse und -exploration – also Data Science – enorm gestiegen. Data Science ist der Konvergenzpunkt von vier Megatrends, die die letzten Jahren dominiert haben und auch die kommenden dominieren werden: Cloud Computing, IoT, Big Data und algorithmische Analyse.

Was sind die Gründe für das Zusammenkommen verschiedener Strömungen und damit eines neuen, einzigartigen Umfeldes?

  1. Zum ersten Mal in der Geschichte der Künstliche Intelligenz, die in den 1950er Jahren als Disziplin begonnen hat, steht die notwendige Rechenleistung zu niedrigen Kosten zur Verfügung, um praktische Probleme mit den schon länger verfügbaren Algorithmen zu lösen.
  2. Die Algorithmen für das Machine Learning sind deutlich verbessert worden und können nun mit vertretbarem Aufwand für praktische Probleme eingesetzt werden.
  3. Die Popularität von Data Science trägt dazu bei, seine Methoden aus den akademischen Zirkeln in die Breite zu tragen, so dass eine große experimentierfreudige Community eine rapide Weiterentwicklung fördert.
  4. Heutzutage gibt es vor allem durch das Internet, die sozialen Netzwerke und die großen Einkaufsplattformen einen Datenschatz in nie gekannter Größenordnung, der auf seine Auswertung wartet.
  5. Das Internet der Dinge wird für weitere Datenströme sorgen, die zu neuen Geschäftsmodellen führen, die mit Hilfe von Data Science erschlossen werden.

Diese Faktoren haben dazu beigetragen, Data Science als eigene wissenschaftliche Fachdisziplin und Ergänzung zur klassischen Statistik zu etablieren. Data Scientist mit ihren Fähigkeiten im Bereich Programmierung, Statistik und neuerer Algorithmik bringen die erforderliche Expertise mit, um die heutigen Möglichkeiten der Datenanalyse gewinnbringend zu nutzen. Die verschiedenen Data Science Techniken lassen sich nach algorithmischen Verfahren oder nach dem Einsatzzweck grob so kategorisieren:

  • Regression
  • Klassifikation
  • Anomalienerkennung
  • Clustering
  • Reinforcement Learning

Auf der einen Seite der bestehenden Software-Landschaft gibt es bereits sehr spezifische Lösungen für gut umrissene Probleme, zum Beispiel im Einzelhandel oder in der Finanzindustrie. Am anderen Ende des Spektrums stehen die Anbieter von Software-Paketen, die ein abgestimmtes Toolset für den Spezialisten im Bereich Data Science zur Verfügung stellen.

Die meisten Lösungen basieren dabei auf Open Source Software. Im Bereich Toolsets dominieren vor allem zwei Sprachen den Markt: R and Python. Python hat sich zur Standardsprache für Data Scientists entwickelt, vor allem im Bereich Machine Learning.

Die gewaltigen Investitionen und die anziehenden Umsätze von großen Commodity-Plattformen wie Amazon, Microsoft und Google zeigen: Die Megatrends Cloud Computing, IoT, Big Data und algorithmische Analyse bestimmen bereits heute oder in naher zukunft die Geschäftsprozesse, und dass bis in die letzten Winkel. Für Unternehmen, die dieses Thema näher interessiert, hat CONTACT ein neues Data Science White Paper herausgebracht. Dies kann hier heruntergeladen werden.