20 Jahre PLM: Warum zweifeln Viele noch immer am Nutzen?

Mittlerweile blicke ich auf einige Jahre Beratung für Product Lifecycle Management zurück. Ein Thema, dessen Popularität im Laufe der Jahre deutlich schwankte und aktuell im Gefolge der Digitalen Transformation wieder stark im Aufwind ist.

Trotz der wieder steigenden Aufmerksamkeit für PLM bemerke ich, dass dem Begriff unverändert die Geschmacksnoten groß, schwerfällig, langwierig, unwirtschaftlich anhaften. Erstaunlich, denn der Aufwand, den viele Unternehmen beispielsweise in ERP-Projekte stecken, war und ist in den meisten Fällen deutlich höher. Dennoch werden Notwendigkeit und Nutzen von – teuren – ERP-Projekten zwar diskutiert, aber nur selten in Frage gestellt, siehe etwa Haribo und Lidl.

Wie kommt es zu dieser unterschiedlichen Wahrnehmung? Eine Erklärung könnte sein, dass sich der Nutzen von PLM für Management und Mitarbeiter in den Unternehmen über Jahre nicht ausreichend erschlossen hat. Das lag vor allem daran, dass Reichweite und Sichtbarkeit der PLM-Projekte in den Unternehmen oft sehr eingeschränkt war.

Ein genauer Blick zeigt, dass viele der früheren PLM-Einführungen in Wahrheit eher PDM-Einführungen waren. PDM, Produktdaten Management, konzentriert sich auf produktbeschreibende Daten, also in erster Linie CAD-Modelle und Zeichnungen. Damit beschränkte sich der „PLM“-Einsatz eher nur auf die Kernbereiche der Produktentwicklung, sehr oft sogar ausschließlich auf die Mechanik-Konstruktion. Obwohl meist schon seit Jahren in einigen PLM-Lösungen verfügbar, wurden z.B. Änderungsmanagement, Dokumentenmanagement, Projektmanagement, abteilungsübergreifende Zusammenarbeit oder die Kommunikation mit Externen nicht genutzt. Stattdessen wurden oft vermeintlich „günstige“ Lösungen auf Basis von Excel, Outlook, dem Dateisystem oder Sharepoint in Eigenregie erstellt. Werkzeuge, die jeder im Unternehmen kennt. Und für die sich meist schnell jemand findet, der diese Tools per Makroprogrammierung „optimiert“. Geschürt wurde die ablehnende Haltung gegenüber PLM dabei sicher auch durch die überfrachteten, hochverdichten „Ingenieurs-Benutzeroberflächen“ der 1. und 2. PLM-Produktgeneration.

Da überrascht es nicht, dass PLM im Unternehmen als teure, wenig Nutzen stiftende und exotische Anwendung gesehen wurde.

In der aktuellen PLM-Renaissance haben die Unternehmen jetzt alle Chancen, aus den Defiziten der Vergangenheit zu lernen und die mittlerweile beeindruckenden Potenziale des Product Lifecycle Managements zu nutzen. Viele veraltete und abgekündigte PDM- und PLM-Lösungen werden aktuell oder demnächst gegen moderne PLM-Plattformen der 3. Generation ausgetauscht, die zudem auch die Anwendungsfälle rund um den Digitalen Zwilling und im Internet der Dinge unterstützen. Sie füllen die PLM-Idee mit Leben, indem sie die Prozesse über die Phasen, Fachbereiche und Unternehmensgrenzen hinweg effektiv und effizient begleiten. Dabei erhöhen neue, webbasierte HTML-5 Benutzeroberflächen die Akzeptanz bei allen Benutzergruppen im Unternehmen deutlich, indem sie auch komplexe Zusammenhänge übersichtlicher und im Handling performanter machen.

Jetzt besteht die Chance, „echtes“ Product Lifecycle Management zu verwirklichen! Vor dem Hintergrund neuer, digitaler Geschäftsmodelle, die die Nutzungsphase von Produkten viel stärker in den Vordergrund rücken, wird dies umso wichtiger. PLM-Lösungen fällt hier eine zentrale Bedeutung zu, denn sie legen den Grundstein für die Daten rund um den Digitalen Zwilling.

Aber am Ende zählen auch harte Fakten, wenn es um den Nutzen und RoI geht: Wird PLM tatsächlich mit all seinen Möglichkeiten unternehmensweit genutzt, ergeben sich schnell hohe Skaleneffekte durch die deutliche Minimierung von nicht-wertschöpfenden Tätigkeiten. Dies allein ermöglicht oft schon einen Return on Investment nach gut einem Jahr. Unbenommen der zusätzlichen Umsatzpotenziale aus neuen, datengetriebenen Geschäftsmodellen, die PLM zukünftig ermöglichen wird.

Sind Data Science Plattformen eine gute Idee?

Frei nach Karl Valentin gilt: Plattformen sind schön und schaffen einem jede Menge Arbeit vom Hals. Da kommt die Idee von Plattformen für die automatische Datenanalyse gerade recht. Passend dazu hat Gartner nun einen „Magic Quadrant for Data Science and Machine Learning Platforms“ veröffentlicht. Das Dokument selbst ist nur hinter einer Paywall einsehbar, aber im Netz bieten einige der im Report erwähnten Unternehmen den Zugriff auf das Dokument gegen Angabe der eigenen Adresse an.

Besonders hebt Gartner hervor, dass so eine Plattform alles was man braucht, aus einem Guss bereitstellen sollte; im Unterschied also zu diversen einzelnen Bausteinen, die nicht unmittelbar aufeinander abgestimmt sind.

Hört sich gut an! Allerdings: Data Science ist kein Bereich, in dem man mit einem Tool oder selbst  einer Plattform wie von Zauberhand weiterkommt. Die Entwicklung von Lösungen – etwa für Predictive Maintenance der Maschinen, die ein Unternehmen anbietet – durchläuft verschiedene Phasen, wobei Cleansing/Wrangling und Preprocessing den größten Teil der Arbeit ausmachen. In diesem Bereich sind ETL(Extract, Transform, Load )- und Visualisierungstools wie Tableau einzuordnen. Und jenseits der gedachten Komfortzone von Plattformen, die sich Manager so vorstellen, sind Datenbankabfragen und Skripte für die Transformation und Aggregation etwa in Python oder R schlicht das Mittel der Wahl. Ein Blick auf Data Science Online-Tutorials der top-Anbieter wie Coursera unterstreicht die Bedeutung dieser – nun ja – bodenständigen Werkzeuge. „Statistical analysis, Python programming with NumPy, pandas, matplotlib, and Seaborn, Advanced statistical analysis, Tableau, Machine Learning with stats models and scikit-learn, Deep learning with TensorFlow“ lautet ein Kursprogramm von Udemy.

Hinzu kommt: Oft bleiben die Projekte in diesem Vorfeld stecken oder werden abgebrochen. Das hat viele Gründe:

  • man findet keinen analytischen/statistischen Ansatz
  • die ursprüngliche Idee erweist sich als nicht durchführbar
  • die Daten sind nicht in der Menge oder Qualität, die man braucht, vorhanden
  • einfache Analysen und Visualisierungen reichen schon aus und alles weiter wäre „oversized“

Das ist nicht schlimm, bedeutet es doch nur, dass der automatisierte Einsatz von Machine Learning und KI nicht aus jedem Datensatz gleich einen Datenschatz macht. Zeichnet sich allerdings der produktive Nutzen ab, gilt es, sich für die Production-Pipeline und Zeit- oder Ressourcen-Constraints  zu rüsten. Meist fängt man dafür neu an und bildet alles nochmals z.B. in Tensorflow für Neuronale Netzwerke oder in Custom-Libraries ab.

Das Missverständnis ist, dass man a) ansatzlos Data Science bis zum produktiven Einsatz treiben kann und b) einen one-stop-shop for Data Science (hier „Plattform“) sucht, der alles in einem Aufwasch macht. Das wird es nie geben.

Das ist tatsächlich auch eine gute Nachricht, bedeutet es doch, dass Organisationen – ohne gleich zu großen Plattformen greifen zu müssen – ihre ersten Ziele erreichen können. Die einigermaßen sorgfältige Auswahl passender Werkzeuge (viele davon Open Source) hilft dabei.

Auch interessant:
In meinem Video “KI braucht Strategie” erläutere ich, welche Schritte Unternehmen konkret gehen können, um KI-Technologie zielführend einzusetzen.

Design Thinking – Hype oder Hilfe?

Ende Januar veranstaltet  CONTACT gemeinsam mit The Dark Horse, eine der führenden und bekanntesten Design Thinking Agenturen, einen exklusiven Design Thinking  Workshop.

Der Hintergrund: Neue Technologien wie IoT, 3D-Druck und Virtual Reality,  serviceorientierte Geschäftsmodelle und die Digitale Transformation überhaupt stellen herkömmliche Angebote infrage. Das Hasso-Plattner Institut schreibt dazu: „Design Thinking … avanciert heute zu einer ganz neuen Art, den Menschen in Bezug zur Arbeit zu sehen, das Konzept der Arbeit zu denken und zu fragen, wie wir im 21. Jahrhundert leben, lernen und arbeiten wollen. Die Strahlkraft von Design Thinking besteht darin, neue und überraschende Formen der kreativen Zusammenarbeit zu ermöglichen. Wir-Intelligenz ist das neue Schlagwort, Kollaboration wird die Grundlage für ein neues Arbeitsbewusstsein.“

„Ganz neue Art zu denken“, „21.Jahrhundert“, „Wir-Intelligenz“. Bei solchem Drang ins Esoterische gibt brand eins so richtig Contra. Individualistisch geprägte Gesellschaften sind weniger erfolgreich als  kollektivistische? Kreativität gedeiht am besten in Gruppen? Nicht unbedingt, und da kann man schnell mal was falsch verstehen. Und dann noch: Der Erfolg hängt von der Exzellenz in unterschiedlichen Disziplinen ab, also holt man diese Disziplinen mit ins Boot? Produkte mache ich für Kunden und – Revolution! – frage sie also nach ihren Bedürfnissen? Als wenn es Ideen wie Human Centered Design nie gegeben hätte.

Ignorieren wir lieber die Marketingstrategen und betrachten Design Thinking ganz pragmatisch:

  • Der Ausgangspunkt: komplexe Produkte und Systeme in einem eher unbekannten Terrain
  • Die unbedingte Ausrichtung an meine Kunden untere Berücksichtigung technischer und wirtschaftlicher Zielvorgaben
  • Die enge Zusammenarbeit der unterschiedlichen Disziplinen, die einen Beitrag leisten
  • Iteratives, auch spielerisch/experimentelles Vorgehen und lernen aus Feedback und Fehlern.

Design Thinking ist also wie gemacht für die Herausforderungen der Digitalen Transformation. Deswegen sind wir mit dabei.