Brauchen smarte Produkte neue PLM-Systeme?

Auf dem jüngsten ProSTEP iViP-Symposium gab es eine interessante Podiumsdiskussion zum Thema Smart Engineering, in der hochkarätige Vertreter aus Wissenschaft und Forschung ziemlich offen die Immobilität der PLM-Hersteller angesichts der Herausforderung des Internet of Things (IoT) und der Entwicklung smart vernetzter Systeme kritisierten. O-Ton eines Teilnehmers: „Wir bräuchten Player mit neuen Ideen, die frischen Wind in den Markt bringen.“ Es fehle eine Art Google, der den ganzen PLM-Markt aufrolle, meinte ein andere. Welcher Hafer hat die denn gestochen?, dachte ich mir.

Einer der Vorwürfe an die Adresse der PLM-Hersteller, der aus dem Mund staatlich alimentierter und geförderter Wissenschaftler natürlich etwas befremdlich klingt, ist der, dass sie bei der Weiterentwicklung ihrer Systeme zu wenig in Vorleistung treten und immer nur das entwickeln, mit dem sich ziemlich unmittelbar Geld verdienen lässt. Abgesehen davon, dass Altruismus nicht unbedingt eines der Wesensmerkmale kapitalistischer Systems ist, halte ich den Vorwurf für nicht ganz zutreffend.

  • Erstens kenne ich den einen oder anderen PLM-Hersteller, der seine Software bereits um Module für Anforderungsmanagement, Funktionsmodellierung und andere Systems Engineering-Funktionen ergänzt hat, die sich nicht gerade verkaufen wie warme Semmeln.
  • Zweitens haben die wenigen Anwendervorträge zum Thema Systems Engineering auf dem Symposium einmal mehr deutlich gemacht, dass die Unternehmen immer noch in einer Findungsphase stecken und erst einmal klären müssen, was sie an IT-Unterstützung für die Entwicklung ihrer smarten Produkte benötigen. Ein Eindruck, der durch die Interviews bestätigt wird, die ich in den letzten Jahren zu dem Thema geführt habe.
  • Drittens wissen auch die Wissenschaftler noch nicht so genau, welche Partialmodelle aus der modellbasierten Entwicklung cyberphysischer Systeme mit welchen Informationen eigentlich ins PLM-System gehören. Sonst bräuchten wir ja wohl dotierte Forschungsprojekte wie mecPro2 nicht, die genau das herausfinden sollen.

Richtig ist natürlich, dass die PLM-Hersteller genauso wie ihre Kunden gefordert sind, sich mit den Auswirkungen des IoT auf ihre Geschäftswelt auseinanderzusetzen. Sie müssen ihr Lösungsangebot anpassen, um agilere und kontinuierlichere Entwicklungsprozesse zu unterstützen, wie Stan Przybylinski von der amerikanischen Markforschungsfirma CIMdata kürzlich in einem Webinar zum Thema „The Internet of Things – What does it mean for PLM“ betonte. Doch was heißt das konkret für die Entwicklung der PLM-Software? Muss sie künftig in der Lage sein, unstrukturierte Informationen zu verwalten oder Unmengen an Sensordaten zu analysieren? Ich glaube, dafür sind andere Anwendungen besser geeignet.

Das IoT verspricht Wachstum ohne Ende. Grafik: CIMdata Inc.
Das IoT bietet ein riesiges Wachstumspotential, vor allem für industrielle Anwendungen. Grafik: CIMdata Inc.

Hauptaufgabe der PLM-Systeme ist und bleibt die Unterstützung der Produktentwicklung. Das Problem ist nicht so sehr, dass diese Produkte immer mehr Elektronik und Software enthalten, die sich ständig ändert, sondern dass Elektronik und Software zunehmend genutzt werden, um Produkte mit anderen Produkten und Systemen zu vernetzen und ihren Lebenszyklus dadurch weit über den Start of Production hinaus zu verlängern. Im Sinne eines vollständigen Product Lifecycle Managements muss auch diese Phase systemseitig unterstützt werden.

Das wirkliche Produktleben lag für die Hersteller bislang auf der „dark side of the moon“, wie PTC-Chef Jim Heppelman sich einmal ausdrückte. Dieses Leben besser auszuleuchten, das heißt die Informationen aus dem Feld auszuwerten, in den Lifecycle einzusteuern und für die kontinuierliche Verbesserung der Produkte zu nutzen, das ist die riesige Chance des IoT und die wahre Herausforderung für die PLM-Hersteller. Es geht nicht um die Entwicklung oder Integration von noch ein paar Systems Engineering-Werkzeugen mehr, sondern um die Vernetzung der PLM-Systeme mit den IoT-Plattformen, auf denen diese Lifecycle-Informationen zusammenfließen.

Welche Plattformen das sein werden, ist noch ziemlich offen. Aber wenn man sich vor Augen hält, dass IBM mal eben schlappe drei Milliarden US-Dollar in den Aufbau einer eigenen IoT-Organisation investiert, kann man sich ungefähr ausmalen, welches Kaliber die Player in diesem Markt haben werden. Ein Markt über dessen Größe die aberwitzigsten Zahlen kursieren. Cisco sprich von 19 Billionen US-Dollar im Jahr 2020, McKinsey immerhin noch von 2,7 bis 6,2 Billionen. Einig sind sich alle Auguren, dass der größte Anteil davon auf die Fertigung entfallen wird: Vielleicht war das mit Industrie 4.0 doch keine so schlechte Idee.

Die Stückliste bleibt auf der Tagesordnung

Das ProSTEP iViP Symposium jagt von Rekord zu Rekord. Mit über 550 Teilnehmern und 33 Ausstellerfirmen war die diesjährige Veranstaltung im ICS in Stuttgart noch besser besucht als die des Vorjahres in Berlin, die erstmals die Schallmauer von 500 Ausstellern und Besuchern durchbrach. Obwohl oft als „Familientreffen“ der technischen IT-Experten aus Automobil- und Flugzeugindustrie bezeichnet, waren mehr als die Hälfte der Teilnehmer zum ersten Mal dabei. Das liegt nicht nur an der allmählichen Verjüngung der IT-Mannschaften (Frauen sind immer noch deutlich unterrepräsentiert), sondern auch daran, dass es dem Verein durch gezielte Werbekampagnen insbesondere in Japan gelungen ist, den Anteil der ausländischen Besucher zu steigern. Vertreter aus 19 Ländern nahmen in diesem Jahr am Symposium teil.

Mit freundlicher Genehmigung von Ralf Kopp
Mit freundlicher Genehmigung von Ralf Kopp, ProSTEP iViP

Die Organisatoren versuchen außerdem, die Veranstaltung durch den Brückenschlag von der virtuellen Produktentwicklung zum Digital Manufacturing thematisch breiter aufzustellen und auch dadurch neue Interessenten anzulocken. Das spiegelt sich allerdings noch nicht in der Zusammensetzung der Besucherschaft wider, die nach wie vor sehr Engineering-orientiert ist. Beherrschendes Thema war in diesem Jahr das Smart (Systems) Engineering als Antwort auf die Herausforderung des Internets der Dinge (IoT), das heißt die Vernetzung von Fahrzeugen und anderen Produkten über das Internet und die daraus resultierenden neuen Serviceangebote und Geschäftsmodelle. Da war Hauptsponsor Bosch natürlich in seinem Element.

Bei so vielen Hype-Themen war ich angenehm überrascht, auch die gute alte Stückliste bzw. die Diskussion über die Hoheit der BOM (Bill of Material) auf der Tagesordnung zu finden. Bodenständige Kost, aber vom Feinsten, so wie überhaupt die Verköstigung in diesem Jahr ausgezeichnet war. Den Auftakt machten die Vertreter des brasilianischen Flugzeugherstellers Embraer, die ihre IT-Systemlandschaft unter anderem deshalb um das PLM-System Windchill ergänzt haben, um Konstruktionsstückliste, pardon eBOM, und Fertigungsstückliste unabhängig voneinander managen und ändern zu können.

Mit freundlicher Genehmigung von Beyond PLM
Mit freundlicher Genehmigung von Oleg Shilovitsky, Beyond PLM

PLM-Experte Oleg Shilovitsky, dessen Blog Beyond PLM ich an dieser Stelle zur Lektüre empfehle, verteidigte in seiner Keynote hingegen die Vision einer einheitlichen, über die Systemgrenzen von PLM und ERP hinweg synchronisierbaren BOM. Leider seien die Unternehmen nicht  „ready for a single BOM“. Eine Position, die übrigens auch von PLM-Papst Prof. Martin Eigner geteilt wird, der in der Fragerunde den Konstrukteuren empfahl, in den Strukturen der mBOM denken zu lernen. Wen wundert es, dass die Stückliste beim anschließenden Get Together Gegenstand angeregter Diskussionen war.

Bei allem Respekt vor Martin Eigner und Oleg Shilovitsky bin ich der Ansicht, dass die Idee einer Art Einheitsstückliste zumindest nicht für alle Unternehmen eine tragfähige Lösung darstellt. Dies umso mehr als smarte Produkte und neue IoT-basierte Geschäftsmodelle dazu führen werden, dass diese BOM nicht mehr nur die Sichten von Mechanik-Konstrukteuren und Fertigungsplanern, sondern auch von Elektrik/Elektronik-Entwicklern, Software-Programmierern und Serviceleuten harmonisieren müsste. Die Abstimmung zwischen den beteiligten Disziplinen stelle ich mir beliebig komplex vor. Statt einer Einheitsstückliste brauchen die Unternehmen meines Erachtens ein einheitliches System, in dem sie verschiedene Sichten bzw. Stücklisten-Strukturen  verwalten und bei Änderungen konsistent halten können.

Die Entscheidung, welches System das sein soll, muss jedes Unternehmen selber treffen – in Abhängigkeit von der Multi-BOM-Fähigkeit der eingesetzten PLM-, ERP- oder vielleicht sogar anderer IT-Systeme. Instruktiv war in dieser Hinsicht der Vortrag der Faymonville S.A. auf dem Symposium, die ihre Schwerlasttransporter zum Teil kundenspezifisch entwickelt, zum Teil aber auch aus einem Baukastensystem auftragsspezifisch konfiguriert. Um den Configure-to-Order-Prozess besser zu unterstützten, hat das Unternehmen die Fertigungsstückliste zu 150% in ihrem PLM-System abgebildet. Auch bei Embraer wird die mBOM zunächst im PLM-System angelegt und dann erst an das ERP-System repliziert.

Vielleicht ein Paradigmenwechsel? Es würde mich interessieren, was Sie über das Thema denken.

Auch PLM-Systeme kommen in die Jahre

Mit einem Textverarbeitungsprogramm, das nicht mehr auf dem aktuellen Stand ist, über die Notwendigkeit der Software-Aktualisierung zu schreiben, ist nur scheinbar ein Widerspruch. Während man bei Word & Co. als normaler Anwender durch einen Versionswechsel kaum noch Produktivitätszuwächse erzielt, dafür aber tagelang damit beschäftigt ist, vertraute Funktionen wiederzufinden, die ein agiler Software-Entwickler aus unerfindlichen Gründen dort versteckt hat, wo man sie nicht suchen würde, kann die Aktualisierung einer Unternehmensanwendung einen Produktivitätsschub auslösen. Insbesondere wenn es sich um eine historisch gewachsene IT-Lösung handelt.

Alt- oder Legacy-Systeme sind strukturell zukunftsunfähig, weil sie meist auf einer veralteten Technologie basieren, inkompatibel zu anderen Unternehmensanwendungen sind und sich nicht oder nur mit einem hohem Aufwand an die aktuellen Anforderungen anpassen lassen. Ihre Aufrechterhaltung bindet nicht nur Personal mit Know-how, das immer schwerer zu finden bzw. zu ersetzen ist, sondern auch finanzielle Ressourcen, die nicht mehr für Investitionen in die Modernisierung der IT-Landschaft zur Verfügung stehen. Darauf hat kürzlich die Management-Beratung Lüdendonk in einem Whitepaper über die Software-Modernisierung hingewiesen, das ich zur Lektüre empfehle.

Mit freundlicher Genehmigung von dan, www.FreeDigitalPhotos.net
Mit freundlicher Genehmigung von dan, www.FreeDigitalPhotos.net

Obwohl sich die IT-Verantwortlichen der Tatsache bewusst sind, dass die Modernisierung der Software-Landschaften eine Notwendigkeit ist, halten sie an ihren Legacy-Systemen oft genauso zäh fest wie ich an meinem alten Texteditor. Das liegt daran, dass diese Systeme sehr viel Unternehmens-Know-how beinhalten und oft so eng mit anderen IT-Lösungen verknüpft sind, dass sich die Auswirkungen einer Modernisierung nur schwer abschätzen lassen. Dies umso mehr als ihre Entstehungsgeschichte oft nicht sauber dokumentiert ist. Die Experten von Lüdendonk empfehlen dennoch eine planvolle Modernisierung der Software-Landschaft und stellen dafür verschiedene Strategien vor.

Zugegebenermaßen haben neue Software-Programme manchen Bug, aber sie sind in den letzten Jahren deutlich zuverlässiger geworden. Die Furcht vor Kinderkrankheiten sollte deshalb kein Grund sein, seine Software-Installation nicht zu aktualisieren. Gerade moderne PLM-Systeme bieten heute standardmäßig einen Funktionsumfang, der vor einigen Jahren nicht oder nur mit einem hohen Anpassungsaufwand und Zusatzprogrammierungen erreichbar war. Die bestehenden IT-Lösungen abzulösen, hat den Vorteil, dass man sie funktional wieder näher an den Standard heranführen kann. Das reduziert nicht nur den Aufwand für Wartung und Pflege der Installation, sondern erleichtert auch Software-Updates. Davon abgesehen erlauben die heute zur Verfügung Programmierwerkzeuge eine einfachere und schnellere Zusatzprogrammierung, falls doch einmal kundenspezifische Erweiterungen erforderlich sind.

Außerdem werden die Architekturen der PLM-Systeme nicht zuletzt auch unter dem Druck von Initiativen wie dem Codex of PLM Openness offener, was ihre Integration in bestehende IT-Landschaften vereinfacht. Alle diese Faktoren haben zur Folge, dass die Kosten für Anschaffung und Betrieb einer PLM-Lösung tendenziell sinken. Deshalb sollten gerade Unternehmen mit einer älteren und stark kundenspezifisch angepassten PLM-Lösung ernsthaft über eine Modernisierung ihrer Installation nachdenken. Die Lebensdauer der Alt-Systeme zu dehnen, hat Lüdendonk zufolge negative Auswirkungen auf die Gesamtkostenstruktur der IT: „Je mehr Zeit und Geldmittel […] die Unternehmen für die Wartung älterer Software aufwenden müssen, desto weniger bleibt für die Realisierung zukunftsweisender Projekte übrig“, so die Autoren des Whitepapers.

In den letzten Monaten habe ich eine Reihe von Unternehmen besucht, die sich aus dem einen oder anderen Grund für eine Modernisierung ihres PLM-Systems entschieden haben. Der damit verbundene Aufwand war zum Teil nicht unerheblich, weil sie im Zuge der Modernisierung auch ihre Entwicklungsprozesse umstrukturiert haben. In allen Fällen profitierten die Unternehmen jedoch von dem erweiterten Standard-Funktionsumfang ihres PLM-System, insbesondere in punkto Projektmanagement, der wesentlich einfacher zu implementieren war als die kundenspezifischen Anpassungen der Vergangenheit.