PLM-Nutzen muss messbar sein

Vor ein paar Monaten hat Oleg Shilovitsky den PLM-Herstellern und ihren Lösungen in einem Blog-Beitrag vorgeworfen, dass sie sich mit dem Nachweis des Return on Invest (ROI) traditionell schwer tun. Kein neuer Vorwurf und einer, der dem Problem nicht ganz gerecht wird. Es sind nämlich nicht nur die PLM-Hersteller, sondern auch die Anwender selbst, die sich damit schwer tun.

Viele Unternehmen scheuen den Aufwand für die Berechnung des ROI, gerade weil sie einen möglichst schnellen ROI erzielen möchten. Nur scheinbar ein Widerspruch: Um die Nutzeneffekte der Investition exakt messen zu können, müssten sie erst die bestehenden Prozesse und ihre Schwachstellen genau analysieren und Kennzahlen für die Messung von Verbesserungen definieren. Das kostet Zeit und Geld, insbesondere wenn externe Berater involviert sind, weshalb die Analyse des Ist-Zustands meist recht rudimentär ausfällt.

Mit freundlicher Genehmigung von marcolm, freedigitalphotos.net
Mit freundlicher Genehmigung von marcolm, freedigitalphotos.net

Manchmal sind die Nutzeneffekte des PLM-Einsatzes so offensichtlich, dass die Unternehmen glauben, sich den Analyseaufwand schenken zu können. Der Geschäftsführer eines Anlagenbauers mit mehr als 150 PLM-Anwendern, der gerade ein aufwendiges Migrationsprojekt hinter sich gebracht hatte, sagte mir neulich auf die Frage nach dem ROI: „Die Investition war definitiv notwendig. Wenn jeder meiner Mitarbeiter dadurch auch nur zehn Minuten Zeit am Tag spart und wir gleichzeitig die Neuanlage von Artikeln reduzieren, brauchen wir über den ROI nicht mehr zu reden.”

In anderen Fällen ist die PLM-Investition unerlässlich, um den wachsenden Nachweispflichten nachkommen zu können. Gerade Automobilzulieferer müssen ihre Entwicklungsprozesse und die Ergebnisse minutiös dokumentieren– sonst laufen sie Gefahr, keine Aufträge mehr zu bekommen. PLM ist dabei von strategischer Bedeutung; wie schnell sich diese Investition bezahlt macht, spielt deshalb eine untergeordnete Rolle.

Erschwert wird der Nachweis des ROI auch noch durch ein anderes Phänomen: Der breiter werdende Funktionsumfang der PLM-Anwendungen und ihre zunehmende Verzahnung mit anderen Unternehmensanwendungen führt zu immer mehr Nutzeneffekten, die sich nur schwer quantifizieren und nicht mehr klar zuordnen lassen. Wie will man zum Beispiel die Produktivitätszuwächse messen, die sich daraus ergeben, dass jüngere Mitarbeiter dank PLM einfacher auf das Erfahrungswissen ihrer Kollegen zugreifen können? Bei Großunternehmen mit vielen Kostenstellen ergibt sich zudem das Problem, dass die Nutzeneffekte nicht unbedingt dort entstehen, wo die Kosten anfallen und auch genehmigt werden müssen.

Es geht bei der Analyse der Nutzeneffekte aber nicht nur um die Rechtfertigung einer einmaligen Investition, sondern auch und vor allem um die Frage, wie sich mit Hilfe von PLM die Effizienz der Produktentwicklung nachhaltig steigern lässt. Dazu müssen entsprechende Prozesskennzahlen definiert und kontinuierlich verfolgt werden. Eigentlich kein Hexenwerk, da die Basisdaten in der PLM-Lösung meist schon vorhanden sind und nur verdichtet werden müssen. Wann eine Änderung beantragt und wann sie abgeschlossen wurde, erfasst das System zum Beispiel automatisch. Es ist mithin ein Leichtes, die Durchlaufzeiten von Änderungsaufträgen zu berechnen.

Wie in meinem letzten Blog-Beitrag zu lesen, sind viele Führungskräfte mit dem Nutzen ihrer bisherigen PLM-Investitionen unzufrieden. Das gilt insbesondere für den Nutzen, den sie für ihre Führungsaufgaben aus den PLM-Daten ziehen. Der Accenture-Surveys erlaubt eine positive und eine negative Interpretation: Erfreulich ist, dass sich die Führungskräfte der strategischen Bedeutung der PLM-Lösungen und der in ihnen steckenden Informationen bewusst sind. Bedauerlich hingegen, dass viele PLM-Hersteller es offensichtlich noch nicht geschafft haben, ihnen geeignete Werkzeuge für die Nutzung dieser Informationen an die Hand zu geben. Ein flexibles Kennzahlenmanagement und gute Reporting-Funktionen sollten heute zum Standardumfang jeder PLM-Lösung gehören.

Hindernisse im PLM-Parcour

In diesem Sommer habe ich Irland wieder entdeckt, wo ich das letzte Mal vor über 15 Jahren war. Vieles hat sich seitdem verändert, nur die Infrastruktur scheint in vielen Gegenden so unberührt geblieben zu sein wie die herrlich grüne Natur: Man fährt mit viel zu breiten Autos über viel zu schmale Straßen vorbei an viel zu vielen Schafen – und das auch noch auf der “falschen” Seite. Dass da der Verkehrsfluss öfter mal stockt, nimmt nicht wunder.

PLMparcour
Connemara-Pony müsste man sein! Im PLM-Parcour sind viele Hindernisse zu überspringen. (Bild: Wendenburg)

Das irische Straßen-Bild kam mir in den Sinn, als ich den Accenture-Survey über PLM in der Luftfahrt und Wehrtechnik las (zugegeben, ich war noch halb im Urlaubsmodus): Ausgedehnte IT-Landschaften mit schlechten Verbindungen, über die Informationen langsam und oft nur in eine Richtung fließen. Die befragten Führungskräfte betrachten PLM zwar als wesentlich für Effizienzsteigerungen im Produktlebenszyklus, sind aber mit dem Nutzen ihrer bisherigen PLM-Investitionen nicht zufrieden. Ich denke, dass sich die Ergebnisse auch auf andere Branchen übertragen lassen.

Die Unternehmen der Luftfahrt und Wehrtechnik würden das PLM-Potenzial gerne nutzen, um ihre Umsätze deutlich zu steigern und ihre Kosten zu senken, stoßen aber dabei auf eine Vielzahl von Hindernissen: Handlungsbedarf besteht vor allem bei der Integration zwischen PLM und der Fertigung sowie bei der Kollaboration mit der Zulieferkette, aber auch bei der Zusammenarbeit zwischen Engineering und Service. Statt in die Tiefe der PLM-Funktionalität, sollten Unternehmen laut Accenture lieber in die Breite einer Prozessintegration investieren.

Die Führungskräfte sind sich der Schwachstellen bewusst. Immerhin 94 Prozent der Befragten gaben an, dass die Fertigung von einer besseren Integration mit der Produktentwicklung profitieren würde und die meisten von ihnen planen entsprechende Investitionen. Die Studie zeigt verschiedene Handlungsfelder auf: Companies’ responses show significant discrepancies between expected benefits of integrating product development and manufacturing, and satisfaction with today’s performance. Similar gaps are seen across the bill of materials, efficiency and control of change orders, graphical work instructions and process plans.”

Eine wesentliche Erkenntnis der Studie ist, dass die Unternehmen zu wenig Nutzen aus den PLM-Daten ziehen. Das gilt sowohl für den Umfang an Daten, die anderen Funktionen und Prozessen bereit gestellt werden, als auch für die Informationen, die sie aus diesen Daten ziehen. Ein Großteil der Befragten gab an, Analytik- und Business-Intelligence-Funktionen anzuwenden oder anwenden zu wollen, um die Nutzung der Produktdaten zu verbreitern und bessere Entscheidungen treffen zu können. Accenture zufolge werden wir in der nächsten Zeit deshalb vermehr Einführungen von entsprechenden Analytik-Werkzeugen sehen.

Um den Nutzen ihrer PLM-Investitionen zu verbessern, werden die Unternehmen weiterhin in PLM investieren (müssen) – allerdings wird sich der Fokus in den nächsten Jahren verschieben. Während zum Beispiel die Investitionen in Projekt- und Programm-Management-Funktionen deutlich sinken sollen, werden die Unternehmen weiterhin massiv in das Konfigurationsmanagement investieren. Davon werden PLM-Hersteller profitieren, die sich seit Jahren intensiv mit dem Thema beschäftigen – vorausgesetzt sie schaffen es, eine wesentliche Anforderung zu erfüllen: Die Komplexität des Konfigurationsmanagements zu reduzieren!

Qualitätsmanagement als Sisyphosarbeit

Qualitätsmanagement ist eine Sisyphosarbeit, bei der man nie wirklich am Ziel ankommt. Irgendwann fällt einem der Felsblock wieder vor die Füße. Davon kann der japanische Automobilhersteller Toyota ein (Klage-)Lied singen – ein richtiges sogar; nix mit Karaoke. Obwohl die Japaner das Qualitätsmanagement quasi erfunden haben, produzieren sie in letzter Zeit Rückruf-Aktionen in Serie.

Ein klarer Fall für CAPA (Corrective And Preventive Action) möchte man spotten: Aus den Fehlern der Japaner lernen, um sie in Zukunft zu vermeiden. Schadenfreude ist jedoch fehl am Platze: Erst Ende letzten Jahres musste der Volkswagen-Konzern in einer der größten Rückrufaktionen der Unternehmensgeschichte 2,6 Millionen Fahrzeuge wegen eines drohenden Getriebeschadens und Problemen mit dem Lichtsystem in die Werkstätten beordern. Betroffen war vor allem der chinesische Markt, wo die Fahrzeuge bei schwülen Temperaturen länger als anderswo im Stau stehen.

Toyoda Sakichi, König der japanischen Erfinder und Vater des Gründers von Automobilhersteller Toyota. Bild: Toyota
Toyoda Sakichi, König der japanischen Erfinder und Vater des Gründers von Automobilhersteller Toyota. Bild: Toyota

Das Toyota-Produktionssystem, das auf die Maximierung der Kundenzufriedenheit bei Qualität, Lieferzeit und Kosten ausgerichtet ist, war lange Zeit und ist immer noch Vorbild für ein erfolgreiches Qualitätsmanagement. Ganze Bücher wurden über den Toyota Way geschrieben. Eine seiner Grundlagen ist das von Toyoda Sakichi, dem Vater des Firmengründers, Anfang des 20. Jahrhunderts entwickelte Jidöka-Prinzip der autonomen Automatisierung. Es sieht die Kontrolle der gefertigten Materialien während des laufenden Produktionsprozesses vor, und zwar durch Komponenten und Funktionen der Maschinen (Webstühle), die es erlauben, Abweichungen vom Normalzustand selbsttätig zu erkennen.

Das muss man sich mal vorstellen: Die revolutionäre Idee von Industrie 4.0 wurde nicht etwa in Deutschland, sondern in Japan geboren, und das vor über 100 Jahren, während der zweiten industriellen Revolution. Arigatou! Toyoda-san, möchte man mit höflicher Verneigung Richtung aufgehender Sonne sagen.

Aber zurück zu unserem eigentlichen Thema. Toyoda Sakichi verdanken wir das Prinzip der prozessbegleitenden Qualitätssicherung und damit zugleich die Einsicht, dass es effizienter ist, die Produktqualität über gute Prozesse sicherzustellen als durch nachträgliche Kontrollen. Das bedeutet, dass Qualitätsmanagement nicht nur die Qualität des Produkts, sondern auch die der produkt-relevanten Prozesse im Blick hat. Allerdings war diese Prozesssicht zunächst noch sehr stark auf die Optimierung der Fertigung fokussiert.

Inzwischen hat sich die Erkenntnis durchgesetzt, dass Qualitätsmanagement dort ansetzen muss, wo 70 bis 80 der Kosten des späteren Produkts und damit auch die Kosten für die Beseitigung von Fehlern definiert werden: In der Produktentwicklung. Oder um genauer zu sein: In der Konzeptphase, in der die Qualitätsmerkmale des Produkts festgelegt und die Produktionsprozesse, das heißt das Zusammenspiel von Maschinen, Anlagen, Betriebsmitteln und Automatisierungstechnik für ihre Herstellung konzipiert werden. Dafür steht das Konzept der Advanced Product Quality Planning (APQP) und die dazu gehörigen Methoden zur Analyse möglicher Fehler im Prozess und ihrer Eintrittswahrscheinlichkeit (FMEA).

Die besten Konzepte der Qualitätsvorausplanung nützen allerdings nichts, wenn die Planungsergebnisse im laufenden Entwicklungsprozess nicht durch entsprechende Reifeprüfungen regelmäßig abgesichert werden. Das Qualitätsmanagement kann deshalb nicht allein Aufgabe der Qualitätssicherung sein, sondern betrifft alle Disziplinen, die in den Produktentstehungsprozess involviert sind. Das bedeutet aber auch, dass die Werkzeuge und Methoden für das Qualitäts- und Risikomanagement in die IT-Lösungen zur Steuerung des Produktlebenszyklus integriert werden müssen.

Quality Lifecycle Management (QLM) sei einer der neuen Zuständigkeitsbereiche von PLM, schrieb Jim Brown von Tech Clarity schon vor Jahren in einem Blog-Beitrag, um gleich einzuschränken, dass die meisten PLM-Lösungen dafür funktional noch nicht reif seien. Das sollte sich inzwischen geändert haben. Schließlich muss die Befriedigung der Kundenbedürfnisse auch für Software-Hersteller das oberste Ziel des Qualitätsmanagements sein.