Zugegeben: Das Ensemble aus Daten, Prozessen, Compliance-Richtlinien, Tool- und Systemintegration, Multidiziplinarität, Know-how Schutz usw. macht PLM kompliziert. Da kann es passieren, den Wald vor lauter Bäumen aus den Augen zu verlieren. Aber was ist denn erst mal das Wesentliche?
Jamie Gooch setzt zum Jahresauftakt in seinem Beitrag “Don’t Dismiss Data Duties – Take an active role in data management decisions before they are decided for you” in der aktuellen Ausgabe des Desktop Engineering ein Ausrufungszeichen hinter die Rolle des Produktdaten-Managements: “Chances are, someone has taken a look at the hodgepodge of data floating around your company – concepts, CAD models, test results, analyses, market intelligence, renderings – and decided to implement a way to organize it all. … If everyone in your company is using the data management system properly – whether it’s product data management, document management, product lifecycle management, or any other company-wide platform for organizing and sharing data – you’re way ahead of the game.
Die Praxis zeigt: Ja, das ist die Voraussetzung für alles weitere und verschafft alleine schon mal Zugang zu den „low hanging fruits“. Die große IPK/VDI Umfrage aus dem letzten Jahr hat das Potential dafür unterstrichen: 2/3 der befragten Ingenieure stehen 20% und weniger Zeit für die Kernaufgaben Entwickeln, Konstruieren und Absichern zur Verfügung!
Gooch dazu: “Properly implemented, supported and maintained, data management can drastically reduce design cycle times, reduce frustrations associated with engineering change orders, and ultimately improve your company’s time to market. Without the right guidance, those benefits can disappear. The need for data management isn’t going away. It’s only going to increase. You can take the lead or you can take your chances.”
Der Begriff Big Bang oder Urknall bezeichnet in der Kosmologie den Beginn unseres Universums – ein angeblich singuläres Ereignis. Angeblich deshalb, weil es vor schlappen 13,8 Milliarden Jahren ohne Augenzeugen stattfand (Einstein, Planck und Co. waren nur theoretisch anwesend) und möglicherweise gar nicht so singulär war. Irgendwo habe ich mal gelesen, dass es vielleicht nur der Moment der maximalen Verdichtung von Materie, Raum und Zeit eines früheren Universums war, das ab da wieder zu expandieren anfing.
In unserer bescheidenen PLM-Welt verwendet man den Begriff Big Bang gerne für ein Vorhaben, bei dem eine umfassende PLM-Lösung auf einen Schlag an allen Standorten eines Unternehmens und/oder in allen Abteilungen, die in den Produktentstehungsprozess involviert sind, scharf geschaltet wird. Soweit die Theorie. In der Praxis gehen solchen Big Bang-Projekten meist monatelange Vorbereitungen mit aufwendigen Tests voraus, um das Risiko eines Fehlstarts zu minimieren. Und wie bei der PLM-Einführung in mehreren Projektschritten ist auch der Urknall im Erfolgsfall nur der Startschuss für die kontinuierliche Expansion des PLM-Universums.
Gegen den Big Bang gab es früher viele Vorbehalte, insbesondere bei mittelständischen Unternehmen, weil die Projekte sich über die Gebühr in die Länge zogen. Ihr Lieblingsrezept für die PLM-Einführung lautete: Think big, but start small. Das ändert sich allerdings mit der Weiterentwicklung der PLM-Software, die dank modularer Architekturen, vorkonfigurierter Komponenten und leistungsfähiger Werkzeuge für die Entwicklung kundenspezifischer Anpassungen einfacher und schneller mit einem vergleichsweise großen Funktionsumfang ausgerollt werden können als vielleicht noch vor zehn Jahren. De facto ist der wachsende Funktionsumfang der Implementierungen der Grund dafür, dass sich die Projektlaufzeiten im Schnitt nicht wesentlich verkürzt haben.
Ob sich ein Unternehmen für den Big Bang oder eine Politik der kleinen Schritte entscheidet, hängt von vielen Faktoren ab. Wichtig sind zum einen die Rahmenbedingen: Ein Unternehmen mit global verteilten Entwicklungsstandorten, die bei Entwicklungsprojekten zusammenarbeiten sollen, wird nicht umhin kommen, über den gleichzeitigen Rollout der PLM-Lösung an allen Standorten nachzudenken. Zum anderen hängt die Entscheidung davon ab, wie weit der Istzustand vor der PLM-Einführung und der angestrebte Sollzustand auseinander liegen. Größere Veränderungen der Prozesslandschaft erfordern, wenn nicht den Big Bang, so doch einen größeren Sprung, um zu verhindern, dass das Projekt auf halbem Wege im Morast des Tagesgeschäfts stecken bleibt. Wer den Produktentstehungsprozess umgestalten möchte, kann sich nicht damit begnügen, erst einmal testweise ein CAD-Datenmanagement im Engineering zu implementieren.
Viele Unternehmen scheuen den Big Bang, nicht unbedingt weil das damit verbundene Risiko höher ist, sondern weil sie es schwerer einschätzen können und lieber auf Nummer sicher gehen. Das gilt vor allem für Unternehmen, in denen das Management dem Thema PLM nicht die Aufmerksamkeit schenkt, die es verdient. Wer mit knappen finanziellen Ressourcen und einer eher zufällig zusammen gewürfelten Truppe aufmarschiert, wird sich nur in kleinen Schritten an PLM heranpirschen. Big Bang-Projekte erfordern den unbedingten Rückhalt der Geschäftsleitung: „Es muss jemanden geben, der ein so großes Projekt auch mal über die kritischen Klippen hievt“, sagte mir vor ein paar Wochen der Geschäftsführer eines Unternehmens, das gerade mit einem Kostenaufwand von mehreren Millionen Euro seine komplette CAD/CAM- und PLM-Lösung ausgewechselt hatte.
PLM-Projekte brauchen außerdem ein starkes und motiviertes Projektteam, unabhängig davon, ob das Unternehmen sich für die Big Bang-Ansatz oder eine Implementierung in kleinen Schritten entscheidet. Dazu gehören auch kompetente Ansprechpartner auf Seiten des Softwarelieferanten, die in den Lage sind, die Prozesse des Kunden zu verstehen und in der Software abzubilden. Aus den Teammitgliedern eine schlagkräftige Mannschaft zu formen und auf sie ein gemeinsames Ziel einzuschwören, ist Aufgabe der Projektleiter, deren Geschick über Erfolg oder Misserfolg des Projekts entscheiden kann.
Der Erfolg hat viele (Mütter und) Väter, der Misserfolg ist immer ein Waisenkind, lautet eine englische Redewendung. Leider ist sie missverständlich. Der Misserfolg hat nämlich mindestens ebenso viele Väter wie der Erfolg, nur dass sie normalerweise den Vaterschaftstest verweigern. Das gilt auch für das Scheitern von Produktinnovationen, das viele Ursachen haben kann. Tina Müller, die neue Marketing-Chefin von Opel, und Marketing-Professor Hans-Willi Schroiff haben die wichtigsten Gründe in einem Buch (Warum Produkte floppen) zusammengetragen.
Ein neues Buch zu einem altbekannten Problem zu schreiben ist keine besonders innovative Idee. Aber wenn es stimmt, dass 60 bis 80 Prozent der neu eingeführten Produkte floppen, wie Müller in einem Interview behauptet (http://www.handelsblatt.com/unternehmen/it-medien/opel-managerin-mueller-innovation-ist-jeden-tag/8953402.html), dann ist das Thema zweifellos relevant. Und Relevanz für die Zielgruppe ist neben der Einzigartigkeit ein wesentliches Kriterium für erfolgreiche Produkte oder Innovationen. Wobei von erfolgreichen Innovationen zu sprechen eigentlich ein Pleonasmus ist: Nach Joseph Schumpeter ist Innovation nämlich nicht die Erfindung, sondern die Durchsetzung einer technischen oder organisatorischen Neuerung. Was sich nicht durchsetzt bzw. keinen Erfolg hat, ist also keine Innovation.
Paradoxerweise ist der Erfolg (von Innovationen) zugleich ein Floprisiko, weil sich erfolgreiche Organisationen scheuen, Dinge anders zu machen, während sich die Welt um sie verändert. Deshalb laufen gerade erfolgreiche Unternehmen laut Müller Gefahr, den Zug zu verpassen. Sie ruhen sich gewissermaßen auf ihren innovativen Lorbeeren aus und versuchen sie, durch schrittweise Neuerungen frisch zu halten, statt den nächsten Innovationssprung zu wagen. Dafür gibt es zahlreiche Beispiele: Marktführer Nokia hat den Trend zum Smartphone regelrecht verschlafen und Sony war mit dem Walkman so erfolgreich, dass das Unternehmen das Potential des MP3-Formats für die Geschäftsmodellinnovation übersehen hat.
Für die konstant hohen Flopraten gibt – wie gesagt – viele Ursachen. Die meisten Fehler werden schon in der Konzeptphase gemacht, wie Müller sagt, aber selbst ein relevantes und einzigartiges Produkt kann scheitern, wenn es nicht mit der Markenstrategie harmoniert oder das Unternehmen die falsche Vertriebs- und Marketingstrategie wählt. Und dann gibt es Produkte, die im Test begeistern, und trotzdem im Markt floppen, weil die Konsumenten Kaufentscheidungen nicht unbedingt rational treffen. Deshalb sind die Unternehmen ja so daran interessiert, unsere Big Data-Spuren in Internet und Sozialen Medien auszuwerten, um uns auf die Schliche zu kommen.
Eine Frage bzw. die Antworten fand ich aus PLM-Sicht besonders interessant, weshalb ich sie hier wörtlich zitiere. Was wichtiger sei, die Anzahl der Produktideen oder die Qualität des Innovationsmanagements?
Müller: Unternehmen brauchen am Anfang des Innovationsprozesses, bevor sie über das Konzept sprechen, rund 1000 Ideen, damit überhaupt irgendwas dabei ist, was sich lohnt weiterzuentwickeln. Wenn diese erste Stufe, die mehr auf Quantität geht, durchlaufen ist, dann muss es in einem recht engen und strukturierten Innovationsprozess weitergehen, weil sonst noch viel mehr Fehler gemacht werden. Das heißt, die Qualität des Innovationsmanagements ist genau so wichtig wie die Breite der Ideen im Anfangsstadium.
Schroiff: […] ohne diese 1000 Ideen hätte man nicht die zehn, die am Ende des Tags das Zünglein an der Waage für den Erfolg sind. Es ist ganz wichtig, dass die Leute nicht denken, ich muss jetzt mal zehn gute Ideen bekommen. Nein. Sie brauchen diese 1000 Ideen und die müssen immer weiter geschmiedet werden. Es ist nicht richtig, einmal im Jahr eine Woche über Innovationen nachzudenken. Innovation ist jeden Tag. Wenn man das nicht lebt und als Kultur verankert, wird es schwierig mit kontinuierlichen Innovationen. Deshalb braucht man einen ständigen Nachstrom an Ideen, um sagen zu können, das machen wir nicht. (Quelle: Handelsblatt online, 28.10.2013)
Das heißt mit anderen Worten, dass die Unternehmen einerseits einen konstanten Strom von Ideen produzieren müssen, was in erster Linie eine Frage der Innovationskultur ist. Auf der anderen Seite müssen sie die Tausend Ideen erfassen, mit Blick auf ihre Innovationsstrategie bewerten und die richtigen zehn herausfiltern, um sie in (hoffentlich erfolgreiche) Innovationen umzusetzen. Dabei kann PLM wertvolle Hilfe leisten, vorausgesetzt die Lösung unterstützt den Innovationsprozess von der strategischen Produktplanung über die Konzeption bis zur Abwicklung von Entwicklungsprojekten durch ein leistungsfähiges Innovationsmanagement.