Mit Big Bang zum Projekterfolg

Der Begriff Big Bang oder Urknall bezeichnet in der Kosmologie den Beginn unseres Universums – ein angeblich singuläres Ereignis. Angeblich deshalb, weil es vor schlappen 13,8 Milliarden Jahren ohne Augenzeugen stattfand (Einstein, Planck und Co. waren nur theoretisch anwesend) und möglicherweise gar nicht so singulär war. Irgendwo habe ich mal gelesen, dass es vielleicht nur der Moment der maximalen Verdichtung von Materie, Raum und Zeit eines früheren Universums war, das ab da wieder zu expandieren anfing.

In unserer bescheidenen PLM-Welt verwendet man den Begriff Big Bang gerne für ein Vorhaben, bei dem eine umfassende PLM-Lösung auf einen Schlag an allen Standorten eines Unternehmens und/oder in allen Abteilungen, die in den Produktentstehungsprozess involviert sind, scharf geschaltet wird. Soweit die Theorie. In der Praxis gehen solchen Big Bang-Projekten meist monatelange Vorbereitungen mit aufwendigen Tests voraus, um das Risiko eines Fehlstarts zu minimieren. Und wie bei der PLM-Einführung in mehreren Projektschritten ist auch der Urknall im Erfolgsfall nur der Startschuss für die kontinuierliche Expansion des PLM-Universums.

Image
Mit freundlicher Genehmigung Victor Habbick, www.FreeDigitalPhotos.net

Gegen den Big Bang gab es früher viele Vorbehalte, insbesondere bei mittelständischen Unternehmen, weil die Projekte sich über die Gebühr in die Länge zogen. Ihr Lieblingsrezept für die PLM-Einführung lautete: Think big, but start small. Das ändert sich allerdings mit der Weiterentwicklung der PLM-Software, die dank modularer Architekturen, vorkonfigurierter Komponenten und leistungsfähiger Werkzeuge für die Entwicklung kundenspezifischer Anpassungen einfacher und schneller mit einem vergleichsweise großen Funktionsumfang ausgerollt werden können als vielleicht noch vor zehn Jahren. De facto ist der wachsende Funktionsumfang der Implementierungen der Grund dafür, dass sich die Projektlaufzeiten im Schnitt nicht wesentlich verkürzt haben.

Ob sich ein Unternehmen für den Big Bang oder eine Politik der kleinen Schritte entscheidet, hängt von vielen Faktoren ab. Wichtig sind zum einen die Rahmenbedingen: Ein Unternehmen mit global verteilten Entwicklungsstandorten, die bei Entwicklungsprojekten zusammenarbeiten sollen, wird nicht umhin kommen, über den gleichzeitigen Rollout der PLM-Lösung an allen Standorten nachzudenken. Zum anderen hängt die Entscheidung davon ab, wie weit der Istzustand vor der PLM-Einführung und der angestrebte Sollzustand auseinander liegen. Größere Veränderungen der Prozesslandschaft erfordern, wenn nicht den Big Bang, so doch einen größeren Sprung, um zu verhindern, dass das Projekt auf halbem Wege im Morast des Tagesgeschäfts stecken bleibt. Wer den Produktentstehungsprozess umgestalten möchte, kann sich nicht damit begnügen, erst einmal testweise ein CAD-Datenmanagement im Engineering zu implementieren.

Viele Unternehmen scheuen den Big Bang, nicht unbedingt weil das damit verbundene Risiko höher ist, sondern weil sie es schwerer einschätzen können und lieber auf Nummer sicher gehen. Das gilt vor allem für Unternehmen, in denen das Management dem Thema PLM nicht die Aufmerksamkeit schenkt, die es verdient. Wer mit knappen finanziellen Ressourcen und einer eher zufällig zusammen gewürfelten Truppe aufmarschiert, wird sich nur in kleinen Schritten an PLM heranpirschen. Big Bang-Projekte erfordern den unbedingten Rückhalt der Geschäftsleitung: „Es muss jemanden geben, der ein so großes Projekt auch mal über die kritischen Klippen hievt“, sagte mir vor ein paar Wochen  der Geschäftsführer eines Unternehmens, das gerade mit einem Kostenaufwand von mehreren Millionen Euro seine komplette CAD/CAM- und PLM-Lösung ausgewechselt hatte.

PLM-Projekte brauchen außerdem ein starkes und motiviertes Projektteam, unabhängig davon, ob das Unternehmen sich für die Big Bang-Ansatz oder eine Implementierung in kleinen Schritten entscheidet. Dazu gehören auch kompetente Ansprechpartner auf Seiten des Softwarelieferanten, die in den Lage sind, die Prozesse des Kunden zu verstehen und in der Software abzubilden. Aus den Teammitgliedern eine schlagkräftige Mannschaft zu formen und auf sie ein gemeinsames Ziel einzuschwören, ist Aufgabe der Projektleiter, deren Geschick über Erfolg oder Misserfolg des Projekts entscheiden kann.

Innovationen managen – Flops vermeiden

Der Erfolg hat viele (Mütter und) Väter, der Misserfolg ist immer ein Waisenkind, lautet eine englische Redewendung. Leider ist sie missverständlich. Der Misserfolg hat nämlich mindestens ebenso viele Väter wie der Erfolg, nur dass sie normalerweise den Vaterschaftstest verweigern. Das gilt auch für das Scheitern von Produktinnovationen, das viele Ursachen haben kann. Tina Müller, die neue Marketing-Chefin von Opel, und Marketing-Professor Hans-Willi Schroiff haben die wichtigsten Gründe in einem Buch (Warum Produkte floppen) zusammengetragen.

Ein neues Buch zu einem altbekannten Problem zu schreiben ist keine besonders innovative Idee. Aber wenn es stimmt, dass 60 bis 80 Prozent der neu eingeführten Produkte floppen, wie Müller in einem Interview behauptet (http://www.handelsblatt.com/unternehmen/it-medien/opel-managerin-mueller-innovation-ist-jeden-tag/8953402.html), dann ist das Thema zweifellos relevant. Und Relevanz für die Zielgruppe ist neben der Einzigartigkeit ein wesentliches Kriterium für erfolgreiche Produkte oder Innovationen. Wobei von erfolgreichen Innovationen zu sprechen eigentlich ein Pleonasmus ist: Nach Joseph Schumpeter ist Innovation nämlich nicht die Erfindung, sondern die Durchsetzung einer technischen oder organisatorischen Neuerung. Was sich nicht durchsetzt bzw. keinen Erfolg hat, ist also keine Innovation.

ID-10061597
Mit freundlicher Genehmigung von nokhoog_buchachon, www.freedigitalphotos.net

Paradoxerweise ist der Erfolg (von Innovationen) zugleich ein Floprisiko, weil sich erfolgreiche Organisationen scheuen, Dinge anders zu machen, während sich die Welt um sie verändert. Deshalb laufen gerade erfolgreiche Unternehmen laut Müller Gefahr, den Zug zu verpassen. Sie ruhen sich gewissermaßen auf ihren innovativen Lorbeeren aus und versuchen sie, durch schrittweise Neuerungen frisch zu halten, statt den nächsten Innovationssprung zu wagen. Dafür gibt es zahlreiche Beispiele: Marktführer Nokia hat den Trend zum Smartphone regelrecht verschlafen und Sony war mit dem Walkman so erfolgreich, dass das Unternehmen das Potential des MP3-Formats für die Geschäftsmodellinnovation übersehen hat.

Für die konstant hohen Flopraten gibt – wie gesagt – viele Ursachen. Die meisten Fehler werden schon in der Konzeptphase gemacht, wie Müller sagt, aber selbst ein relevantes und einzigartiges Produkt kann scheitern, wenn es nicht mit der Markenstrategie harmoniert oder das Unternehmen die falsche Vertriebs- und Marketingstrategie wählt. Und dann gibt es Produkte, die im Test begeistern, und trotzdem im Markt floppen, weil die Konsumenten Kaufentscheidungen nicht unbedingt rational treffen. Deshalb sind die Unternehmen ja so daran interessiert, unsere Big Data-Spuren in Internet und Sozialen Medien auszuwerten, um uns auf die Schliche zu kommen.

Eine Frage bzw. die Antworten fand ich aus PLM-Sicht besonders interessant, weshalb ich sie hier wörtlich zitiere. Was wichtiger sei, die Anzahl der Produktideen oder die Qualität des Innovationsmanagements?

Müller: Unternehmen brauchen am Anfang des Innovationsprozesses, bevor sie über das Konzept sprechen, rund 1000 Ideen, damit überhaupt irgendwas dabei ist, was sich lohnt weiterzuentwickeln. Wenn diese erste Stufe, die mehr auf Quantität geht, durchlaufen ist, dann muss es in einem recht engen und strukturierten Innovationsprozess weitergehen, weil sonst noch viel mehr Fehler gemacht werden. Das heißt, die Qualität des Innovationsmanagements ist genau so wichtig wie die Breite der Ideen im Anfangsstadium.

Schroiff: […] ohne diese 1000 Ideen hätte man nicht die zehn, die am Ende des Tags das Zünglein an der Waage für den Erfolg sind. Es ist ganz wichtig, dass die Leute nicht denken, ich muss jetzt mal zehn gute Ideen bekommen. Nein. Sie brauchen diese 1000 Ideen und die müssen immer weiter geschmiedet werden. Es ist nicht richtig, einmal im Jahr eine Woche über Innovationen nachzudenken. Innovation ist jeden Tag. Wenn man das nicht lebt und als Kultur verankert, wird es schwierig mit kontinuierlichen Innovationen. Deshalb braucht man einen ständigen Nachstrom an Ideen, um sagen zu können, das machen wir nicht. (Quelle: Handelsblatt online, 28.10.2013)

Das heißt mit anderen Worten, dass die Unternehmen einerseits einen konstanten Strom von Ideen produzieren müssen, was in erster Linie eine Frage der Innovationskultur ist. Auf der anderen Seite müssen sie die Tausend Ideen erfassen, mit Blick auf ihre Innovationsstrategie bewerten und die richtigen zehn herausfiltern, um sie in (hoffentlich erfolgreiche) Innovationen umzusetzen. Dabei kann PLM wertvolle Hilfe leisten, vorausgesetzt die Lösung unterstützt den Innovationsprozess von der strategischen Produktplanung über die Konzeption bis zur Abwicklung von Entwicklungsprojekten durch ein leistungsfähiges Innovationsmanagement.

Nachweispflicht mit Nebenwirkungen

„Show me the evidence“ ist einer der Lieblingssätze, mit dem die Inspektoren der US Food & Drug Administration ihre Gesprächspartner in der Qualitätssicherung zum Schwitzen bringen, wenn sie Unternehmen der Medizintechnik-, Pharma- oder Lebensmittelindustrie visitieren. Im Unterschied zu unseren staatlich anerkannten Kontrolleuren, die sich ihre Aufsichtsdienste bezahlen lassen, ist die FDA eine vom amerikanischen Steuerzahler finanzierte US-Behörde mit Polizeigewalt. In den USA dürfen die Inspektoren sogar Waffen tragen – entsprechend selbstbewusst treten sie auf.

Während es bei der Zulassung von Pharmaka oder medizintechnischen Geräte vorrangig um die Produkteigenschaften geht, prüfen die Inspektoren von FDA und anderen Aufsichtsbehörden bei den Besuchen vor Ort, ob die Entwicklungs- und Fertigungsprozesse den common Good Manufacturing Practices (cGMP) entsprechen und keinen negativen Einfluss auf die Produktsicherheit haben können. Dabei verlassen sie sich nicht auf den Augenschein, sondern verlangen die Vorlage von Dokumenten. Was nicht aufgezeichnet ist kann auch nicht als Grundlage für die Auditierung dienen.

Mit freundlicher Genehmigung von adamr, www.FreeDigitalPhotos.net

Drei Trends führen dazu, dass das Volumen der vorzulegenden Dokumente in den letzten Jahren geradezu explodiert ist: Erstens werden die Produkte immer komplexer, gerade was ihre Schnittstellen zu anderen Systemen anbelangt; zweitens werden die Anforderungen der Aufsichtsbehörden von Jahr zu Jahr strenger. Und drittens wird die Normenlandschaft dadurch umfangreicher, dass Emerging Countries wie China anfangen, ihre eigenen Normen zu entwickeln, an die sich die Hersteller erst mal gewöhnen müssen.

Kürzlich war ich bei einem renommierten Medizintechnikhersteller, der vor wenigen Monaten eine neue Generation von Videoendoskopen vorgestellt hat. Die Dokumentation umfasst 35.000 Dateien oder 134 Papierordner – mehr als das Zehnfache dessen was noch für die Vorgängergeneration an Dokumenten vorgehalten werden musste. Wenn man sich vorstellt, dass die Dokumente bislang in einer filebasierten Ordnerstruktur verwaltet wurden, kann man sich den Aufwand für die Aufbereitung und Bereitstellung der Dokumentation leicht ausmalen. Die Ingeneure in Forschung & Entwicklung verbringen mehr Zeit damit, Dokumente zu erzeugen und zu pflegen als mit ihrer eigentlichen Entwicklungsarbeit.

Eine der größten Herausforderungen für das Unternehmen war und ist das Änderungsmanagement, da Artikelstammdaten, CAD-Dateien und Dokumente noch nicht alle miteinander verknüpft sind. Bei der Änderung eines Bauteils herauszufinden, in welchen Produkten es überall verbaut ist, ließ sich über das PDM- oder ERP-System noch bewerkstelligen. Aber zu wissen, welche Dokumente davon betroffen sind und vielleicht geändert werden müssen, war eine Detektivarbeit, die sehr viel Zeit und den Gehirnschmalz von erfahrenen Ingenieuren erforderte.

Die Integration von CAD-Daten- und Dokumentenmanagement in einer einheitlichen PLM-Lösung ist deshalb das O und O für eine effizientere Aufbereitung und Bereitstellung der Dokumentation und ihre Aktualisierung bei Änderungen. Nur wenn die Dokumente sauber klassifiziert und mit den Artikeln bzw. einer bestimmten Version verknüpft werden können, ist es möglich, sie zu bestimmten Zeitpunkten kontrolliert zusammenzuführen und bestimmte Reports zu generieren, beispielsweise für ein Audit.

Ein PLM-gestütztes Dokumentenmanagement ist das richtige Rezept für die Erfüllung der Nachweispflichten und die Optimierung anderer PLM-Prozesse, beispielsweise des Change-Managements. Es zu implementieren ist mit Aufwand verbunden – der betreffende Medizintechnikhersteller hat allein 220 verschiedene Dokumentenarten spezifiziert und in Vorlagen abgebildet. Der Aufwand verspricht allerdings riesige Rationalisierungseffekte wenn es gelingt, die erforderliche Dokumentation gewissermaßen auf Knopfdruck auszugeben.

Doch Vorsicht – Compliance ist rezeptpflichtig. Bei Risiken und Nebenwirkungen fragen Sie Ihren PLM-Hersteller.