Wenn einer eine Reise macht …

Image courtesy of Photokanok / FreeDigitalPhotos.net.
Image courtesy of Photokanok / FreeDigitalPhotos.net.

…dann kann er was erzählen. In einem aktuellen Beitrag im 2PLM Newsletter überträgt Scott Cleveland das Bild: „PLM is a … journey“. Das Bild passt, denn ehrlich gesagt, Durchmärsche bei der Umsetzung von PLM-Strategien sind mir nicht bekannt.  Scott dazu:

“PLM implementation is an on-going journey, not a destination. You can’t just install PLM and stop, you have to walk on.

Once implemented in a company, a PLM solution should function as intended. However, over time, the company will change. That means its requirements for PLM will change. And implementation will continue … [this] means you will have ongoing costs. But the rewards are there – I’ve often performed ROI analysis and the resulting ROI was always greater than 100%.”

Unsere Branche hat mit diesem Bild allerdings ihre Probleme, wenn Einkäufer Turn-Key und Festpreis lieber hören als alles andere. Ob die Baubranche nicht zum (schlechten) Vorbild wird, bei der sich unrealistisch knappe Kalkulationen und absehbare Nachtragsforderungen zu einer auf Dauer ungesunden Praxis mischen?

Dagegen helfen nur klare Ziele und Anforderungen oder bewährte Verfahren wie z.B. Prototyping, um diese festzulegen, meine ich. Gibt man beim Google Übersetzer „PLM is a journey“ ein, kommt raus: „PLM heißt Realismus und harte Arbeit. Aber die Aussicht lohnt sich“.

Soziale Netze und Big Data – ein PLM-Thema?

Viele Menschen nehmen fälschlicherweise an, im Internet sei alles gratis. Richtig ist, dass bezahlte Inhalte rar sind, weil kaum jemand bereit ist, für Informationen aus der Cloud zu zahlen. Stattdessen zahlen wir lieber mit Informationen über unsere Person, unsere Vorlieben und Interessen, unser Kaufverhalten etc, die wir bereitwillig auf Facebook & Co. posten, oft ohne uns bewusst zu sein, wie teuer uns das möglicherweise irgendwann mal zu stehen kommt. Dass die Suchbegriffe, die wir in Google eingeben, systematisch für Werbezwecke ausgewertet werden, ist nur die Spitze des Eisberges dessen, was mit “unseren” Daten so alles getrieben wird. In Ermangelung international einheitlicher Datenschutzbestimmungen ist der einzige Schutz, der uns bleibt, die schiere Menge an entstehenden Daten.

Image

Die Sozialen Netze leisten einen maßgeblichen Beitrag dazu, dass sich die Datenmenge seit dem Urknall des Internets mit der Geschwindigkeit des Universums ausbreitet. Das meiste davon ist Abraum, aber die Unternehmen haben den gigantischen Datenberg als Goldmine entdeckt. Big Data – die Auswertung von Unmengen an unstrukturierten Daten, um ein paar Goldkörnchen Information zu entdecken – ist eine der großen Herausforderungen für die IT-Organisation, wie Dr. Ralf Brunken, stellvertretender IT-Leiter des Vokswagen-Konzerns, neulich auf dem ProSTEP iViP-Symposium in Hannover sagt. Interessanterweise nannte er dabei Big Data in einem Atemzug mit Social Media. Mit Hilfe von Social Analytics-Verfahren will der Automobilbauer seine Kunden besser verstehen und mehr über ihre Wünsche in Erfahrung bringen.

Aus Sicherheitsgründen findet die Auswertung der Daten aus den Sozialen Netzen vor den Feuerschutztüren des Firmennetzes statt.  Die firmeninterne Nutzung von  Social Media-Plattformen mit dem Ziel, die Mitarbeiter über bestimmte Themen zu vernetzen, spielt bei Volkswagen noch eine untergeordnete Rolle. Dennoch stellt sich damit über kurz oder lang die Frage, was mit der wachsenden Menge an unstrukturierten Daten im Unternehmen geschehen soll, die Firmeninternas, schützenswertes Know-how und möglicherweise sogar Informationen enthalten können, die aus produkthaftungsrechtlichen Gründen aufbewahrt werden müssen. Prof. Rainer Stark vom Fraunhofer IPK Berlin brachte es auf dem Symposium in einem etwas anderen Zusammenhang auf den Punkt: Die PDM/PLM-Lösungen der Zukunft werden auch unstrukturierte Daten managen (müssen).

Eine andere Frage ist, wie die Anwender in den Unternehmen mit der Informationsflut und vor allem mit der wachsenden Zahl an Kommunikationskanälen umgehen. Die heranwachsende Generation der Digital Natives ist sicher mehrkanalfähig – meine neunjährige Tochter schaffte es neulich, gleichzeitig mit (meinem) iPad, Notebook und PSP herumzuspielen und nebenbei noch die Simpsons im Fernsehen zu verfolgen. Wir älteren Semester sind mit den vielen Kanälen leicht überfordert. Neulich suchte ich verzweifelt in meinen Emails, dann in den Facebook-, LinkedIn-, SMS- und WhatsApp-Benachrichtigungen nach einer Adresse, von der ich sicher wusste, dass ich sie erhalten hatte. Ich fand sie schließlich in den aufgezeichneten Chats in Sykpe.

Je mehr Kommunikationskanäle wir nutzen, desto länger suchen wir nach Informationen und desto größer die Gefahr, wichtige Informationen zu übersehen. Natürlich ist es möglich, die Informationen visuell in einem Dashboard oder Cockpit zusammenzuführen; dafür gibt es heute schon Lösungen. Die eigentliche Herausforderung besteht jedoch darin, mit Hilfe intelligenter Algorithmen Zusammenhänge zwischen zusammen gehörigen Informationen aufzuspüren, ohne die Strukturen explizit herstellen zu müssen. Da sind auch die PLM-Hersteller gefordert, wenn sie künftig großen Mengen an unstrukturierte Daten mit ihren Informationsmodellen verknüpfen wollen.

Requirements Engineering besser integrieren

Das Anforderungsmanagement ist nach einhelliger Auffassung von Praktikern und von Fachleuten aus Forschung und Lehre das A und O des Systems Engineerings (SE). Dabei ist es nicht damit getan, die Anforderungen am Anfang der Systementwicklung einmalig zu erfassen und zu bewerten – sie können sich im Laufe der Entwicklung nämlich verändern und müssen deshalb über ihren gesamten Lebenszyklus einem konsequenten Änderungsmanagement unterworfen werden. Aus diesem Grunde plädieren viele PLM-Hersteller für die Einbettung des Anforderungsmanagements in das Product Lifecycle Management (PLM) bzw. die entsprechenden PLM-Lösungen, mit denen die mechanischen und mechatronischen Komponenten verwaltet werden, die diese Anforderungen letztlich in entsprechende Funktionen umsetzen.

Das Plädoyer klingt plausibel, lässt sich in der Praxis aber nicht so einfach befolgen. Zunächst einmal sind die Menschen, die sich in den Unternehmen mit der Erfassung, Bewertung und Dokumentation von Systemanforderungen beschäftigen, ein besonderer Schlag, der mit PLM (noch?) nicht viel anzufangen weiß. Wer sie näher kennen lernen möchte, dem sei der Besuch der REConf empfohlen – der europaweit bedeutendsten Tagung zum Thema Requirements Engineering (RE). Sie fand neulich zum 12. Mal in München statt, ohne dass die PLM-Welt davon groß Notiz nahm. Zu meinem Erstaunen waren unter den immerhin 40 Ausstellern nur zwei namhafte PLM-Hersteller zu finden, von denen sich einer noch dazu als ALM-Anbieter (Application Lifecycle Management) präsentierte.

Zugegebenermaßen spielt das Thema Prozessintegration und PLM für die RE-Gemeinde derzeit noch eine untergeordnete Rolle. Sie hat andere Prioritäten: Erst einmal geht es darum, RE überhaupt nachhaltig in der Unternehmen zu verankern. Obwohl fast alle Unternehmen heute zumindest in ausgewählten Projekten RE anwenden und die Methode auf eine wachsende Akzeptanz stößt, ist sie in den meisten Fällen noch nicht genügend etabliert, wie eine Anwenderbefragung von REConf-Veranstalter HOOD ergeben hat. Zum Teil hängt das damit zusammen, dass das Management RE zwar gerne nachhaltig in der Organisation verankern würde, aber dafür kein zusätzliches Budget locker macht.

grafik_hood2Der Ruf nach mehr Integration wird jedoch auch in der RE-Gemeinde lauter. Die Anwender, die an der Befragung teilnahmen, sind mit ihren RE-Tools nicht immer zufrieden. Sie wünschen sich bessere Schnittstellen zu den Werkzeugen und Systemen anderer Disziplinen, insbesondere zum Testmanagement, aber auch zu klassischen PLM-Funktionsbereichen wie Änderungsmanagement, Projektmanagement oder Dokumentengenerierung. Viele dieser Schnittstellen würden sich erübrigen, wenn man die Anforderungen direkt im PLM-Kontext erfasste und dokumentierte, aber das würde die etablierte Tool-Landschaft ziemlich über den Haufen werfen.

Wie sieht diese Landschaft aus? Die meist genutzten Anwendungen für RE und Anforderungsmanagement sind immer noch Excel und andere MS Office-Anwendungen, dicht gefolgt von IBM DOORS. Sie leisten den Anwendern zwar gute Dienste, weisen aber gerade in punkto Datenbankintegration und Prozessunterstützung Schwächen auf. Das erschwert zugleich den Austausch von Anforderungen zwischen Entwicklungspartnern, noch dazu wenn sie andere RE-Tools einsetzen. Abhilfe soll jetzt der ReqIF-Standard schaffen, den einige Tool-Hersteller bereits implementiert haben und den auch die PLM-Anbieter nutzen können, um Anforderungen standardbasiert aus den RE-Werkzeugen zu importieren bzw. an sie zu exportieren.

Denn eins ist klar: PLM wird die bestehenden RE-Werkzeuge auf absehbare Zeit nicht ersetzten, sondern allenfalls ergänzen. Einkauf, Entwicklung und anderen Abteilungen haben unterschiedliche Sichten auf die Anforderungen und nutzen unterschiedliche Anwendungen, um diese Sichten darzustellen. Wichtig ist jedoch aus Prozesssicht, dass zumindest die kritischen Anforderungen in der PLM-Umgebung wandern, um sie dort mit anderen Objekten verknüpfen und ihre Änderungsgeschichte nachvollziehen zu können. Dafür müssen die PLM-Anbieter neben eigenen Anforderungsmanagement-Funktionen entsprechende Integrationen bereit stellen.