Wohin mit der Fertigungsstückliste?

In Fachkreisen wird seit einiger Zeit lebhaft darüber diskutiert, wo die Fertigungsstückliste eigentlich hingehört. Da diese Diskussion im wesentlichen auf Englisch geführt wird, ist allerdings meist von Manufacturing Bill of Material bzw. mBOM die Rede. Spontan würde man sagen, sie gehört ins ERP-System, weil das ERP-System – oft in Verbindung mit einem MES-System (Manufacturing Execution System) – die Fertigungsprozesse steuert und weil es das bevorzugte Werkzeug der Mitarbeiter im Unternehmen ist, die für die Steuerung dieser Prozesse verantwortlich sind. Aber die Sache ist nicht ganz so einfach.

Fertigungsstücklisten werden immer seltener von Hand im ERP-System angelegt. Meist sind sie das Ergebnis einer Produktstruktur, die im 3D-CAD-System wächst. Der PLM-Einsatz hat in vielen Unternehmen zu einem arbeitsteiligen Stücklistenmanagement geführt: Die Konstruktionsstückliste (Engineering Bill of Material oder kurz eBOM) wird im PLM-System angelegt und ab einem bestimmten Reifegrad an das ERP-System übergeben, um die mBOM abzuleiten. Je nach Prozess-Anforderungen wird sie im ERP-System nicht nur um Positionen wie den berühmten Tropfen Öl ergänzt, sondern sogar in ihrem Aufbau verändert.

wegweiser2
Mit freundlicher Genehmigung Stuart Miles, www.FreeDigitalPhotos.net

Die quasi automatische Erzeugung bzw. Ableitung der Stücklisten spart Zeit und vermeidet Fehleingaben. Bei technischen Änderungen verursachen die Unterschiede zwischen eBOM und mBOM jedoch einen erheblichen Aufwand für die Synchronisation der redundanten Stücklisten-Informationen in den verschiedenen IT-Systemen. Das umso mehr, wenn die eBOM auf mehrere, werkspezifische mBOMs abgebildet werden muss, weil ein und dasselbe Produkt an verschiedenen Standorten mit unterschiedlichen Zutaten und nach unterschiedlichen Rezepten produziert wird.

Der Leidensdruck bei der Stücklisten-Synchronisation ist nicht in allen Unternehmen gleich groß. Insbesondere Hersteller von komplexen Produkten mit langen Lebenszyklen, die viel Re-Engineering und Re-Konfiguration betreiben, beklagen sich oft über die mangelnde ERP-Unterstützung bei Änderungen an den Fertigungsstücklisten. Auch Unternehmen, die an ihren global verteilten Fertigungsstandorten separate ERP-Systeme oder -Instanzen nutzen, vermissen ein übergreifendes Stücklistenmanagement, um Änderungen schnell und sicher an die Werke kommunizieren zu können. Noch schwieriger ist die Synchronisation zwischen eBOM und mBOM, wenn sich die Entwicklung und Fertigung über eine lange Zulieferkette verteilen, was heute vielen Branchen der Fall ist.

Das arbeitsteilige Stücklistenmanagement wird deshalb zunehmend in Frage gestellt – bis hin zu der Überlegung, ein so genanntes Master Data Management (MDM) für die Verwaltung sämtlicher Stücklisten-Ausprägungen aufzusetzen. So charmant die Idee ist, ich glaube nicht, dass wir dafür ein neues IT-System brauchen. Die Frage, wo die Fertigungsstückliste hingehört, ist nämlich im Prinzip falsch gestellt. Natürlich gehört sie irgendwann ins ERP- oder auch ins MES-System, damit das Produkt gefertigt werden kann. Worum es eigentlich geht ist, die Anlage der Fertigungsstückliste(n) und die Synchronisation zwischen mBOM und eBOM in einem System zusammenzuführen, das in der Lage ist, mehrere Stücklisten-Sichten zu verwalten und zu synchronisieren, um den Abstimmungsaufwand zu minimieren.

Meines Erachtens ist das keine Frage der Ideologie, sondern eine ganz pragmatische Entscheidung, die das Unternehmen entsprechend seiner Anforderungen und seiner IT-Landschaft fällen sollte. Wenn das ERP-System die Abbildung unterschiedlicher Sichten nicht oder nur ungenügend unterstützt, das PLM-System aber entsprechende Funktionen bietet, dann spricht nichts dagegen, die Hoheit über die Fertigungsstückliste an das PLM-System zu übertragen. Im Gegenteil, es spricht sogar einiges dafür – zum Beispiel die Möglichkeit, eBOM und mBOM im PLM auch mit der Service-Stückliste zu synchronisieren, die wieder ganz anders aufgebaut sein kann.

Hindernisse im PLM-Parcour

In diesem Sommer habe ich Irland wieder entdeckt, wo ich das letzte Mal vor über 15 Jahren war. Vieles hat sich seitdem verändert, nur die Infrastruktur scheint in vielen Gegenden so unberührt geblieben zu sein wie die herrlich grüne Natur: Man fährt mit viel zu breiten Autos über viel zu schmale Straßen vorbei an viel zu vielen Schafen – und das auch noch auf der “falschen” Seite. Dass da der Verkehrsfluss öfter mal stockt, nimmt nicht wunder.

PLMparcour
Connemara-Pony müsste man sein! Im PLM-Parcour sind viele Hindernisse zu überspringen. (Bild: Wendenburg)

Das irische Straßen-Bild kam mir in den Sinn, als ich den Accenture-Survey über PLM in der Luftfahrt und Wehrtechnik las (zugegeben, ich war noch halb im Urlaubsmodus): Ausgedehnte IT-Landschaften mit schlechten Verbindungen, über die Informationen langsam und oft nur in eine Richtung fließen. Die befragten Führungskräfte betrachten PLM zwar als wesentlich für Effizienzsteigerungen im Produktlebenszyklus, sind aber mit dem Nutzen ihrer bisherigen PLM-Investitionen nicht zufrieden. Ich denke, dass sich die Ergebnisse auch auf andere Branchen übertragen lassen.

Die Unternehmen der Luftfahrt und Wehrtechnik würden das PLM-Potenzial gerne nutzen, um ihre Umsätze deutlich zu steigern und ihre Kosten zu senken, stoßen aber dabei auf eine Vielzahl von Hindernissen: Handlungsbedarf besteht vor allem bei der Integration zwischen PLM und der Fertigung sowie bei der Kollaboration mit der Zulieferkette, aber auch bei der Zusammenarbeit zwischen Engineering und Service. Statt in die Tiefe der PLM-Funktionalität, sollten Unternehmen laut Accenture lieber in die Breite einer Prozessintegration investieren.

Die Führungskräfte sind sich der Schwachstellen bewusst. Immerhin 94 Prozent der Befragten gaben an, dass die Fertigung von einer besseren Integration mit der Produktentwicklung profitieren würde und die meisten von ihnen planen entsprechende Investitionen. Die Studie zeigt verschiedene Handlungsfelder auf: Companies’ responses show significant discrepancies between expected benefits of integrating product development and manufacturing, and satisfaction with today’s performance. Similar gaps are seen across the bill of materials, efficiency and control of change orders, graphical work instructions and process plans.”

Eine wesentliche Erkenntnis der Studie ist, dass die Unternehmen zu wenig Nutzen aus den PLM-Daten ziehen. Das gilt sowohl für den Umfang an Daten, die anderen Funktionen und Prozessen bereit gestellt werden, als auch für die Informationen, die sie aus diesen Daten ziehen. Ein Großteil der Befragten gab an, Analytik- und Business-Intelligence-Funktionen anzuwenden oder anwenden zu wollen, um die Nutzung der Produktdaten zu verbreitern und bessere Entscheidungen treffen zu können. Accenture zufolge werden wir in der nächsten Zeit deshalb vermehr Einführungen von entsprechenden Analytik-Werkzeugen sehen.

Um den Nutzen ihrer PLM-Investitionen zu verbessern, werden die Unternehmen weiterhin in PLM investieren (müssen) – allerdings wird sich der Fokus in den nächsten Jahren verschieben. Während zum Beispiel die Investitionen in Projekt- und Programm-Management-Funktionen deutlich sinken sollen, werden die Unternehmen weiterhin massiv in das Konfigurationsmanagement investieren. Davon werden PLM-Hersteller profitieren, die sich seit Jahren intensiv mit dem Thema beschäftigen – vorausgesetzt sie schaffen es, eine wesentliche Anforderung zu erfüllen: Die Komplexität des Konfigurationsmanagements zu reduzieren!

Qualitätsmanagement als Sisyphosarbeit

Qualitätsmanagement ist eine Sisyphosarbeit, bei der man nie wirklich am Ziel ankommt. Irgendwann fällt einem der Felsblock wieder vor die Füße. Davon kann der japanische Automobilhersteller Toyota ein (Klage-)Lied singen – ein richtiges sogar; nix mit Karaoke. Obwohl die Japaner das Qualitätsmanagement quasi erfunden haben, produzieren sie in letzter Zeit Rückruf-Aktionen in Serie.

Ein klarer Fall für CAPA (Corrective And Preventive Action) möchte man spotten: Aus den Fehlern der Japaner lernen, um sie in Zukunft zu vermeiden. Schadenfreude ist jedoch fehl am Platze: Erst Ende letzten Jahres musste der Volkswagen-Konzern in einer der größten Rückrufaktionen der Unternehmensgeschichte 2,6 Millionen Fahrzeuge wegen eines drohenden Getriebeschadens und Problemen mit dem Lichtsystem in die Werkstätten beordern. Betroffen war vor allem der chinesische Markt, wo die Fahrzeuge bei schwülen Temperaturen länger als anderswo im Stau stehen.

Toyoda Sakichi, König der japanischen Erfinder und Vater des Gründers von Automobilhersteller Toyota. Bild: Toyota
Toyoda Sakichi, König der japanischen Erfinder und Vater des Gründers von Automobilhersteller Toyota. Bild: Toyota

Das Toyota-Produktionssystem, das auf die Maximierung der Kundenzufriedenheit bei Qualität, Lieferzeit und Kosten ausgerichtet ist, war lange Zeit und ist immer noch Vorbild für ein erfolgreiches Qualitätsmanagement. Ganze Bücher wurden über den Toyota Way geschrieben. Eine seiner Grundlagen ist das von Toyoda Sakichi, dem Vater des Firmengründers, Anfang des 20. Jahrhunderts entwickelte Jidöka-Prinzip der autonomen Automatisierung. Es sieht die Kontrolle der gefertigten Materialien während des laufenden Produktionsprozesses vor, und zwar durch Komponenten und Funktionen der Maschinen (Webstühle), die es erlauben, Abweichungen vom Normalzustand selbsttätig zu erkennen.

Das muss man sich mal vorstellen: Die revolutionäre Idee von Industrie 4.0 wurde nicht etwa in Deutschland, sondern in Japan geboren, und das vor über 100 Jahren, während der zweiten industriellen Revolution. Arigatou! Toyoda-san, möchte man mit höflicher Verneigung Richtung aufgehender Sonne sagen.

Aber zurück zu unserem eigentlichen Thema. Toyoda Sakichi verdanken wir das Prinzip der prozessbegleitenden Qualitätssicherung und damit zugleich die Einsicht, dass es effizienter ist, die Produktqualität über gute Prozesse sicherzustellen als durch nachträgliche Kontrollen. Das bedeutet, dass Qualitätsmanagement nicht nur die Qualität des Produkts, sondern auch die der produkt-relevanten Prozesse im Blick hat. Allerdings war diese Prozesssicht zunächst noch sehr stark auf die Optimierung der Fertigung fokussiert.

Inzwischen hat sich die Erkenntnis durchgesetzt, dass Qualitätsmanagement dort ansetzen muss, wo 70 bis 80 der Kosten des späteren Produkts und damit auch die Kosten für die Beseitigung von Fehlern definiert werden: In der Produktentwicklung. Oder um genauer zu sein: In der Konzeptphase, in der die Qualitätsmerkmale des Produkts festgelegt und die Produktionsprozesse, das heißt das Zusammenspiel von Maschinen, Anlagen, Betriebsmitteln und Automatisierungstechnik für ihre Herstellung konzipiert werden. Dafür steht das Konzept der Advanced Product Quality Planning (APQP) und die dazu gehörigen Methoden zur Analyse möglicher Fehler im Prozess und ihrer Eintrittswahrscheinlichkeit (FMEA).

Die besten Konzepte der Qualitätsvorausplanung nützen allerdings nichts, wenn die Planungsergebnisse im laufenden Entwicklungsprozess nicht durch entsprechende Reifeprüfungen regelmäßig abgesichert werden. Das Qualitätsmanagement kann deshalb nicht allein Aufgabe der Qualitätssicherung sein, sondern betrifft alle Disziplinen, die in den Produktentstehungsprozess involviert sind. Das bedeutet aber auch, dass die Werkzeuge und Methoden für das Qualitäts- und Risikomanagement in die IT-Lösungen zur Steuerung des Produktlebenszyklus integriert werden müssen.

Quality Lifecycle Management (QLM) sei einer der neuen Zuständigkeitsbereiche von PLM, schrieb Jim Brown von Tech Clarity schon vor Jahren in einem Blog-Beitrag, um gleich einzuschränken, dass die meisten PLM-Lösungen dafür funktional noch nicht reif seien. Das sollte sich inzwischen geändert haben. Schließlich muss die Befriedigung der Kundenbedürfnisse auch für Software-Hersteller das oberste Ziel des Qualitätsmanagements sein.

Industrie 4.0 braucht smarte Produkte

Die vierte industrielle Revolution kann die Produktivität der deutschen Wirtschaft bis zum Jahr 2025 um mindestens 78 Milliarden Euro steigern. Das behauptet eine Untersuchung, die das Fraunhofer IAO im Auftrag des Hightech-Verbands BITKOM durchgeführt hat (als PDF downloaden). Die Betonung liegt auf dem Wörtchen “kann”: Es handelt sich nicht um eine statistisch abgesicherte Prognose, sondern um die Einschätzung des Wachstumspotentials in ausgewählten Branchen durch verschiedene Branchenexperten.

Für die erfolgreiche Umsetzung von Industrie 4.0 müssen eine Reihe von Voraussetzungen technischer, organisatorischer und normativer Natur gegeben sein – so die Studie. Eine Revolution, die Normen voraussetzt, statt sie außer Kraft zu setzen? Das ist wieder mal typisch deutsch, möchte man spotten. Kein Wunder, dass hierzulande noch jede Revolution gescheitert ist, geschweige denn dass wir je eine Revolution erfolgreich exportiert hätten. Wir erlauben Revolutionären allenfalls die Durchreise in plombierten Waggons, damit sie andernorts umstürzlerisch tätig werden. Und dass sich Angela Merkel als deutsche Jeanne d’ Arc an die Spitze dieser Umsturzbewegung stellt, entbehrt nicht einer gewissen Komik. Das ist ungefähr so als wäre Louis XVI im Juli 1789 auf den Balkon von Versailles getreten und hätte zum Sturm auf die Bastille aufgerufen.

Quelle: Abschlussbericht des Arbeitskreises Industrie 4.0 von acatech – Deutsche Akademie der Technikwissenschaften e.V.

Wenn ich, was die Erfolgsaussichten von Industrie 4.0 anbelangt, skeptisch bin, dann aber aus einem anderen Grund: Das von der Bundesregierung initiierte Zukunftsprojekt oder das, was davon bislang an die Öffentlichkeit dringt, ist für meinen Geschmack viel zu einseitig auf die Produktion d.h. die intelligente Vernetzung der Fertigungs- und Logistikprozesse fokussiert. Da sind wir in Deutschland eigentlich ganz gut aufgestellt. Die intelligente Fabrik ist zweifellos wichtig, weil wir aufgrund der Individualisierung unserer Produkte bei kleiner werdenden Stückzahlen hohe Anforderungen an die Flexibilisierung der Produktionsprozesse haben. Aber sie reicht nicht aus. Was nutzt uns eine noch so intelligente Fabrik, wenn wir darin dumme Produkte fertigen, die keiner mehr haben will?

Prof. Martin Eigner, einer der Autoren des bei acatech veröffentlichten Diskussionspapiers zum Thema Smart Engineering (als PDF downloaden), hat das in einem Gespräch am Rande des ProSTEP iViP-Symposiums neulich auf den Punkt gebracht: “Ohne intelligente Produkte gibt es keine Industrie 4.0. Unser Problem in Deutschland ist nicht die Fertigung, sondern dass wir dafür neue Produkte und Geschäftsmodelle generieren müssen.”

Um Missverständnissen vorzubeugen: Ich finde es begrüßenswert, dass die vierte industrielle Revolution mit Forschungsgeldern in Milliardenhöhe gefördert wird. Nur befürchte ich, dass viele dieser Gelder in die falschen Projekte investiert werden. Industrie 4.0 tut nämlich den zweiten Schritt vor dem ersten: Bevor wir uns darüber Gedanken machen, wie sich Produkte intelligenter fertigen lassen, sollten wir uns erst einmal überlegen, wie wir es schaffen, smartere Produkte zu entwickeln. Produkte, die über das Internet of Things (IoT) miteinander kommunizieren und dadurch neue Dienstleistungsangebote und Geschäftsmodelle ermöglichen. Das ist der Denkansatz, den die Amerikaner verfolgen. Mit wie viel Intelligenz diese smarten Produkte dann gefertigt werden, wird auch davon abhängen, wo auf der Welt die Fertigung angesiedelt ist. Ich glaube nämlich nicht, dass es uns dank noch so intelligenter Fabriken gelingen wird, beispielsweise die Handy-Fertigung nach Europa zu holen. Je mehr Varianz in einem Produkt über die Software abgebildet werden kann, desto einfacher lassen sich die mechanischen Komponenten in Großserie fertigen und montieren. Und dafür muss eine Fabrik nicht besonders schlau sein.

Das IoT bedeutet eine große Herausforderung für die Innovationsfähigkeit der Unternehmen. Sie müssen in der Lage sein, komplexe mechatronische Systeme zu entwickeln, die über das Internet miteinander kommunizieren. Und sie müssen diese cyberphysischen Systeme um innovative Dienstleistungen ergänzen, die gegebenenfalls ihre bestehenden Geschäftsmodelle in Frage stellen. Dafür benötigen sie einerseits leistungsfähige Werkzeuge und Methoden für die interdisziplinäre Produktenwicklung und für ein systematisches Innovationsmanagement; andererseits müssen sie ihre Innovations- und Entwicklungsprozesse neu strukturieren.

Wenn die vierte industrielle Revolution nicht im Engineering ansetzt, wo meines Erachtens der größere Handlungsbedarf besteht, ist sie zum Scheitern verurteilt. Dann wird Industrie 4.0 ebenso schnell wieder vergessen sein wie die selige CIM-Philosophie vor 30 Jahren. Hier für Nostalgiker zur Erinnerung noch mal die CIM-Definition der Society of Manufacturing Engineers (SME): CIM is the integration of total manufacturing enterprise by using integrated systems and data communication coupled with new managerial philosophies that improve organizational and personnel efficiency. Das ist nicht weit von der Idee der digitalen Fabrik entfernt. Nur dass es das Internet als Plattform für ihre Vernetzung damals noch nicht gab. Aber genau wie damals fehlen auch heute wieder die Standards. Ohne solche Standards – so die eingangs erwähnte BITKOM-Studie – ist die freie, problemlose Austauschbarkeit von Industrie 4.0-Komponenten nach dem Prinzip des “Plug and Produce” nicht denkbar.

Hintertürchen zur Collaboration

Engineering Collaboration, die Zusammenarbeit von Unternehmen bei der Produktentwicklung, ist eigentlich nichts Neues. Es gibt das Thema schon solange wie es das Outsourcing gibt. Umso verwunderlicher ist, dass die wesentliche Herausforderung bei der Collaboration immer noch einer Lösung harrt: Die Einbettung der unternehmensübergreifenden Austausch- und Abstimmungsprozesse in die PDM/PLM-Lösungen, mit denen die Produktentwicklung in den Unternehmen gesteuert wird.

An fehlenden Tools liegt es wahrlich nicht – im Gegenteil: die Landschaft der Collaboration-Anwendungen ist dank Cloud und Social Media eher noch bunter geworden. Das eigentliche Problem ist die Integration dieser Tools in die IT-Infrastrukturen und Geschäftsprozesse des jeweiligen Unternehmens. Aus Sicherheitsgründen scheuen

PLM_portal
Mit freundlicher Genehmigung Gualberto107 / FreeDigitalPhotos.net

 die IT-Spezialisten davor zurück, ihre Enterprise Anwendungen nach außen zu öffnen. Das führt oft zu der absurden Situation, dass Daten und Know-how im Unternehmen bombensicher sind, dann aber schnell mal per Email ausgetauscht werden, weil die Ingenieure ja irgendwie ihre Entwicklungsarbeit erledigen müssen. Und die verteilt sich heute nun mal über eine immer längere Supply Chain. Selbst in der sicherheitsbewussten Automobilindustrie tauschen 45 Prozent der Unternehmen ihre Produktdaten mit Auftraggebern und Zulieferern noch vorwiegend per Email aus. Da reiben sich neugierige Nachrichtendienste und andere Datenpiraten freudig die Hände.

In Anbetracht der Tatsache, dass die Collaboration weiter zunimmt und immer globalere Züge annimmt, ist es vielleicht an der Zeit, mal über eine Neugewichtung nachzudenken. Das heißt mit anderen Worten: auf das letzte Quäntchen an innerer Sicherheit zu verzichten, indem man die PLM-Lösung gezielt für den Zugriff von außen öffnet, um dadurch Datensicherheit und Know-how-Schutz bei der Zusammenarbeit mit externen Partnern zu steigern. Insgesamt würde sich die Sicherheitsbilanz bei der verteilten Produktentwicklung dadurch spürbar verbessern. Man muss ja nicht gleich ein großes Portal aufreißen – mit einem Hintertürchen wäre den Projektverantwortlichen manchmal schon gedient.

Eine wesentliche Anforderung an eine solche Collaboration-Lösung ist, dass sie sowohl für die Auftraggeber, als auch für ihre Zulieferer von Nutzen ist. Allzu oft wurden in der Vergangenheit gerade im Automotive-Umfeld Lösungen implementiert, die die Last der Datenkommunikation einseitig den Partnern aufbürdete. Sie mussten für jeden Auftraggeber eine andere Anwendung implementieren und betreiben – oft ohne Integration in ihre Backend-Systeme. Die Daten wurden weitgehend von Hand in die Auftraggeber-Systeme eingepflegt.

Ganz wichtig ist natürlich auch, dass die Lösung unterschiedliche Szenarien der Zusammenarbeit unterstützt. Die Anforderungen bei einem Standardprozess wie zum Beispiel der Angebotseinholung (Request for Quotation) sind andere als bei einem gemeinsamen Entwicklungsprojekt, bei dem die Partner ihre Dateien idealerweise in eine gemeinsame Projektablage einstellen und dadurch die Arbeitsfortschritte online verfolgen. Asynchrone Workflows bieten die Möglichkeit, den Umfang an bereit gestellten Daten und PLM-Funktionen gezielt auf die Empfänger zuzuschneiden. Sie sind gewissermaßen das Hintertürchen der Collaboration, das man dann schrittweise zu einem Portal für die synchrone Zusammenarbeit bei Entwicklungsprojekten ausbauen kann.

Neue Servicekonzepte braucht die Bahn

In den letzten Wochen habe ich in Deutschland Urlaub gemacht – jawohl, das kann man, ohne vom Wetter reden zu müssen, was prächtig war. Es gibt ja auch spannendere Themen: Alle reden von der Deutschen Bahn, die sich zum Sinnbild für die neuen deutschen Untugenden entwickelt: Fortwährende Unpünktlichkeit, technische Unzuverlässigkeit und mangelnde Servicefreundlichkeit. Gut, letztere ist keine besonders neue Untugend und auch keine Erfindung der Bahn.

Ich war viel mit dem Zug unterwegs, mit Kindern und großem Gepäck, was der Urlaubslaune nicht immer zuträglich war, obwohl wir das Stellwerk Mainz weiträumig umfuhren. Verspätungen, verpasste Anschlusszüge, Zugausfälle – das ganze Programm an Foltermaßnahmen, mit dem die Bahn ihre Kunden tagtäglich malträtiert. Und weit und breit kein Kundendienstmitarbeiter zu sehen, der einem erklärt, wie man wenigstens das zum Fenster rausgeworfene Geld für die Sitzplatzreservierung wieder bekommt. Einziger Bahnbonuspunkt: Kinder in Begleitung der Eltern fahren auf den meisten Strecken umsonst, was ich nett von der Bahn finde. Erfreulich auch, dass die meisten Menschen mit undeutscher Gelassenheit auf die Pannen bei der Bahn reagieren. Nur ausländische Urlauber verstehen die Welt nicht mehr.

Image
By Courtesy of Kenneth Cratty, www.FreeDigitalPhotos.net

Während sich die Personalsituation  im Stellwerk Mainz nach Sommerurlaub und Sommergrippe wieder normalisieren dürfte, geben die vielen technischen Pannen zu denken, besonders wenn man mit 300 Stundenkilometern über die Schnellbahntrasse zwischen Köln und Mannheim saust. Man hat nicht gerade den Eindruck, dass die Bahn ein proaktives Servicekonzept verfolgt, das heißt Servicefälle durch vorbeugende Wartungsmaßnahmen zu vermeiden versucht. Sie reagiert auf Störungen, und das meistens zu spät.

Vielleicht sollten sich die Bahn und ihre Systemlieferanten mal ein Beispiel an der Japanische Staatsbahn nehmen, die bei ihren Zügen ein Konzept der Nullstillstandswartung verfolgt. Das bedeutet, dass die Züge im laufenden Betrieb gewartet werden und sich natürlich auch warten lassen müssen. Die konsequente Auswertung der Servicehistorie und ein permanentes Monitoring von Loks und Zügen schützt die japanischen Wartungstechniker vor unliebsamen Überraschungen – und das mit Erfolg: Verspätungen von mehr als 30 Minuten kommen bei Japan Railways so selten vor, dass sie Thema in den Nachrichten sind. Davon wagt man in Deutschland nicht mal zu träumen.

Softwaretechnisch sind solche proaktiven Servicekonzepte, die nicht nur die Bahn gut zu Gesicht stünden, dank der Vernetzung intelligenter Systeme über das Internet der Dinge viel leichter umsetzbar als noch vor ein paar Jahren. Voraussetzung dafür ist aber auch die Optimierung der Serviceprozesse, die in vielen Unternehmen immer noch recht hemdsärmelig organisiert sind. Sie betrachten den Service als notweniges Übel, statt ihn als Quelle zusätzlicher Einnahmen zu begreifen, was natürlich auch bedeuten würde, dass sie die Serviceleistungen zusammen mit den Produkten entwickeln müssten. Davon ist man jedoch noch weit entfernt: Produktentwicklung und Service führen in den meisten Unternehmen ein ausgeprägtes Eigenleben.

Die zunehmende Bedeutung des Serviceangebots für den Markterfolg der Produkte spricht dafür, Entwicklungs- und Serviceprozesse enger zu verzahnen. Grundlage dafür ist ein integriertes Produkt- und Service-Lifecycle-Management, das es beispielsweise erlaubt, Informationen über gehäuft auftretende Servicefälle in Form von Änderungen in die laufende Entwicklung einzusteuern. Für die PDM/PLM-Hersteller bedeutet das, dass sie ihre Lösungen entweder um zusätzliche Werkzeuge ergänzen oder aber Schnittstellen zu gängigen Serviceanwendungen schaffen müssen. Das werden sie allerdings nur tun, wenn ihre Kunden entscheiden, Entwicklung und Service endlich IT-technisch zu verheiraten.

Agentenklamauk mit ernstem Hintergrund

David John Moore Cornwell, besser bekannt als John le Carré, hätte die Geschichte nicht besser erfunden. Die Enthüllungen des milchgesichtigen Systemadministrators Edward  John Snowden entwickeln sich zum amüsantesten Agententhriller seit der Filmkomödie Charade, die vor ziemlich genau 50 Jahren gedreht wurde – wir erinnern uns: mit Walter Matthau als falschem CIA-Mann. Einzig die National Security Agency (NSA), Amerikas größter und am besten ausgestatteter Militärnachrichtendienst, ist verständlicherweise not amused.

Aus der Geschichte des Whistleblowers (auf gut Deutsch Verpfeifers) und seiner witzigen Verfolgungsjagd mit Zwischenstopp auf dem Flughafen des ehemaligen Erzfeinds lassen sich eine Reihe von ernsten Lehren ziehen. Zunächst einmal die, dass man mit Freunden wie den Amerikanern eigentlich keine Feinde mehr braucht. Unter dem Vorwand, Terroristen zu jagen, spähen sie klammheimlich ihre Verbündeten aus, und das so systematisch, dass jeder chinesische Industriespion vor Neid erblassen muss. Anders ist nicht zu erklären, dass die Datenspione der NSA in Europas vor allem Deutschland im Visier hatten.

PLMvertraulich
Mit freundlicher Genehmigung von Naypong auf FreeDigitalFotos.net

Zweitens beweisen unsere europäischen Politiker einmal mehr, dass sie etwa so viel Rückrat wie ein Weichtier aus dem jüngeren Pleistozän haben. Selbst unsere eiserne Lady Angela Merkel ist merkwürdig kleinlaut, wenn es darum geht, Stellung zu der massiven Ausspähung zu beziehen. Was muss eigentlich noch geschehen, bevor jemand den amerikanischen Botschafter einbestellt, um ihm eine offizielle Protestnote zu übergeben? Die einzige Erklärung für die Funkstille ist, dass unsere Geheimen von Militärischem Abschirmdienst und Co. mit den amerikanischen Diensten traulich vertraulich im selben Glashaus sitzen, so dass sich keiner traut, den Stein zu werfen.

Die dritte und vielleicht wichtigste Lehre lautet, dass unsere sensiblen Daten nirgendwo so verletzlich sind wie auf dem Transportweg durch die weltweiten Datennetze. Das ist wahrlich keine neue Erkenntnis. Aber wenn irgendein innovatives deutsches Unternehmen mal die verrückte Idee gehabt haben sollte, sein intellektuelles Eigentum in die Cloud zu schicken und das auch noch bei einem amerikanischen Wolkenschieber, dann dürfte sich das Thema erst einmal erledigt haben. Die NSA hat den Anbietern von Cloud-basierten CAD- und PLM-Lösungen einen wahren Bärendienst erwiesen.

Auch die vierte Erkenntnis ist nicht wirklich neu: Der größte Risikofaktor für die Datensicherheit ist der Mensch. Nicht der normale Anwender, der regelmäßig sein Passwort vergisst und es deshalb auf einen Klebezettel an den Bildschirm heftet, sondern der Herr über alle Passwörter. Edward Snowden wird in der Presse immer als Geheimdienstmitarbeiter bezeichnet, was er eigentlich nicht war. Er arbeitete vielmehr als Systemadministrator bei der Beratungsfirma Booz Allen Hamilton, das heißt einem externen Dienstleister, der im Auftrag der NSA an der Datenüberwachung beteiligt war. Dank seiner Tätigkeit konnte er sich Zugang zu geheimen Informationen verschaffen, die selbst für einen Meisterspion schwer zu hacken gewesen wären.

Interessanterweise beschäftigte sich der erste Artikel, den ich vor ein paar Wochen in den USA über den Fall Snowden las, nicht so sehr mit dem Skandal als solchen, sondern mit der Frage, wie dem geheimsten aller Geheimdienste seine Geheimnisse abhanden kommen konnten und wie man sich gegen solche Leaks schützt. Ausgerechnet die IT, die sich um die Datensicherheit kümmert, ist gerade in Unternehmen mit global verteilten Standorten ihre größte Achillesferse, weil die Systemadministratoren vor Ort direkt auf die Datenbanken zugreifen und geschützte Informationen abgreifen können. Da nützen dann auch die besten Rollen- und Rechtekonzepte im PLM-System nichts.

Die Unternehmen sind sich dieser Problematik durchaus bewusst. Neulich besuchte ich einen renommierten Automobilzulieferer, der in der frühen Entwurfsphase eng mit OEM-Kunden zusammenarbeitet und deshalb bei der Datenkommunikation hohe Sicherheitsanforderungen erfüllen muss. Die Firma entwickelt weltweit an elf Standorten, die zum Teil gemeinsam an Projekten arbeiten. Um das Risiko der Industriespionage so gering wie möglich zu halten, werden nur die gemeinsam genutzten Daten an andere Standorte repliziert und auch nur dann, wenn der Anwender die entsprechende Berechtigung hat. “Nichts ist gefährlicher für die Datensicherheit als ein frustrierter Mitarbeiter”, meinte mein Gesprächspartner. Als Systemadministrator wusste er wovon er sprach.

Soziale Netze und Big Data – ein PLM-Thema?

Viele Menschen nehmen fälschlicherweise an, im Internet sei alles gratis. Richtig ist, dass bezahlte Inhalte rar sind, weil kaum jemand bereit ist, für Informationen aus der Cloud zu zahlen. Stattdessen zahlen wir lieber mit Informationen über unsere Person, unsere Vorlieben und Interessen, unser Kaufverhalten etc, die wir bereitwillig auf Facebook & Co. posten, oft ohne uns bewusst zu sein, wie teuer uns das möglicherweise irgendwann mal zu stehen kommt. Dass die Suchbegriffe, die wir in Google eingeben, systematisch für Werbezwecke ausgewertet werden, ist nur die Spitze des Eisberges dessen, was mit “unseren” Daten so alles getrieben wird. In Ermangelung international einheitlicher Datenschutzbestimmungen ist der einzige Schutz, der uns bleibt, die schiere Menge an entstehenden Daten.

Image

Die Sozialen Netze leisten einen maßgeblichen Beitrag dazu, dass sich die Datenmenge seit dem Urknall des Internets mit der Geschwindigkeit des Universums ausbreitet. Das meiste davon ist Abraum, aber die Unternehmen haben den gigantischen Datenberg als Goldmine entdeckt. Big Data – die Auswertung von Unmengen an unstrukturierten Daten, um ein paar Goldkörnchen Information zu entdecken – ist eine der großen Herausforderungen für die IT-Organisation, wie Dr. Ralf Brunken, stellvertretender IT-Leiter des Vokswagen-Konzerns, neulich auf dem ProSTEP iViP-Symposium in Hannover sagt. Interessanterweise nannte er dabei Big Data in einem Atemzug mit Social Media. Mit Hilfe von Social Analytics-Verfahren will der Automobilbauer seine Kunden besser verstehen und mehr über ihre Wünsche in Erfahrung bringen.

Aus Sicherheitsgründen findet die Auswertung der Daten aus den Sozialen Netzen vor den Feuerschutztüren des Firmennetzes statt.  Die firmeninterne Nutzung von  Social Media-Plattformen mit dem Ziel, die Mitarbeiter über bestimmte Themen zu vernetzen, spielt bei Volkswagen noch eine untergeordnete Rolle. Dennoch stellt sich damit über kurz oder lang die Frage, was mit der wachsenden Menge an unstrukturierten Daten im Unternehmen geschehen soll, die Firmeninternas, schützenswertes Know-how und möglicherweise sogar Informationen enthalten können, die aus produkthaftungsrechtlichen Gründen aufbewahrt werden müssen. Prof. Rainer Stark vom Fraunhofer IPK Berlin brachte es auf dem Symposium in einem etwas anderen Zusammenhang auf den Punkt: Die PDM/PLM-Lösungen der Zukunft werden auch unstrukturierte Daten managen (müssen).

Eine andere Frage ist, wie die Anwender in den Unternehmen mit der Informationsflut und vor allem mit der wachsenden Zahl an Kommunikationskanälen umgehen. Die heranwachsende Generation der Digital Natives ist sicher mehrkanalfähig – meine neunjährige Tochter schaffte es neulich, gleichzeitig mit (meinem) iPad, Notebook und PSP herumzuspielen und nebenbei noch die Simpsons im Fernsehen zu verfolgen. Wir älteren Semester sind mit den vielen Kanälen leicht überfordert. Neulich suchte ich verzweifelt in meinen Emails, dann in den Facebook-, LinkedIn-, SMS- und WhatsApp-Benachrichtigungen nach einer Adresse, von der ich sicher wusste, dass ich sie erhalten hatte. Ich fand sie schließlich in den aufgezeichneten Chats in Sykpe.

Je mehr Kommunikationskanäle wir nutzen, desto länger suchen wir nach Informationen und desto größer die Gefahr, wichtige Informationen zu übersehen. Natürlich ist es möglich, die Informationen visuell in einem Dashboard oder Cockpit zusammenzuführen; dafür gibt es heute schon Lösungen. Die eigentliche Herausforderung besteht jedoch darin, mit Hilfe intelligenter Algorithmen Zusammenhänge zwischen zusammen gehörigen Informationen aufzuspüren, ohne die Strukturen explizit herstellen zu müssen. Da sind auch die PLM-Hersteller gefordert, wenn sie künftig großen Mengen an unstrukturierte Daten mit ihren Informationsmodellen verknüpfen wollen.

Requirements Engineering besser integrieren

Das Anforderungsmanagement ist nach einhelliger Auffassung von Praktikern und von Fachleuten aus Forschung und Lehre das A und O des Systems Engineerings (SE). Dabei ist es nicht damit getan, die Anforderungen am Anfang der Systementwicklung einmalig zu erfassen und zu bewerten – sie können sich im Laufe der Entwicklung nämlich verändern und müssen deshalb über ihren gesamten Lebenszyklus einem konsequenten Änderungsmanagement unterworfen werden. Aus diesem Grunde plädieren viele PLM-Hersteller für die Einbettung des Anforderungsmanagements in das Product Lifecycle Management (PLM) bzw. die entsprechenden PLM-Lösungen, mit denen die mechanischen und mechatronischen Komponenten verwaltet werden, die diese Anforderungen letztlich in entsprechende Funktionen umsetzen.

Das Plädoyer klingt plausibel, lässt sich in der Praxis aber nicht so einfach befolgen. Zunächst einmal sind die Menschen, die sich in den Unternehmen mit der Erfassung, Bewertung und Dokumentation von Systemanforderungen beschäftigen, ein besonderer Schlag, der mit PLM (noch?) nicht viel anzufangen weiß. Wer sie näher kennen lernen möchte, dem sei der Besuch der REConf empfohlen – der europaweit bedeutendsten Tagung zum Thema Requirements Engineering (RE). Sie fand neulich zum 12. Mal in München statt, ohne dass die PLM-Welt davon groß Notiz nahm. Zu meinem Erstaunen waren unter den immerhin 40 Ausstellern nur zwei namhafte PLM-Hersteller zu finden, von denen sich einer noch dazu als ALM-Anbieter (Application Lifecycle Management) präsentierte.

Zugegebenermaßen spielt das Thema Prozessintegration und PLM für die RE-Gemeinde derzeit noch eine untergeordnete Rolle. Sie hat andere Prioritäten: Erst einmal geht es darum, RE überhaupt nachhaltig in der Unternehmen zu verankern. Obwohl fast alle Unternehmen heute zumindest in ausgewählten Projekten RE anwenden und die Methode auf eine wachsende Akzeptanz stößt, ist sie in den meisten Fällen noch nicht genügend etabliert, wie eine Anwenderbefragung von REConf-Veranstalter HOOD ergeben hat. Zum Teil hängt das damit zusammen, dass das Management RE zwar gerne nachhaltig in der Organisation verankern würde, aber dafür kein zusätzliches Budget locker macht.

grafik_hood2Der Ruf nach mehr Integration wird jedoch auch in der RE-Gemeinde lauter. Die Anwender, die an der Befragung teilnahmen, sind mit ihren RE-Tools nicht immer zufrieden. Sie wünschen sich bessere Schnittstellen zu den Werkzeugen und Systemen anderer Disziplinen, insbesondere zum Testmanagement, aber auch zu klassischen PLM-Funktionsbereichen wie Änderungsmanagement, Projektmanagement oder Dokumentengenerierung. Viele dieser Schnittstellen würden sich erübrigen, wenn man die Anforderungen direkt im PLM-Kontext erfasste und dokumentierte, aber das würde die etablierte Tool-Landschaft ziemlich über den Haufen werfen.

Wie sieht diese Landschaft aus? Die meist genutzten Anwendungen für RE und Anforderungsmanagement sind immer noch Excel und andere MS Office-Anwendungen, dicht gefolgt von IBM DOORS. Sie leisten den Anwendern zwar gute Dienste, weisen aber gerade in punkto Datenbankintegration und Prozessunterstützung Schwächen auf. Das erschwert zugleich den Austausch von Anforderungen zwischen Entwicklungspartnern, noch dazu wenn sie andere RE-Tools einsetzen. Abhilfe soll jetzt der ReqIF-Standard schaffen, den einige Tool-Hersteller bereits implementiert haben und den auch die PLM-Anbieter nutzen können, um Anforderungen standardbasiert aus den RE-Werkzeugen zu importieren bzw. an sie zu exportieren.

Denn eins ist klar: PLM wird die bestehenden RE-Werkzeuge auf absehbare Zeit nicht ersetzten, sondern allenfalls ergänzen. Einkauf, Entwicklung und anderen Abteilungen haben unterschiedliche Sichten auf die Anforderungen und nutzen unterschiedliche Anwendungen, um diese Sichten darzustellen. Wichtig ist jedoch aus Prozesssicht, dass zumindest die kritischen Anforderungen in der PLM-Umgebung wandern, um sie dort mit anderen Objekten verknüpfen und ihre Änderungsgeschichte nachvollziehen zu können. Dafür müssen die PLM-Anbieter neben eigenen Anforderungsmanagement-Funktionen entsprechende Integrationen bereit stellen.

Projektmanagement – Eine Idee, die sich überlebt hat?

ID-10031738
Bild von www.freedigitalphotos.net / dan

Man mag es schon nicht mehr hören oder lesen: über die Desaster-Projekte in Deutschland wie den Berliner Flughafen oder die Hamburger Elbphilharmonie. Lieferanten von Projektmanagement-Software  sind wahrscheinlich versucht zu sagen: „Mit unserer Software wäre das nicht passiert!“. Wer’s glaubt …

Unbestreitbar hat das Thema Projektmanagement einen Lauf.  Vielleicht geht es Ihnen dabei wie mir: Zuallererst erscheinen einem bei diesem Stichwort Bilder von Gant-Charts vor Augen. Wenn es doch nur so einfach wäre. Bestimmt wurden die beiden genannten Projekte bestens geplant und bestimmt waren die Projektbüros volltapeziert mit Treminplänen. Wenn Menschen Maschinen, Randbedingungen unveränderlich und Ziel vollkommen klar wären, könnte ja auch nichts schiefgehen. Sind sie aber nicht.

Auf Herausforderungen jenseits der Terminplanung weist  Reinhard Wagner in seinem Beitrag Deutschland 2025: Goldene Zeiten für die Projektwirtschaft? im GPM-Blog hin. Besonders interessant finde ich folgende Passage:

Die Zusammenarbeit zwischen verschiedenen Unternehmen (z. B. in der automobilen Supply-Chain) wird immer öfter in Projekten organisiert. Projektarbeit wird immer internationaler. So arbeiten z. B. Mitarbeiter aus unterschiedlichen Forschungsabteilungen von Bosch an Technologien oder Produkten von morgen. Projektarbeit wird 24/7 möglich, d. h. rund um die Uhr und über die gesamte Woche verteilt an mehreren Forschungsstandorten. Projekte finden aber auch vermehrt an den Standorten in den Absatzmärkten statt. So errichtet Audi zum Beispiel gerade eine neue Produktionsstätte in Mexiko… Neben der Überwindung zeitlicher, räumlicher, sprachlicher und kultureller Barrieren heißt das vor allem mit einem unterschiedlichen Verständnis von Projektmanagement umzugehen. Verstehen wir hierzulande darunter vor allem Planung und Kontrolle, so stellen sich Mitarbeiter anderer Länder schnell quer. Sie brauchen mehr Handlungsspielraum und fühlen sich durch allzu viel Kontrolle schnell bevormundet.

Das Stichwort „Handlungspielraum finde ich schön provokant, drücken doch minutiöse Projektpläne das genaue Gegenteil aus.

Mein Fazit: Der Begriff Projektmanagement führt in die Irre, wenn man damit „old school“ vor allem elaborierte Gant Charts und das Denken und Lenken weniger „Manager“ verbindet. Geleitete und nicht gelenkte Zusammenarbeit im eigenen Unternehmen, in internationalen Teams (Mitblogger Michael Wendenburg stößt in ein ähnliches Horn) und mit anderen Unternehmen bei der Lösung komplexer Aufgaben wird immer wichtiger.