Bürokratische Hürden für den Mittelstand

Ungeachtet der politischen Anstrengungen zum Abbau der Bürokratie wird die bürokratische Belastung gerade für kleinere und mittlere Unternehmen immer größer. Zu diesem Ergebnis kommt eine repräsentative Studie, die das Meinungsforschungsinstitut TNS Emnid im Auftrag des Software-Herstellers Sage in diesem Frühjahr durchgeführt hat. 69% der befragten Unternehmen gaben an, die Belastung sei in den letzten 12 Monaten stark oder sehr stark gestiegen. Es hat den Anschein, als sei das Monster nicht mehr zu bändigen.

Die Bürokratiebelastung wird von praktisch allen Unternehmen als hoch oder sehr hoch eingestuft. Aufgeschlüsselt nach verschiedenen Rechtsbereichen stehen Steuern und Sozialversicherung, Arbeitsschutz und -sicherheit sowie Statistik und Dokumentationspflichten an Spitze der der nach oben offenen Belastungsskala. Überraschend ist, dass Produktsicherheit, Zulassungen und Genehmigungen vor allem den Unternehmen im  Dienstleistungssektor zu schaffen machen, während der Aufwand für den Umweltschutz im produzierenden Gewerbe als besonders belastend empfunden wird, was nicht weiter verwunderlich ist.

Mit freundlicher Genehmigung Sira Anamwong, www.FreeDigitalPhotos.net
Mit freundlicher Genehmigung Sira Anamwong, www.FreeDigitalPhotos.net

Die Ergebnisse der Studie sind vor allem deshalb interessant, weil sie in einem eklatanten Widerspruch zum amtlich erfassten Bürokratiekosten-index stehen, der seit Jahren sinkt. Allerdings erfasst dieser Index nur die reinen Informationspflichten der Unternehmen und nicht den deutlich weiter gefassten Erfüllungsbedarf, das heißt den darüber hinaus gehenden Bürokratieaufwand und die damit verbundenen Folgekosten, wie Prof. Friederike Präsidentin des Instituts für Mittelstandsforschung (IfM) im Vorwort der Studie erläutert; das IfM hat die Studie wissenschaftlich begleitet.

Die deutschen Bürokraten sägen also fleißig weiter am Ast der Wohlstandseiche, auf dem sie selber sitzen, auch wenn sie sicher als letzte vom Baum fallen, weil sie praktisch unkündbar sind. Wenn es in Deutschland wenigstens die dehnbare Kaffeepause gäbe, die in meiner spanischen Wahlheimat den bürokratischen Arbeitseifer zwischen Vormittag und Siesta bremst. Um diese Zeit nehmen viele spanische Beamte ganz nebenbei Kontakt zur Geschäftewelt auf, was sie mit den Konsequenzen ihres bürokratischen Handelns auf das Wirtschaftsleben konfrontiert. Währenddessen widmen sich ihre deutschen Kollegen der ungezügelte Produktion von Gesetzen und Verordnungen, deren Zahl von 96% der Befragten als größte Belastung genannt wird.

Nicht nur die Zahl der Gesetze und Verordnungen, sondern auch ihre häufigen Änderungen und ihre mangelnde Verständlichkeit sind eine Belastung für die Unternehmen. Was die Befragten am meisten stört, ist der hohe zeitliche Aufwand und die Verlangsamung von Abläufen, die ihren vielleicht wichtigsten Wettbewerbsvorteil gefährdet: Die Fähigkeit, schnell und flexibel auf neue Markt- und Kundenanforderungen zu reagieren. Gerade größere mittelständische Unternehmen fühlen sich beim Zugang zu neuen Märkten und bei der Entwicklung von neuen Produkten und Dienstleistungen durch die Bürokratie gegängelt. Und immerhin ein Drittel der befragten Unternehmen hat aufgrund bürokratischer Hürden schon mal ein Projekt abgebrochen.

Ein starker Mittelstand ist eine der tragenden Säulen unseres wirtschaftlichen Wohlstands. Der zunehmende bürokratische Aufwand belastet damit auch unsere Wettbewerbsfähigkeit. Kleinere und mittlere Unternehmen können sich im Unterschied zu den Großunternehmen weder ein allumfassendes Qualitätsmanagement leisten, das sich um die Erfüllung aller möglichen Vorschriften kümmert, noch haben sie eine riesige Rechtsabteilung, um sich gegen die Konsequenzen eine eventuellen Nichteinhaltung rechtlich zur Wehr zu setzen. Ihnen bleibt meist nichts anderes übrig, als die bürokratische Belastung so hinzunehmen wie sie ist.

Zumindest im Bereich der Dokumentationspflichten bzw. der Produktsicherheit, Zulassungen und Genehmigungen, der gerade für Unternehmen in regulierten Märken sehr wichtig ist, können sie die Belastung durch  der Einsatz eines PLM-Systems aber spürbar senken.  Es stellt die Compliance von Produkten und Produkten mit den geltenden Bestimmungen sicher und vereinfacht auch die Erfüllung der Dokumentationspflichten. Diese Nutzeneffekte habe ich bei verschiedenen Anwenderinterviews festgestellt, auch wenn es sich meist um größere Unternehmen handelte.

Die Compliance-Anforderungen kleinerer und mittlerer Unternehmen unterscheiden sich nicht grundsätzlich von denen der großen. Allerdings benötigen sie eine einfach und schnell zu implementierende Einstiegslösung mit einem soliden Funktionsumfang, der flexibel ausgebaut werden kann, um weitergehende Anforderungen auf dem Gebiet des Compliance- und Qualitätsmanagements abzudecken. Dank moderner Software-Architekturen sollte das aber heute kein Problem mehr sein.

Die handschriftliche Signatur hat ausgedient

In Deutschland leben einer nicht mehr ganz aktuellen Veröffentlichung der Zeitung “Die Welt” zufolge 2,3 Millionen Analphabeten und weitere 7,5 Millionen, die kaum mehr als ihren Namen schreiben können. Wenn das Beispiel von PISA-Vorbild Finnland Schule machen sollte, dürften es künftig sogar noch ein paar Millionen mehr werden. Die Finnen wollen ernsthaft die Vermittlung der Schreibschrift aus dem Lehrplan der Grundschulen streichen. Stattdessen sollen die Kinder mit allen Fingern tippen lernen, was bei der Größe einer normalen Handytatstatur eine echte Herausforderung darstellt.

Doch was ist mit der Unterschrift? Für die Gültigkeit von vielen Rechtsgeschäften ist immer noch die handschriftliche Namenszeichnung als Nachweis der Identität der betreffenden Person und der Authentizität des unterzeichneten Dokuments erforderlich. Sollen wir Verträge, die uns den Kopf kosten können, etwa wieder mit drei krakeligen Kreuzen unterzeichnen? Wie die Freibeuter in den alten Piratenfilmen, wenn sie – meist nicht ganz freiwillig – auf irgendeinem Seelenverkäufer anheuern?

Mit freundlicher Genehmigung von Jeroen van Oostrom, www.FreeDigitalPhotos.net
Mit freundlicher Genehmigung von Jeroen van Oostrom, www.FreeDigitalPhotos.net

Nein, so traurig es klingen mag, die handschriftliche Signatur hat keine Zukunft mehr. In einer Welt, in der fast alle Dokumente elektronisch erzeugt und verteilt werden, muss auch die Urheberschaft und ihre Unverfälschbarkeit elektronisch bezeugt werden. Sie auszudrucken, von Hand zu unterschreiben und wieder einzuscannen, was heute in vielen Geschäftsprozessen noch gängige Praxis ist, kostet nicht nur unnötig viel Papier. Es ist auch sehr zeitaufwendig, insbesondere wenn die Dokumente auf dem Postweg verteilt und von mehreren Personen an unterschiedlichen Standorten unterzeichnet werden müssen.

Drei elektronische Kreuze am Fuße einer Email reichen als Ersatz für die Unterschrift auf Papier natürlich nicht aus. Die Signaturverordnung der EU und die darauf aufbauende Signaturgesetzgebung der Bundesregierung unterscheiden einfache, fortgeschrittene und qualifizierte elektronische Unterschriften mit unterschiedlich strengen Auflagen hinsichtlich der Erstellung von Signaturschlüsseln und Signaturprüfschlüsseln sowie der Zertifizierung des Unterzeichners durch eine unabhängige Stelle. Finnland ist auch hier einen Schritt weiter: Unter bestimmten Bedingungen ist dort die elektronische Signatur mit dem Handy der handschriftlichen rechtlich gleichgestellt. Warum sollten die finnischen Kinder da noch Schreiben lernen?

Die Akzeptanz der elektronischen Unterschrift ist Voraussetzung für die Ablösung papierbasierter Geschäftsprozesse. Profitieren würden davon vor allem Unternehmen in streng regulierten Industrien wie der Medizintechnik oder der pharmazeutischen Industrie, die heute einen enormen Aufwand für die Dokumentation ihrer Produkte und Prozesse treiben müssen. Die elektronische Unterschrift würde die elektronische Bereitstellung der Dokumentation erleichtern.

In aller Regel akzeptieren die Zulassungsbehörden Dokumente mit fortgeschrittener elektronischer Unterschrift. Allerdings muss die signierende Partei nicht nur die Echtheit der digitalen Signatur und die Identität des Unterzeichners zweifelsfrei nachweisen, sondern auch den Entstehungsprozess der Dokumente zuverlässig protokollieren können. Es muss sichergestellt sein, dass nur autorisierte und eindeutig identifizierte Personen Zugang zu den elektronischen Aufzeichnungen (Records) haben, dass alle Änderungen auf ihre Quelle zurückgeführt werden können und dass die Aufzeichnungen und ihre Änderungsgeschichte im Rahmen der gesetzlichen Aufbewahrungsfristen wieder zugänglich gemacht werden können.

PLM-Systeme erfüllen die meisten dieser Anforderungen aus dem Stand. Sie verfügen über Rechteverwaltung, Versionskontrolle, Change Management etc. Ihre Workflow-Management-Funktionen bieten die Möglichkeit, komplexe Prüf- und Genehmigungsabläufe mit mehreren Beteiligten abzubilden. Die Integration eines digitalen Signaturverfahrens, das dem aktuellen Stand der Verschlüsselungstechnik entspricht, schafft also die Voraussetzung, um bei der Prüfung und Freigabe von Dokumenten und anderen PLM-Objekten auf die handschriftliche Signatur zu verzichten. Drei Kreuze brauchen die Mitarbeiter dann nur noch nach der nächsten Auditierung durch die Zulassungsbehörden zu machen.

Die Zeichnung ist nicht tot zu kriegen

Ich stimme meinem geschätzten Blogger-Kollegen Ralf Steck zu, der sich in seinem Beitrag zum Thema Model Based Definition (MBD) unlängst über die Ankündigung von Funktionen wundert, die er längst im Einsatz wähnte. Mir ging es vor ein paar Tagen ähnlich, als ich mit einen renommieren Hersteller von Antriebssträngen über die nächsten Schritte auf seiner PLM-Roadmap sprach und er das Thema MBD erwähnte. Man sollte nach 25 Jahren 3D-CAD-Einsatz meinen, dass sich die Unternehmen von der guten alten 2D-Zeichnung längst verabschiedet haben. Pustekuchen!

Steck nannte zwei wesentliche Gründe, warum die Zeichnung nicht sterben will. Eigentlich sind es sogar drei: “Zum einen ist die Zeichnung in vielen Fällen ein Vertragsbestandteil, beispielsweise zwischen Lieferant und Kunde, oder sie wird zum Archivieren genutzt. Der zweite [bzw. dritte] Grund sind die zusätzlichen Informationen, die heute sehr selten im 3D-Modell hinterlegt werden können: Form- und Lagetoleranzen, Oberflächenbeschaffenheit, Fertigungs- und Verarbeitungsanweisungen oder auch Kommentare.”

Zeichnung_Mister_GC
Mit freundlicher Genehmigung Mister GC, www.FreeDigitalPhotos.net

Wenn man von der Archivierung einmal absieht, die im wesentlichen eine Frage der langzeitfähigen Datenformate und Speichermedien ist, sind die im 3D-Modell fehlenden Zusatzinformationen der Hauptgrund für die Unsterblichkeit der 2D-Zeichnung. Denn dass sie bei der Vergabe von Fertigungsaufträgen an Zulieferer immer noch Vertragsbestandteil ist, liegt vor allem daran, dass nicht alle fertigungsrelevanten Informationen zuverlässig in 3D kommuniziert werden können.

Ich würde aber noch einen weiteren Grund dafür anfügen, dass die 2D-Zeichnung nicht totzukriegen ist: In den meisten Unternehmen gibt es nur sehr rudimentäre Möglichkeiten, außerhalb der Produktentwicklung mit den 3D-Modellen zu interagieren. Visualisierungsfunktionen stehen längst nicht an jedem Arbeitsplatz zur Verfügung, weil die entsprechenden 3D-Viewer relativ kostspielig sind. Außerdem sind sie in aller Regel nicht gut genug in die PLM-Prozesse integriert, um beispielsweise Kommentare mit der kommentierten Modellversion in der PLM-Datenbank abspeichern zu können.

Es reicht deshalb meines Erachtens nicht aus, wenn die CAD-Hersteller sich des Themas annehmen und ihre Software um MBD-Funktionen ergänzt. Eine Sache ist nämlich die Anreicherung der 3D-Modelle mit Informationen, die man normalerweise auf der Fertigungs-, Montage- oder Prüfzeichnung findet. Eine andere die Kommunikation der angereicherten 3D-Modelle innerhalb des Unternehmens und in der Zulieferkette. Hier sind auch die PLM-Hersteller gefordert.

Gerade die Erfassung und Weitergabe von qualitätsrelevanten Informationen in den Unternehmen ist immer noch durch viele Medienbrüche gekennzeichnet, so dass die Papierzeichnung für die Mitarbeiter in der Qualitätssicherung fast unverzichtbar ist. Es macht aber meines Erachtens wenig Sinn, die fertigungsrelevanten Informationen am 3D-Modell zu kommunizieren, solange für die Kommunikation von Prüfmaßen und anderen Informationen für den Qualitätsprozess dann doch wieder Zeichnungen erstellt werden müssen.

Die Zuverlässigkeit der 3D-Kommunikation ist der Schlüssel zur zeichnungslosen Fertigung, Montage, Qualitätssicherung etc. Nur wenn gewährleistet ist, dass bei der Konvertierung und Weitergabe der 3D-Modelle keine Informationen verloren gehen oder verfälscht werden können, werden Hersteller und Zulieferer sie als Vertragsgrundlage akzeptieren. Ein Beispiel mag die Problematik verdeutlichen: Ein Hersteller von Karosserieteilen, den ich vor einiger Zeit besuchte, definierte die Oberflächenbeschaffenheit durch Farbkodierungen am 3D-Modell. Bei Änderungen stellte er seinen Zulieferern Ansichten dieser Modelle in einem Neutralformat zur Verfügung. Dabei zeigte sich, dass die Farben in den abgeleiteten Modellen nicht immer korrekt dargestellt wurden. Man hatte also keine Gewähr, dass hinterher die Qualität der Oberflächen stimmte.

Die 3D-Kommunikation muss nicht nur zuverlässiger, sondern auch einfacher und intuitiver werden. Ein guter Ansatz, 3D-Modelle an möglichst jedem Arbeitsplatz zur Verfügung zu stellen, erscheint mir die Integration von 3D-Visualisierungsfunktionen in die  PLM-Systeme. Sie bietet zum Beispiel die Möglichkeit, nicht-geometrische Informationen wie Materialien oder den Freigabestatus eines Bauteils am 3D-Modell zu veranschaulichen. Eine offene Frage ist allerdings, wie diese mit PLM-Informationen angereicherten Modelle geltungsgesichert in der Zulieferkette bereit gestellt und archiviert werden können. Hier gilt das eben Gesagte: Wenn die Zuverlässigkeit nicht gegeben ist, wird sich niemand darauf verlassen wollen.

Der Unterschied zwischen Software und erfolgreicher Software?

Mountain landscape with snow and clear blue sky

Die Einführung von neuer Software ist in aller Regel kein Selbstzweck. Die Treiber in den Unternehmen verfolgen konkrete Ziele rund um wichtige Kenngrößen wie Zeit, Kosten und Qualität. Ein gutes Change Management dient dann dazu, die Fachbereiche und Mitarbeiter von diesen Zielen zu überzeugen und sie zu motivieren und „mitzunehmen“.

Unsere Erfahrungen und die vieler anderer Software-Anbieter und Berater zeigen: entscheidend ist außerdem, wie ein neues Werkzeug überhaupt eingesetzt werden soll: als bloßer Ersatz im Rahmen von ansonsten unveränderten Strukturen und Arbeitsweisen, oder – besser – mit dem Ziel, die Potenziale der Werkzeuge möglichst optimal zu nutzen, auch wenn dies weitergehende Veränderungen bestehender Arbeitsweisen erfordert.

Der sehr lesenswerte Beitrag von Stefan Thomke „High-Tech Tools Won’t Automatically Improve Your Operations“ in der Online-Ausgabe von Harvard Business Review geht diesem Aspekt nach. Er schreibt:

While it is encouraging to see this rapid progress, tools — no matter how advanced — do not automatically confer benefits on organizations. They must be integrated into systems and routines that are already in place. Tools are embedded within the organizations that deploy them as well as the people that use them. When integrated incorrectly, they can actually inhibit performance.

Ein nettes Bild von Thomke bringt die Sache auf den Punkt. Ein Ferrari hilft mir nicht, schneller zur Arbeit zu kommen, solange ich mich nicht um eine andere Route abseits der üblichen Staus kümmere. Zudem liefert Thomke anschauliche Beispiele auch aus dem Bereich der Produktentwicklung mit.

Change Management ist in seiner Substanz also nicht nur gutes Projektmarketing, sondern ist weit mehr als das. Es geht um die oft substantielle Veränderung der eigenen, bisherigen Arbeitsweise und dem Aufbau des Vertrauens der Mitarbeiter darin, dass neue Arbeitsweisen verlässlich funktionieren und tatsächlich die konkreten Vorteile bieten, die auf den PowerPoint-Folien angepriesen wurden. Je größer die Unterschiede sind, desto wahrscheinlicher ist es, dass eine solche Veränderung mehr Zeit und mehr aufeinander folgende Schritte benötigt.

Thomke: „Advanced tools can transform the way you run innovation and operations. But it’s the way you manage the tools and the people that use them that will unlock, or hold back, their potential”.

Brauchen smarte Produkte neue PLM-Systeme?

Auf dem jüngsten ProSTEP iViP-Symposium gab es eine interessante Podiumsdiskussion zum Thema Smart Engineering, in der hochkarätige Vertreter aus Wissenschaft und Forschung ziemlich offen die Immobilität der PLM-Hersteller angesichts der Herausforderung des Internet of Things (IoT) und der Entwicklung smart vernetzter Systeme kritisierten. O-Ton eines Teilnehmers: “Wir bräuchten Player mit neuen Ideen, die frischen Wind in den Markt bringen.” Es fehle eine Art Google, der den ganzen PLM-Markt aufrolle, meinte ein andere. Welcher Hafer hat die denn gestochen?, dachte ich mir.

Einer der Vorwürfe an die Adresse der PLM-Hersteller, der aus dem Mund staatlich alimentierter und geförderter Wissenschaftler natürlich etwas befremdlich klingt, ist der, dass sie bei der Weiterentwicklung ihrer Systeme zu wenig in Vorleistung treten und immer nur das entwickeln, mit dem sich ziemlich unmittelbar Geld verdienen lässt. Abgesehen davon, dass Altruismus nicht unbedingt eines der Wesensmerkmale kapitalistischer Systems ist, halte ich den Vorwurf für nicht ganz zutreffend.

  • Erstens kenne ich den einen oder anderen PLM-Hersteller, der seine Software bereits um Module für Anforderungsmanagement, Funktionsmodellierung und andere Systems Engineering-Funktionen ergänzt hat, die sich nicht gerade verkaufen wie warme Semmeln.
  • Zweitens haben die wenigen Anwendervorträge zum Thema Systems Engineering auf dem Symposium einmal mehr deutlich gemacht, dass die Unternehmen immer noch in einer Findungsphase stecken und erst einmal klären müssen, was sie an IT-Unterstützung für die Entwicklung ihrer smarten Produkte benötigen. Ein Eindruck, der durch die Interviews bestätigt wird, die ich in den letzten Jahren zu dem Thema geführt habe.
  • Drittens wissen auch die Wissenschaftler noch nicht so genau, welche Partialmodelle aus der modellbasierten Entwicklung cyberphysischer Systeme mit welchen Informationen eigentlich ins PLM-System gehören. Sonst bräuchten wir ja wohl dotierte Forschungsprojekte wie mecPro2 nicht, die genau das herausfinden sollen.

Richtig ist natürlich, dass die PLM-Hersteller genauso wie ihre Kunden gefordert sind, sich mit den Auswirkungen des IoT auf ihre Geschäftswelt auseinanderzusetzen. Sie müssen ihr Lösungsangebot anpassen, um agilere und kontinuierlichere Entwicklungsprozesse zu unterstützen, wie Stan Przybylinski von der amerikanischen Markforschungsfirma CIMdata kürzlich in einem Webinar zum Thema “The Internet of Things – What does it mean for PLM” betonte. Doch was heißt das konkret für die Entwicklung der PLM-Software? Muss sie künftig in der Lage sein, unstrukturierte Informationen zu verwalten oder Unmengen an Sensordaten zu analysieren? Ich glaube, dafür sind andere Anwendungen besser geeignet.

Das IoT verspricht Wachstum ohne Ende. Grafik: CIMdata Inc.
Das IoT bietet ein riesiges Wachstumspotential, vor allem für industrielle Anwendungen. Grafik: CIMdata Inc.

Hauptaufgabe der PLM-Systeme ist und bleibt die Unterstützung der Produktentwicklung. Das Problem ist nicht so sehr, dass diese Produkte immer mehr Elektronik und Software enthalten, die sich ständig ändert, sondern dass Elektronik und Software zunehmend genutzt werden, um Produkte mit anderen Produkten und Systemen zu vernetzen und ihren Lebenszyklus dadurch weit über den Start of Production hinaus zu verlängern. Im Sinne eines vollständigen Product Lifecycle Managements muss auch diese Phase systemseitig unterstützt werden.

Das wirkliche Produktleben lag für die Hersteller bislang auf der “dark side of the moon”, wie PTC-Chef Jim Heppelman sich einmal ausdrückte. Dieses Leben besser auszuleuchten, das heißt die Informationen aus dem Feld auszuwerten, in den Lifecycle einzusteuern und für die kontinuierliche Verbesserung der Produkte zu nutzen, das ist die riesige Chance des IoT und die wahre Herausforderung für die PLM-Hersteller. Es geht nicht um die Entwicklung oder Integration von noch ein paar Systems Engineering-Werkzeugen mehr, sondern um die Vernetzung der PLM-Systeme mit den IoT-Plattformen, auf denen diese Lifecycle-Informationen zusammenfließen.

Welche Plattformen das sein werden, ist noch ziemlich offen. Aber wenn man sich vor Augen hält, dass IBM mal eben schlappe drei Milliarden US-Dollar in den Aufbau einer eigenen IoT-Organisation investiert, kann man sich ungefähr ausmalen, welches Kaliber die Player in diesem Markt haben werden. Ein Markt über dessen Größe die aberwitzigsten Zahlen kursieren. Cisco sprich von 19 Billionen US-Dollar im Jahr 2020, McKinsey immerhin noch von 2,7 bis 6,2 Billionen. Einig sind sich alle Auguren, dass der größte Anteil davon auf die Fertigung entfallen wird: Vielleicht war das mit Industrie 4.0 doch keine so schlechte Idee.

Die Stückliste bleibt auf der Tagesordnung

Das ProSTEP iViP Symposium jagt von Rekord zu Rekord. Mit über 550 Teilnehmern und 33 Ausstellerfirmen war die diesjährige Veranstaltung im ICS in Stuttgart noch besser besucht als die des Vorjahres in Berlin, die erstmals die Schallmauer von 500 Ausstellern und Besuchern durchbrach. Obwohl oft als “Familientreffen” der technischen IT-Experten aus Automobil- und Flugzeugindustrie bezeichnet, waren mehr als die Hälfte der Teilnehmer zum ersten Mal dabei. Das liegt nicht nur an der allmählichen Verjüngung der IT-Mannschaften (Frauen sind immer noch deutlich unterrepräsentiert), sondern auch daran, dass es dem Verein durch gezielte Werbekampagnen insbesondere in Japan gelungen ist, den Anteil der ausländischen Besucher zu steigern. Vertreter aus 19 Ländern nahmen in diesem Jahr am Symposium teil.

Mit freundlicher Genehmigung von Ralf Kopp
Mit freundlicher Genehmigung von Ralf Kopp, ProSTEP iViP

Die Organisatoren versuchen außerdem, die Veranstaltung durch den Brückenschlag von der virtuellen Produktentwicklung zum Digital Manufacturing thematisch breiter aufzustellen und auch dadurch neue Interessenten anzulocken. Das spiegelt sich allerdings noch nicht in der Zusammensetzung der Besucherschaft wider, die nach wie vor sehr Engineering-orientiert ist. Beherrschendes Thema war in diesem Jahr das Smart (Systems) Engineering als Antwort auf die Herausforderung des Internets der Dinge (IoT), das heißt die Vernetzung von Fahrzeugen und anderen Produkten über das Internet und die daraus resultierenden neuen Serviceangebote und Geschäftsmodelle. Da war Hauptsponsor Bosch natürlich in seinem Element.

Bei so vielen Hype-Themen war ich angenehm überrascht, auch die gute alte Stückliste bzw. die Diskussion über die Hoheit der BOM (Bill of Material) auf der Tagesordnung zu finden. Bodenständige Kost, aber vom Feinsten, so wie überhaupt die Verköstigung in diesem Jahr ausgezeichnet war. Den Auftakt machten die Vertreter des brasilianischen Flugzeugherstellers Embraer, die ihre IT-Systemlandschaft unter anderem deshalb um das PLM-System Windchill ergänzt haben, um Konstruktionsstückliste, pardon eBOM, und Fertigungsstückliste unabhängig voneinander managen und ändern zu können.

Mit freundlicher Genehmigung von Beyond PLM
Mit freundlicher Genehmigung von Oleg Shilovitsky, Beyond PLM

PLM-Experte Oleg Shilovitsky, dessen Blog Beyond PLM ich an dieser Stelle zur Lektüre empfehle, verteidigte in seiner Keynote hingegen die Vision einer einheitlichen, über die Systemgrenzen von PLM und ERP hinweg synchronisierbaren BOM. Leider seien die Unternehmen nicht  “ready for a single BOM”. Eine Position, die übrigens auch von PLM-Papst Prof. Martin Eigner geteilt wird, der in der Fragerunde den Konstrukteuren empfahl, in den Strukturen der mBOM denken zu lernen. Wen wundert es, dass die Stückliste beim anschließenden Get Together Gegenstand angeregter Diskussionen war.

Bei allem Respekt vor Martin Eigner und Oleg Shilovitsky bin ich der Ansicht, dass die Idee einer Art Einheitsstückliste zumindest nicht für alle Unternehmen eine tragfähige Lösung darstellt. Dies umso mehr als smarte Produkte und neue IoT-basierte Geschäftsmodelle dazu führen werden, dass diese BOM nicht mehr nur die Sichten von Mechanik-Konstrukteuren und Fertigungsplanern, sondern auch von Elektrik/Elektronik-Entwicklern, Software-Programmierern und Serviceleuten harmonisieren müsste. Die Abstimmung zwischen den beteiligten Disziplinen stelle ich mir beliebig komplex vor. Statt einer Einheitsstückliste brauchen die Unternehmen meines Erachtens ein einheitliches System, in dem sie verschiedene Sichten bzw. Stücklisten-Strukturen  verwalten und bei Änderungen konsistent halten können.

Die Entscheidung, welches System das sein soll, muss jedes Unternehmen selber treffen – in Abhängigkeit von der Multi-BOM-Fähigkeit der eingesetzten PLM-, ERP- oder vielleicht sogar anderer IT-Systeme. Instruktiv war in dieser Hinsicht der Vortrag der Faymonville S.A. auf dem Symposium, die ihre Schwerlasttransporter zum Teil kundenspezifisch entwickelt, zum Teil aber auch aus einem Baukastensystem auftragsspezifisch konfiguriert. Um den Configure-to-Order-Prozess besser zu unterstützten, hat das Unternehmen die Fertigungsstückliste zu 150% in ihrem PLM-System abgebildet. Auch bei Embraer wird die mBOM zunächst im PLM-System angelegt und dann erst an das ERP-System repliziert.

Vielleicht ein Paradigmenwechsel? Es würde mich interessieren, was Sie über das Thema denken.

PLM muss große und kleine Fische unterstützen

Von PLM-Lösungen für den Mittelstand zu sprechen, verleitet leicht zu falschen Schlüssen. Mittelständische Unternehmen haben grundsätzlich die gleichen PLM-Anforderungen wie Großunternehmen, denn sie entwickeln ähnlich komplexe Produkte, meist in einer riesigen Zahl kundenspezifischer Ausprägungen. Sie sind als Zulieferer in komplexe globale Wertschöpfungsketten eingebunden und haben oft selbst Entwicklungs- oder zumindest Fertigungsstandorte in anderen Ländern. Und sie müssen in aller Regel dieselben Qualität- und Compliance-Anforderungen erfüllen wie ihre Auftraggeber. Deshalb brauchen sie keine funktional abgespeckten PLM-Lösungen, die sich im wesentlichen auf CAD-Daten- und Dokumenten-Management und vielleicht ein paar  Workflows beschränken, sondern das volle PLM-Programm. Nicht von ungefähr haben einige PLM-Hersteller ihre schnell geschnürten Mittelstandspakete wieder in der Versenkung verschwinden lassen.

bigfishNatürlich gibt es Unterschiede. Mittelständische Unternehmen haben normalerweise keine großen IT-Abteilungen, die ein monatelanges PLM-Projekt unterstützen können. Die Implementierung liegt meist in den Händen junger, engagierter Mitarbeiter aus den Fachabteilungen, die über wenig Erfahrung im Projekt- und Change-Management verfügen. Dafür sind, im Unterschied zu Großunternehmen, die Mauern zwischen den Abteilungen weniger hoch, so dass sich abteilungsübergreifende Prozesse einfacher reorganisieren lassen. Und die Geschäftsleitung ist erfreulich oft nahe am PLM-Projektgeschehen und stärkt dem Projektteam in kritischen Phasen den Rücken.

Was bedeutet das nun für die PLM-Hersteller und Ihre “Mittelstandslösungen”? Zunächst einmal brauchen sie kompetente Mitarbeiter mit Projekterfahrung, die den Kunden bei der Umsetzung der Projektschritte beraten und unterstützen und gegebenenfalls sogar die (Co-)Projektleitung übernehmen können. Agilität ist die Stärke des Mittelstands – das muss auch für das Projektmanagement gelten. Voraussetzung ist natürlich ein PLM-System das von der Software-Architektur und den Entwicklungswerkzeugen ein agiles Vorgehen bei der Implementierung zulässt.

Vorkonfigurierte Lösungen haben den Vorteil, dass sie sich schnell ausrollen lassen. Aber dieser Vorteil darf nicht durch mangelnde Flexibilität erkauft werden. Natürlich kann es zweckmäßig sein, die Prozesse im Zuge der PLM-Implementierung auf den Prüfstand zu stellen, aber wenn es sich um erprobte Prozesse handelt, die vielleicht sogar einen Vorsprung des Unternehmens im Wettbewerb ausmachen, muss die Software diese Prozesse abbilden können.

Was den Funktionsumfang anbelangt, so ist eine modulare Plattform mit Basisfunktionalität und ergänzenden Anwendungsmodulen die beste Gewähr für eine skalierbare PLM-Installation, die mit den Anforderungen des Unternehmens wachsen kann. Die Möglichkeit, Funktionalität nachzurüsten, beschleunigt den Rollout und verkürzt den ROI. Ich habe in den letzten Monaten verschiedene Unternehmen besucht, die das Projektmanagement zunächst nur als Struktur für eine projektorientierte Ablage der Daten und Dokumente produktiv genutzt haben, um erst im zweiten Schritt ein umfassendes Projektmanagement mit Terminverfolgung, Kostenkontrolle und Aufwandserfassung zu implementieren. In einigen Fällen werden inzwischen sogar Vertriebsprojekte im PLM-System angelegt, so dass der gesamte Produktentstehungsprozess von der Angebotsphase bis zur Auslieferung durchgängig unterstützt wird.

Interessanterweise sieht man solche umfassenden PLM-Implementierungen häufiger im Mittelstand als bei Großunternehmen. Das wiederum hängt meiner Einschätzung nach mit den flacheren Strukturen zwischen den Abteilungen und der größeren Aufmerksamkeit des Managements für das PLM-Thema zusammen. Wenn sich mittelständische Unternehmen für eine PLM-Implementierung entscheiden, werden die Projekte in aller Regel sehr konsequent durchgezogen. In diesem Sinne würde man sich mehr “Mittelstandslösungen” bei Großunternehmen wünschen.

Auch PLM-Systeme kommen in die Jahre

Mit einem Textverarbeitungsprogramm, das nicht mehr auf dem aktuellen Stand ist, über die Notwendigkeit der Software-Aktualisierung zu schreiben, ist nur scheinbar ein Widerspruch. Während man bei Word & Co. als normaler Anwender durch einen Versionswechsel kaum noch Produktivitätszuwächse erzielt, dafür aber tagelang damit beschäftigt ist, vertraute Funktionen wiederzufinden, die ein agiler Software-Entwickler aus unerfindlichen Gründen dort versteckt hat, wo man sie nicht suchen würde, kann die Aktualisierung einer Unternehmensanwendung einen Produktivitätsschub auslösen. Insbesondere wenn es sich um eine historisch gewachsene IT-Lösung handelt.

Alt- oder Legacy-Systeme sind strukturell zukunftsunfähig, weil sie meist auf einer veralteten Technologie basieren, inkompatibel zu anderen Unternehmensanwendungen sind und sich nicht oder nur mit einem hohem Aufwand an die aktuellen Anforderungen anpassen lassen. Ihre Aufrechterhaltung bindet nicht nur Personal mit Know-how, das immer schwerer zu finden bzw. zu ersetzen ist, sondern auch finanzielle Ressourcen, die nicht mehr für Investitionen in die Modernisierung der IT-Landschaft zur Verfügung stehen. Darauf hat kürzlich die Management-Beratung Lüdendonk in einem Whitepaper über die Software-Modernisierung hingewiesen, das ich zur Lektüre empfehle.

Mit freundlicher Genehmigung von dan, www.FreeDigitalPhotos.net
Mit freundlicher Genehmigung von dan, www.FreeDigitalPhotos.net

Obwohl sich die IT-Verantwortlichen der Tatsache bewusst sind, dass die Modernisierung der Software-Landschaften eine Notwendigkeit ist, halten sie an ihren Legacy-Systemen oft genauso zäh fest wie ich an meinem alten Texteditor. Das liegt daran, dass diese Systeme sehr viel Unternehmens-Know-how beinhalten und oft so eng mit anderen IT-Lösungen verknüpft sind, dass sich die Auswirkungen einer Modernisierung nur schwer abschätzen lassen. Dies umso mehr als ihre Entstehungsgeschichte oft nicht sauber dokumentiert ist. Die Experten von Lüdendonk empfehlen dennoch eine planvolle Modernisierung der Software-Landschaft und stellen dafür verschiedene Strategien vor.

Zugegebenermaßen haben neue Software-Programme manchen Bug, aber sie sind in den letzten Jahren deutlich zuverlässiger geworden. Die Furcht vor Kinderkrankheiten sollte deshalb kein Grund sein, seine Software-Installation nicht zu aktualisieren. Gerade moderne PLM-Systeme bieten heute standardmäßig einen Funktionsumfang, der vor einigen Jahren nicht oder nur mit einem hohen Anpassungsaufwand und Zusatzprogrammierungen erreichbar war. Die bestehenden IT-Lösungen abzulösen, hat den Vorteil, dass man sie funktional wieder näher an den Standard heranführen kann. Das reduziert nicht nur den Aufwand für Wartung und Pflege der Installation, sondern erleichtert auch Software-Updates. Davon abgesehen erlauben die heute zur Verfügung Programmierwerkzeuge eine einfachere und schnellere Zusatzprogrammierung, falls doch einmal kundenspezifische Erweiterungen erforderlich sind.

Außerdem werden die Architekturen der PLM-Systeme nicht zuletzt auch unter dem Druck von Initiativen wie dem Codex of PLM Openness offener, was ihre Integration in bestehende IT-Landschaften vereinfacht. Alle diese Faktoren haben zur Folge, dass die Kosten für Anschaffung und Betrieb einer PLM-Lösung tendenziell sinken. Deshalb sollten gerade Unternehmen mit einer älteren und stark kundenspezifisch angepassten PLM-Lösung ernsthaft über eine Modernisierung ihrer Installation nachdenken. Die Lebensdauer der Alt-Systeme zu dehnen, hat Lüdendonk zufolge negative Auswirkungen auf die Gesamtkostenstruktur der IT: “Je mehr Zeit und Geldmittel […] die Unternehmen für die Wartung älterer Software aufwenden müssen, desto weniger bleibt für die Realisierung zukunftsweisender Projekte übrig”, so die Autoren des Whitepapers.

In den letzten Monaten habe ich eine Reihe von Unternehmen besucht, die sich aus dem einen oder anderen Grund für eine Modernisierung ihres PLM-Systems entschieden haben. Der damit verbundene Aufwand war zum Teil nicht unerheblich, weil sie im Zuge der Modernisierung auch ihre Entwicklungsprozesse umstrukturiert haben. In allen Fällen profitierten die Unternehmen jedoch von dem erweiterten Standard-Funktionsumfang ihres PLM-System, insbesondere in punkto Projektmanagement, der wesentlich einfacher zu implementieren war als die kundenspezifischen Anpassungen der Vergangenheit.

Warum einfach, wenn’s auch kompliziert geht

Deutschen Ingenieuren wird oft vorgeworfen, dass sie zum Over Engineering neigen. Leider nicht ganz zu Unrecht. Das ist aber nicht allein ihre Schuld, sondern auch die ihrer Vorgesetzten (meist selber Ingenieure), die nicht immer in der Lage sind, den ihren Mitarbeiter in die Ingenieurswiege gelegten Kreativtrieb zu bremsen oder wenigstens in die richtigen Bahnen zu lenken. (Oh, ich sehe schon, dass ich mir mit diesem Blogbeitrag keine Freunde machen werde:-)).

Deutsche Unternehmen, die zum Beispiel eine einfache (und kostengünstige) Produktvariante für den asiatischen Markt entwickeln wollen, überlassen das nicht selten ihren polnischen oder tschechischen Ingenieuren. Und das nicht etwa deshalb, weil die weniger kosten (das natürlich auch), sondern weil sie eher in der Lage sind, sich weniger komplexe Lösungen auszudenken. Manchmal werden diese Produkte sogar reimportiert, weil die Unternehmen plötzliche entdecken, dass es auch in unserer entwickelten Welt Bedarf für einfache und preisgünstige Lösungen gibt. Die Amerikaner nennen diesen Trend Reverse Innovation.

Mit freundlicher Genehmigung supakitmod, www.FreeDigitalPhotos.net
Mit freundlicher Genehmigung supakitmod, www.FreeDigitalPhotos.net

Natürlich muss man zur Verteidigung der westlichen Welt und ihrer Ingenieure sagen, dass sie letztlich nur das entwickeln, was wir als (deutsche) Konsumenten für teures Geld zu kaufen bereit sind. Vielleicht sollte ich die Klammer weglassen, denn ich bin der festen Überzeugung, dass Phänomene wie die Mass Customization, das heißt die kundenindividuelle Konfiguration (wenn nicht gleich Entwicklung) von in Serie zu fertigenden Produkten, eigentlich eine Erfindung deutscher Ingenieure ist. So wie übrigens auch die deutsche Antwort auf die damit verbundene, fertigungstechnische Herausforderung: Industrie 4.0.

Beweise? Fragen Sie doch mal bei einem der deutschen Premium-Automobilhersteller nach, ob er nordamerikanischen oder asiatischen Kunden die gleichen Konfigurationsmöglichkeiten für seine Fahrzeuge einräumt wie seinen deutschen Kunden? Pustekuchen. Da wird oft schon der langen Lieferzeiten wegen mit vorkonfigurierten Paketen gearbeitet.

Richtig ist aber, dass die Ingenieure in kaum einer Branche so kreativ sein dürfen wie in der globalen Automobilindustrie. Trotz modularer Längs- und Querbaukästen und anderer Anstrengungen zur Eindämmung der Variantenvielfalt werden viele Dinge in einer zumindest für Laien unfassbar großen Varianz entwickelt, was den allseits bekannten Rattenschwanz an Kosten für Fertigung, Einkauf, Lagerhaltung und Verwaltung der eigentlich redundanten Teile nach sich zieht.

Ein schönes Beispiel dafür habe ich neulich beim Besuch eines bekannten Herstellers von Kabelbindern und -befestigungssystemen entdeckt. Das Unternehmen hat einen innovativen Befestigungsclip für Kabelsätze entwickelt, der in ovale Löcher unterschiedlicher Größe in unterschiedlichen Fahrzeugmarken und -modellen passt. Warum, fragte ich mich, müssen die Löcher für die Befestigungen der Kabelsätze eigentlich unterschiedlich groß sein? Könnte man sich da nicht auf einen Standard einigen oder – besser noch – einfach die Vorgaben der Verkabelungsspezialisten übernehmen? Die wissen doch am besten, welche Kräfte so eine Befestigungssystem aushalten muss. Aber nein, es muss eine kundenindividuelle Lösung sein.

Möglicherweise liegt es daran, dass die Ingenieure nicht wissen, welche Lösungen es von der Stange gibt und wie viel Geld sie durch ihre Verwendung sparen könnten. Und wie viel Zeit, denn geprüfte Komponenten müssen nicht mehr aufwendig abgesichert werden, bevor sie verwendet werden können. Dazu bräuchten sie aus ihrem PLM-System heraus den Zugriff auf leistungsfähige Bauteil-Bibliotheken, in denen sie anhand technischer Parameter die passenden Kaufteile suchen und am besten gleich verbauen können. Und die sie auch darüber informieren, welche ähnlichen Komponenten auf Lager sind und alternativ verbaut werden könnten. Solche Bibliothekssysteme gibt es zwar, aber sie werden offensichtlich noch zu wenig genutzt. Sonst müssten sich die Ingenieure das Leben nicht so schwer machen.

Der Fortschritt ist ein Walkürenritt

Den Fortschrittsglauben meiner technikverliebten Freunde und Kollegen teile ich nur bedingt. Ich bin der festen Überzeugung, dass wir jeden Fortschritt mit lauter kleinen Rückschritten erkaufen. Vor ein paar Tagen, als mein “alter” DVD-Player plötzlich seinen Geist aufgab, ist mit das wieder bewusst geworden. Das No-Name-Gerät hatte einen analogen Audio-Ausgang mit zwei Cinch-Buchsen, so dass ich ihn an meine (wirklich alte) Stereo-Anlage anschließen und mir Filme mit guter Musik über die Boxen anhören konnte. Da klang Wagners Walkürenritt in Apocalyse Now noch mal so gut.

Jetzt habe ich einen nagelneuen Blu(e)-Ray-Player von einem namhaften koreanischen Hersteller, den ich sogar ins WLAN hängen kann. Aber statt der Cinch-Buchsen hat er nur noch einen digitalen Coaxial-Ausgang, und in dem ganzen Medienmarkt war kein Mitarbeiter in der Lage mir zu erklären, wie ich das Gerät wieder an meine Stereo-Anlage anschließen kann. Einer meinte, ich solle das Audiosignal doch am Euro Connector des Fernsehers abgreifen und in den Receiver einspeisen, worauf mir der Song von Mike Krüger in den Sinn kam: “Sie müssen erst den Nippel durch die Lasche ziehen…”

Stecker2
Mit freundlicher Genehmigung Hyena Reality, www.FreeDigitalPhotos.net

Smart Connected Systems stelle ich mir anders vor. Vielleicht hätte ich einen der Kunden fragen sollen, die – wenn man der Werbung besagten Marktes Glauben schenken darf – nicht blöd sind. Der hätte mir dann gesagt, dass ich dafür ein Zusatzgerät benötige, das ich im Spezialhandel suchen muss und das mehr kostet als der neue Player. Aber zum Glück gibt es ja heute das Internet, um die Probleme zu lösen, die man vor dem Internet-Zeitalter nicht hatte. Und wo man den Digital Audio Converter dann auch gleich online bestellen kann.

Sie werden sich sicher fragen, was das alles mit PLM zu tun hat? Ich überlege auch schon die ganze Zeit fieberhaft, wie ich die Kurve kriege. Nun, zunächst einmal macht das Beispiel einmal mehr deutlich, warum wir PLM so dringend benötigen. Es gibt keine einfachen Lösungen mehr – alles wird komplizierter, und ohne PLM sind wir einfach nicht mehr in der Lage, die Komplexität zu beherrschen.

Zwingend erforderlich ist die Integration eines leistungsfähigen Anforderungsmanagements in die PLM-Systeme, damit unsere Kundenbedürfnisse endlich besser erfasst werden. Allerdings befürchte ich, dass mein Wunsch nach Anschluss des Players an eine klassische Stereo-Anlage spätestens bei der Priorisierung der erfassten Anforderungen dem Mainstream zum Opfer fallen würde. Stereo-Anlagen sind halt “mega-out”, wie meine Kinder sagen würden. Die hören Musik mit Handy und Knopf im Ohr und wissen deshalb gar nicht mehr wie gut Musik aus Boxen klingen kann.

Ich kann nur hoffen, dass irgendein Hersteller sein Player-Portfolio PLM-gestützt managt und dank eines integrierten Variantenmanagements in der Lage ist, eine meinen Anforderungen entsprechende Produktvariante zu konfigurieren. Es wird doch ständig von Mass Customization geredet – davon dass Massenprodukte immer variantenreicher werden, um individuelle Kundenanforderungen zu erfüllten. Das mag für deutsche Premium-Fahrzeuge und deutsche Premium-Maschinen sicher lohnenswerter sein, als für elektronische Massenware aus dem fernen Korea, die – das muss man der Fairness halber sagen – sehr viel Leistung für wenig Geld bietet. Aber mit Elektronik und Software lässt sich Varianz doch angeblich viel preisgünstiger abbilden als in Hardware.

Das Problem ist, dass die Lebenszyklen elektronischer Konsumgüter im Ladenregal so kurz sind, dass man kaum Zeit hat, sie zu managen. Ihre Lebensdauer ist hingegen wesentlich länger, was dazu führt, dass in unseren Haushalten Produkte unterschiedlicher Generationen zusammenleben. Wir brauchen also ein generationenübergreifendes Produktfamilien-Management. Und wir brauchen ein PLM-gestütztes Systems Engineering, das die Connectivity-Konflikte zwischen unterschiedlichen Produktgenerationen berücksichtigt.

Nachtrag: Ich habe meinen alten, voll funktionsfähigen Receiver inzwischen dem Fortschritt geopfert und ein Gerät mit digitalem Audio-Eingang bestellt – in der Gewissheit, dass es nicht besser klingen, dafür aber höchstens halb so lange halten wird. Zum Glück dürfte dank PLM zumindest die Recyclingfähigkeit sichergestellt sein.