Die handschriftliche Signatur hat ausgedient

In Deutschland leben einer nicht mehr ganz aktuellen Veröffentlichung der Zeitung “Die Welt” zufolge 2,3 Millionen Analphabeten und weitere 7,5 Millionen, die kaum mehr als ihren Namen schreiben können. Wenn das Beispiel von PISA-Vorbild Finnland Schule machen sollte, dürften es künftig sogar noch ein paar Millionen mehr werden. Die Finnen wollen ernsthaft die Vermittlung der Schreibschrift aus dem Lehrplan der Grundschulen streichen. Stattdessen sollen die Kinder mit allen Fingern tippen lernen, was bei der Größe einer normalen Handytatstatur eine echte Herausforderung darstellt.

Doch was ist mit der Unterschrift? Für die Gültigkeit von vielen Rechtsgeschäften ist immer noch die handschriftliche Namenszeichnung als Nachweis der Identität der betreffenden Person und der Authentizität des unterzeichneten Dokuments erforderlich. Sollen wir Verträge, die uns den Kopf kosten können, etwa wieder mit drei krakeligen Kreuzen unterzeichnen? Wie die Freibeuter in den alten Piratenfilmen, wenn sie – meist nicht ganz freiwillig – auf irgendeinem Seelenverkäufer anheuern?

Mit freundlicher Genehmigung von Jeroen van Oostrom, www.FreeDigitalPhotos.net
Mit freundlicher Genehmigung von Jeroen van Oostrom, www.FreeDigitalPhotos.net

Nein, so traurig es klingen mag, die handschriftliche Signatur hat keine Zukunft mehr. In einer Welt, in der fast alle Dokumente elektronisch erzeugt und verteilt werden, muss auch die Urheberschaft und ihre Unverfälschbarkeit elektronisch bezeugt werden. Sie auszudrucken, von Hand zu unterschreiben und wieder einzuscannen, was heute in vielen Geschäftsprozessen noch gängige Praxis ist, kostet nicht nur unnötig viel Papier. Es ist auch sehr zeitaufwendig, insbesondere wenn die Dokumente auf dem Postweg verteilt und von mehreren Personen an unterschiedlichen Standorten unterzeichnet werden müssen.

Drei elektronische Kreuze am Fuße einer Email reichen als Ersatz für die Unterschrift auf Papier natürlich nicht aus. Die Signaturverordnung der EU und die darauf aufbauende Signaturgesetzgebung der Bundesregierung unterscheiden einfache, fortgeschrittene und qualifizierte elektronische Unterschriften mit unterschiedlich strengen Auflagen hinsichtlich der Erstellung von Signaturschlüsseln und Signaturprüfschlüsseln sowie der Zertifizierung des Unterzeichners durch eine unabhängige Stelle. Finnland ist auch hier einen Schritt weiter: Unter bestimmten Bedingungen ist dort die elektronische Signatur mit dem Handy der handschriftlichen rechtlich gleichgestellt. Warum sollten die finnischen Kinder da noch Schreiben lernen?

Die Akzeptanz der elektronischen Unterschrift ist Voraussetzung für die Ablösung papierbasierter Geschäftsprozesse. Profitieren würden davon vor allem Unternehmen in streng regulierten Industrien wie der Medizintechnik oder der pharmazeutischen Industrie, die heute einen enormen Aufwand für die Dokumentation ihrer Produkte und Prozesse treiben müssen. Die elektronische Unterschrift würde die elektronische Bereitstellung der Dokumentation erleichtern.

In aller Regel akzeptieren die Zulassungsbehörden Dokumente mit fortgeschrittener elektronischer Unterschrift. Allerdings muss die signierende Partei nicht nur die Echtheit der digitalen Signatur und die Identität des Unterzeichners zweifelsfrei nachweisen, sondern auch den Entstehungsprozess der Dokumente zuverlässig protokollieren können. Es muss sichergestellt sein, dass nur autorisierte und eindeutig identifizierte Personen Zugang zu den elektronischen Aufzeichnungen (Records) haben, dass alle Änderungen auf ihre Quelle zurückgeführt werden können und dass die Aufzeichnungen und ihre Änderungsgeschichte im Rahmen der gesetzlichen Aufbewahrungsfristen wieder zugänglich gemacht werden können.

PLM-Systeme erfüllen die meisten dieser Anforderungen aus dem Stand. Sie verfügen über Rechteverwaltung, Versionskontrolle, Change Management etc. Ihre Workflow-Management-Funktionen bieten die Möglichkeit, komplexe Prüf- und Genehmigungsabläufe mit mehreren Beteiligten abzubilden. Die Integration eines digitalen Signaturverfahrens, das dem aktuellen Stand der Verschlüsselungstechnik entspricht, schafft also die Voraussetzung, um bei der Prüfung und Freigabe von Dokumenten und anderen PLM-Objekten auf die handschriftliche Signatur zu verzichten. Drei Kreuze brauchen die Mitarbeiter dann nur noch nach der nächsten Auditierung durch die Zulassungsbehörden zu machen.

Die Zeichnung ist nicht tot zu kriegen

Ich stimme meinem geschätzten Blogger-Kollegen Ralf Steck zu, der sich in seinem Beitrag zum Thema Model Based Definition (MBD) unlängst über die Ankündigung von Funktionen wundert, die er längst im Einsatz wähnte. Mir ging es vor ein paar Tagen ähnlich, als ich mit einen renommieren Hersteller von Antriebssträngen über die nächsten Schritte auf seiner PLM-Roadmap sprach und er das Thema MBD erwähnte. Man sollte nach 25 Jahren 3D-CAD-Einsatz meinen, dass sich die Unternehmen von der guten alten 2D-Zeichnung längst verabschiedet haben. Pustekuchen!

Steck nannte zwei wesentliche Gründe, warum die Zeichnung nicht sterben will. Eigentlich sind es sogar drei: “Zum einen ist die Zeichnung in vielen Fällen ein Vertragsbestandteil, beispielsweise zwischen Lieferant und Kunde, oder sie wird zum Archivieren genutzt. Der zweite [bzw. dritte] Grund sind die zusätzlichen Informationen, die heute sehr selten im 3D-Modell hinterlegt werden können: Form- und Lagetoleranzen, Oberflächenbeschaffenheit, Fertigungs- und Verarbeitungsanweisungen oder auch Kommentare.”

Zeichnung_Mister_GC
Mit freundlicher Genehmigung Mister GC, www.FreeDigitalPhotos.net

Wenn man von der Archivierung einmal absieht, die im wesentlichen eine Frage der langzeitfähigen Datenformate und Speichermedien ist, sind die im 3D-Modell fehlenden Zusatzinformationen der Hauptgrund für die Unsterblichkeit der 2D-Zeichnung. Denn dass sie bei der Vergabe von Fertigungsaufträgen an Zulieferer immer noch Vertragsbestandteil ist, liegt vor allem daran, dass nicht alle fertigungsrelevanten Informationen zuverlässig in 3D kommuniziert werden können.

Ich würde aber noch einen weiteren Grund dafür anfügen, dass die 2D-Zeichnung nicht totzukriegen ist: In den meisten Unternehmen gibt es nur sehr rudimentäre Möglichkeiten, außerhalb der Produktentwicklung mit den 3D-Modellen zu interagieren. Visualisierungsfunktionen stehen längst nicht an jedem Arbeitsplatz zur Verfügung, weil die entsprechenden 3D-Viewer relativ kostspielig sind. Außerdem sind sie in aller Regel nicht gut genug in die PLM-Prozesse integriert, um beispielsweise Kommentare mit der kommentierten Modellversion in der PLM-Datenbank abspeichern zu können.

Es reicht deshalb meines Erachtens nicht aus, wenn die CAD-Hersteller sich des Themas annehmen und ihre Software um MBD-Funktionen ergänzt. Eine Sache ist nämlich die Anreicherung der 3D-Modelle mit Informationen, die man normalerweise auf der Fertigungs-, Montage- oder Prüfzeichnung findet. Eine andere die Kommunikation der angereicherten 3D-Modelle innerhalb des Unternehmens und in der Zulieferkette. Hier sind auch die PLM-Hersteller gefordert.

Gerade die Erfassung und Weitergabe von qualitätsrelevanten Informationen in den Unternehmen ist immer noch durch viele Medienbrüche gekennzeichnet, so dass die Papierzeichnung für die Mitarbeiter in der Qualitätssicherung fast unverzichtbar ist. Es macht aber meines Erachtens wenig Sinn, die fertigungsrelevanten Informationen am 3D-Modell zu kommunizieren, solange für die Kommunikation von Prüfmaßen und anderen Informationen für den Qualitätsprozess dann doch wieder Zeichnungen erstellt werden müssen.

Die Zuverlässigkeit der 3D-Kommunikation ist der Schlüssel zur zeichnungslosen Fertigung, Montage, Qualitätssicherung etc. Nur wenn gewährleistet ist, dass bei der Konvertierung und Weitergabe der 3D-Modelle keine Informationen verloren gehen oder verfälscht werden können, werden Hersteller und Zulieferer sie als Vertragsgrundlage akzeptieren. Ein Beispiel mag die Problematik verdeutlichen: Ein Hersteller von Karosserieteilen, den ich vor einiger Zeit besuchte, definierte die Oberflächenbeschaffenheit durch Farbkodierungen am 3D-Modell. Bei Änderungen stellte er seinen Zulieferern Ansichten dieser Modelle in einem Neutralformat zur Verfügung. Dabei zeigte sich, dass die Farben in den abgeleiteten Modellen nicht immer korrekt dargestellt wurden. Man hatte also keine Gewähr, dass hinterher die Qualität der Oberflächen stimmte.

Die 3D-Kommunikation muss nicht nur zuverlässiger, sondern auch einfacher und intuitiver werden. Ein guter Ansatz, 3D-Modelle an möglichst jedem Arbeitsplatz zur Verfügung zu stellen, erscheint mir die Integration von 3D-Visualisierungsfunktionen in die  PLM-Systeme. Sie bietet zum Beispiel die Möglichkeit, nicht-geometrische Informationen wie Materialien oder den Freigabestatus eines Bauteils am 3D-Modell zu veranschaulichen. Eine offene Frage ist allerdings, wie diese mit PLM-Informationen angereicherten Modelle geltungsgesichert in der Zulieferkette bereit gestellt und archiviert werden können. Hier gilt das eben Gesagte: Wenn die Zuverlässigkeit nicht gegeben ist, wird sich niemand darauf verlassen wollen.

Der Unterschied zwischen Software und erfolgreicher Software?

Mountain landscape with snow and clear blue sky

Die Einführung von neuer Software ist in aller Regel kein Selbstzweck. Die Treiber in den Unternehmen verfolgen konkrete Ziele rund um wichtige Kenngrößen wie Zeit, Kosten und Qualität. Ein gutes Change Management dient dann dazu, die Fachbereiche und Mitarbeiter von diesen Zielen zu überzeugen und sie zu motivieren und „mitzunehmen“.

Unsere Erfahrungen und die vieler anderer Software-Anbieter und Berater zeigen: entscheidend ist außerdem, wie ein neues Werkzeug überhaupt eingesetzt werden soll: als bloßer Ersatz im Rahmen von ansonsten unveränderten Strukturen und Arbeitsweisen, oder – besser – mit dem Ziel, die Potenziale der Werkzeuge möglichst optimal zu nutzen, auch wenn dies weitergehende Veränderungen bestehender Arbeitsweisen erfordert.

Der sehr lesenswerte Beitrag von Stefan Thomke „High-Tech Tools Won’t Automatically Improve Your Operations“ in der Online-Ausgabe von Harvard Business Review geht diesem Aspekt nach. Er schreibt:

While it is encouraging to see this rapid progress, tools — no matter how advanced — do not automatically confer benefits on organizations. They must be integrated into systems and routines that are already in place. Tools are embedded within the organizations that deploy them as well as the people that use them. When integrated incorrectly, they can actually inhibit performance.

Ein nettes Bild von Thomke bringt die Sache auf den Punkt. Ein Ferrari hilft mir nicht, schneller zur Arbeit zu kommen, solange ich mich nicht um eine andere Route abseits der üblichen Staus kümmere. Zudem liefert Thomke anschauliche Beispiele auch aus dem Bereich der Produktentwicklung mit.

Change Management ist in seiner Substanz also nicht nur gutes Projektmarketing, sondern ist weit mehr als das. Es geht um die oft substantielle Veränderung der eigenen, bisherigen Arbeitsweise und dem Aufbau des Vertrauens der Mitarbeiter darin, dass neue Arbeitsweisen verlässlich funktionieren und tatsächlich die konkreten Vorteile bieten, die auf den PowerPoint-Folien angepriesen wurden. Je größer die Unterschiede sind, desto wahrscheinlicher ist es, dass eine solche Veränderung mehr Zeit und mehr aufeinander folgende Schritte benötigt.

Thomke: „Advanced tools can transform the way you run innovation and operations. But it’s the way you manage the tools and the people that use them that will unlock, or hold back, their potential”.