Hintertürchen zur Collaboration

Engineering Collaboration, die Zusammenarbeit von Unternehmen bei der Produktentwicklung, ist eigentlich nichts Neues. Es gibt das Thema schon solange wie es das Outsourcing gibt. Umso verwunderlicher ist, dass die wesentliche Herausforderung bei der Collaboration immer noch einer Lösung harrt: Die Einbettung der unternehmensübergreifenden Austausch- und Abstimmungsprozesse in die PDM/PLM-Lösungen, mit denen die Produktentwicklung in den Unternehmen gesteuert wird.

An fehlenden Tools liegt es wahrlich nicht – im Gegenteil: die Landschaft der Collaboration-Anwendungen ist dank Cloud und Social Media eher noch bunter geworden. Das eigentliche Problem ist die Integration dieser Tools in die IT-Infrastrukturen und Geschäftsprozesse des jeweiligen Unternehmens. Aus Sicherheitsgründen scheuen

PLM_portal
Mit freundlicher Genehmigung Gualberto107 / FreeDigitalPhotos.net

 die IT-Spezialisten davor zurück, ihre Enterprise Anwendungen nach außen zu öffnen. Das führt oft zu der absurden Situation, dass Daten und Know-how im Unternehmen bombensicher sind, dann aber schnell mal per Email ausgetauscht werden, weil die Ingenieure ja irgendwie ihre Entwicklungsarbeit erledigen müssen. Und die verteilt sich heute nun mal über eine immer längere Supply Chain. Selbst in der sicherheitsbewussten Automobilindustrie tauschen 45 Prozent der Unternehmen ihre Produktdaten mit Auftraggebern und Zulieferern noch vorwiegend per Email aus. Da reiben sich neugierige Nachrichtendienste und andere Datenpiraten freudig die Hände.

In Anbetracht der Tatsache, dass die Collaboration weiter zunimmt und immer globalere Züge annimmt, ist es vielleicht an der Zeit, mal über eine Neugewichtung nachzudenken. Das heißt mit anderen Worten: auf das letzte Quäntchen an innerer Sicherheit zu verzichten, indem man die PLM-Lösung gezielt für den Zugriff von außen öffnet, um dadurch Datensicherheit und Know-how-Schutz bei der Zusammenarbeit mit externen Partnern zu steigern. Insgesamt würde sich die Sicherheitsbilanz bei der verteilten Produktentwicklung dadurch spürbar verbessern. Man muss ja nicht gleich ein großes Portal aufreißen – mit einem Hintertürchen wäre den Projektverantwortlichen manchmal schon gedient.

Eine wesentliche Anforderung an eine solche Collaboration-Lösung ist, dass sie sowohl für die Auftraggeber, als auch für ihre Zulieferer von Nutzen ist. Allzu oft wurden in der Vergangenheit gerade im Automotive-Umfeld Lösungen implementiert, die die Last der Datenkommunikation einseitig den Partnern aufbürdete. Sie mussten für jeden Auftraggeber eine andere Anwendung implementieren und betreiben – oft ohne Integration in ihre Backend-Systeme. Die Daten wurden weitgehend von Hand in die Auftraggeber-Systeme eingepflegt.

Ganz wichtig ist natürlich auch, dass die Lösung unterschiedliche Szenarien der Zusammenarbeit unterstützt. Die Anforderungen bei einem Standardprozess wie zum Beispiel der Angebotseinholung (Request for Quotation) sind andere als bei einem gemeinsamen Entwicklungsprojekt, bei dem die Partner ihre Dateien idealerweise in eine gemeinsame Projektablage einstellen und dadurch die Arbeitsfortschritte online verfolgen. Asynchrone Workflows bieten die Möglichkeit, den Umfang an bereit gestellten Daten und PLM-Funktionen gezielt auf die Empfänger zuzuschneiden. Sie sind gewissermaßen das Hintertürchen der Collaboration, das man dann schrittweise zu einem Portal für die synchrone Zusammenarbeit bei Entwicklungsprojekten ausbauen kann.

Agentenklamauk mit ernstem Hintergrund

David John Moore Cornwell, besser bekannt als John le Carré, hätte die Geschichte nicht besser erfunden. Die Enthüllungen des milchgesichtigen Systemadministrators Edward  John Snowden entwickeln sich zum amüsantesten Agententhriller seit der Filmkomödie Charade, die vor ziemlich genau 50 Jahren gedreht wurde – wir erinnern uns: mit Walter Matthau als falschem CIA-Mann. Einzig die National Security Agency (NSA), Amerikas größter und am besten ausgestatteter Militärnachrichtendienst, ist verständlicherweise not amused.

Aus der Geschichte des Whistleblowers (auf gut Deutsch Verpfeifers) und seiner witzigen Verfolgungsjagd mit Zwischenstopp auf dem Flughafen des ehemaligen Erzfeinds lassen sich eine Reihe von ernsten Lehren ziehen. Zunächst einmal die, dass man mit Freunden wie den Amerikanern eigentlich keine Feinde mehr braucht. Unter dem Vorwand, Terroristen zu jagen, spähen sie klammheimlich ihre Verbündeten aus, und das so systematisch, dass jeder chinesische Industriespion vor Neid erblassen muss. Anders ist nicht zu erklären, dass die Datenspione der NSA in Europas vor allem Deutschland im Visier hatten.

PLMvertraulich
Mit freundlicher Genehmigung von Naypong auf FreeDigitalFotos.net

Zweitens beweisen unsere europäischen Politiker einmal mehr, dass sie etwa so viel Rückrat wie ein Weichtier aus dem jüngeren Pleistozän haben. Selbst unsere eiserne Lady Angela Merkel ist merkwürdig kleinlaut, wenn es darum geht, Stellung zu der massiven Ausspähung zu beziehen. Was muss eigentlich noch geschehen, bevor jemand den amerikanischen Botschafter einbestellt, um ihm eine offizielle Protestnote zu übergeben? Die einzige Erklärung für die Funkstille ist, dass unsere Geheimen von Militärischem Abschirmdienst und Co. mit den amerikanischen Diensten traulich vertraulich im selben Glashaus sitzen, so dass sich keiner traut, den Stein zu werfen.

Die dritte und vielleicht wichtigste Lehre lautet, dass unsere sensiblen Daten nirgendwo so verletzlich sind wie auf dem Transportweg durch die weltweiten Datennetze. Das ist wahrlich keine neue Erkenntnis. Aber wenn irgendein innovatives deutsches Unternehmen mal die verrückte Idee gehabt haben sollte, sein intellektuelles Eigentum in die Cloud zu schicken und das auch noch bei einem amerikanischen Wolkenschieber, dann dürfte sich das Thema erst einmal erledigt haben. Die NSA hat den Anbietern von Cloud-basierten CAD- und PLM-Lösungen einen wahren Bärendienst erwiesen.

Auch die vierte Erkenntnis ist nicht wirklich neu: Der größte Risikofaktor für die Datensicherheit ist der Mensch. Nicht der normale Anwender, der regelmäßig sein Passwort vergisst und es deshalb auf einen Klebezettel an den Bildschirm heftet, sondern der Herr über alle Passwörter. Edward Snowden wird in der Presse immer als Geheimdienstmitarbeiter bezeichnet, was er eigentlich nicht war. Er arbeitete vielmehr als Systemadministrator bei der Beratungsfirma Booz Allen Hamilton, das heißt einem externen Dienstleister, der im Auftrag der NSA an der Datenüberwachung beteiligt war. Dank seiner Tätigkeit konnte er sich Zugang zu geheimen Informationen verschaffen, die selbst für einen Meisterspion schwer zu hacken gewesen wären.

Interessanterweise beschäftigte sich der erste Artikel, den ich vor ein paar Wochen in den USA über den Fall Snowden las, nicht so sehr mit dem Skandal als solchen, sondern mit der Frage, wie dem geheimsten aller Geheimdienste seine Geheimnisse abhanden kommen konnten und wie man sich gegen solche Leaks schützt. Ausgerechnet die IT, die sich um die Datensicherheit kümmert, ist gerade in Unternehmen mit global verteilten Standorten ihre größte Achillesferse, weil die Systemadministratoren vor Ort direkt auf die Datenbanken zugreifen und geschützte Informationen abgreifen können. Da nützen dann auch die besten Rollen- und Rechtekonzepte im PLM-System nichts.

Die Unternehmen sind sich dieser Problematik durchaus bewusst. Neulich besuchte ich einen renommierten Automobilzulieferer, der in der frühen Entwurfsphase eng mit OEM-Kunden zusammenarbeitet und deshalb bei der Datenkommunikation hohe Sicherheitsanforderungen erfüllen muss. Die Firma entwickelt weltweit an elf Standorten, die zum Teil gemeinsam an Projekten arbeiten. Um das Risiko der Industriespionage so gering wie möglich zu halten, werden nur die gemeinsam genutzten Daten an andere Standorte repliziert und auch nur dann, wenn der Anwender die entsprechende Berechtigung hat. „Nichts ist gefährlicher für die Datensicherheit als ein frustrierter Mitarbeiter“, meinte mein Gesprächspartner. Als Systemadministrator wusste er wovon er sprach.

Mit PLM auf Wolke sieben?

Wenige IT-Themen werden dies- und jenseits des großen Teichs so unterschiedlich beurteilt wie die Nutzungsmöglichkeiten und das Nutzenpotential der Cloud für das Product Lifecycle Management. Die Amerikaner, die kurioserweise mehr Vorbehalte gegen das Internet-Banking haben als wir Deutschen, sind eher bereit, PLM-Funktionen aus der Cloud zu beziehen bzw. ihre PLM-Daten in die Cloud zu stellen. Böse Zungen behaupten, das sei nicht weiter verwunderlich, weil sie mehr Geld und weniger geistiges Eigentum zu verlieren haben als wir, aber das ist natürlich Unsinn. Es ist im vor allem eine (subjektive) Vertrauensfrage.

Objektiv betrachtet sind CAD- und PLM-Daten in der Cloud ebenso sicher wie in einem firmeneigenen Netz – sagen jedenfalls viele Sicherheitsexperten. Man könnte sogar argumentieren, dass sie dort wahrscheinlich sicherer sind, weil sich die Cloud-Betreiber aus wohlverstandenem Eigeninteresse viel intensiver um Datenschutz und Ausfallsicherheit kümmern als die meisten anderen Unternehmen. Natürlich sind IT-Service-Provider auch ein beliebtes Angriffsziel  für Datenpiraten. Aber ich bin überzeugt davon, dass mehr sensible Daten durch schlampigen Umgang mit ihnen (z. Bsp. durch liegen gelassene Laptops) als durch böswillige Hackerattacken verloren gehen.

plm_cloud(Bildquelle: InnoFour)

Dennoch stehen gerade in Deutschland viele Unternehmen der Cloud skeptisch gegenüber, obwohl sie das Potential zum Teil schon evaluieren. Auch ich gehöre eher zu den Skeptikern, bin allerdings davon überzeugt, dass sich die PLM-Branche dem allgemeinen Trend zum Cloud-Computing auf Dauer nicht wird widersetzen können. Was mich im Augenblick umtreibt ist die Frage, ob die Cloud den PLM-Anwendern wirklich den Nutzen bringt, den ihre Befürworter bzw. die wenigen Anbieter von Cloud-Lösungen ihnen versprechen. Ich habe da so meine (technisch begründeten) Zweifel.

Die wichtigsten Nutzeneffekte Cloud-basierter Lösungen sind Kosteneinsparungen für die (Nicht-)Anschaffung, Betrieb und Wartung von Hard- und Software, ein schnellerer Roll-out und die größere Flexibilität, dadurch dass die Unternehmen ihre IT-Ressourcen je nach Bedarf ohne Installationsaufwand ausweiten und auch wieder zurückfahren können. Die Installation atmet gewissermaßen ein und aus. Wie atmungsaktiv sie ist, hängt allerdings von der Art der Cloud ab. In einem privaten Wölkchen lassen sich die Ressourcen nicht so einfach umverteilen wie in einer öffentlichen Wolke. Wenn überhaupt werden PLM-Lösungen aber derzeit in einer privaten Cloud betrieben.

Die nächste Frage ist, wie viel an IT-Kosten sich tatsächlich einsparen lässt, wenn man neben einer Cloud-basierte PLM-Lösung eine lokale IT-Infrastruktur für CAx-Anwendungen und -Datenmanagement aufrecht erhalten muss. Daran führt aber zu Zeit kein Weg vorbei, erstens weil keiner der führenden PLM-Anbieter eine wirklich Cloud-fähige CAD-Lösung anzubieten hat und zweitens weil die PLM-Anwender zumindest hierzulande ohnehin nicht bereit wären, ihr Engineering-Know-how einem fremden Unternehmen anzuvertrauen. Ohne CAD in der Cloud ist PLM in der Cloud nur von eingeschränktem Wert: Eine interessante Option für PLM-Nachzügler, die die Technologie ohne eigene PLM-Installation nutzen möchten, oder für bestimmte PLM-Prozesse wie die Supply Chain Collaboration.

PLM in der Cloud ist meiner Einschätzung nach zur Zeit (noch) keine Alternative, sondern nur eine Ergänzung zu herkömmlichen Implementierungen. Es ist aber wahrscheinlich, dass nach und nach immer mehr PLM-Funktionen in die Cloud abwandern. Für die meisten PLM-Anbieter bedeutet das, dass sie ihre Lösungen erst mal fit für die Cloud machen müssen. Das sind sie nämlich nicht. Es ist nicht damit getan, sie in einer Cloud-Infrastruktur (IaaS) betreiben zu können – sie müssen auch die PLM-Software als Service anbieten. Dafür muss ihre Software aus dem Stand nutzbar sein, ohne sie vorher tagelang konfigurieren zu müssen. Außerdem muss die Architektur so modular aufgebaut sein, dass Kunden oder Drittanbieter die Möglichkeit haben, sie als Plattform für Anpassungen oder die Entwicklung von Zusatzanwendungen (PaaS) zu nutzen.

Die Unternehmen werden sich auf Dauer nicht mit einer PLM-Lösung „von der Stange“ begnügen, unabhängig davon, ob sie in der Cloud liegt oder nicht. Dazu sind ihre Produkte und Prozesse zu unterschiedlich. Eine Reisekostenabrechnung kann man vielleicht nach Schema F über das Internet abwickeln. Die Art und Weise, wie ein Unternehmen seine Entwicklungsprozesse organisiert, ist aber letztlich entscheidend für seine Wettbewerbsfähigkeit. PLM-Angebote aus der Cloud, die wirklich einen Nutzen für den Anwender erzielen wollen, müssen diesem Umstand Rechnung tragen. Sonst bleibt es bei wolkigen Versprechungen.

Einen ausführlichen Beitrag von mir zum Thema PLM in der Cloud finden Sie hier: (http://www.cadplace.de/Spezialthemen/Schwerpunktthema-Cloud/Hat-CAD-und-PLM-in-der-CLOUD-eine-Zukunft)