Agentenklamauk mit ernstem Hintergrund

David John Moore Cornwell, besser bekannt als John le Carré, hätte die Geschichte nicht besser erfunden. Die Enthüllungen des milchgesichtigen Systemadministrators Edward  John Snowden entwickeln sich zum amüsantesten Agententhriller seit der Filmkomödie Charade, die vor ziemlich genau 50 Jahren gedreht wurde – wir erinnern uns: mit Walter Matthau als falschem CIA-Mann. Einzig die National Security Agency (NSA), Amerikas größter und am besten ausgestatteter Militärnachrichtendienst, ist verständlicherweise not amused.

Aus der Geschichte des Whistleblowers (auf gut Deutsch Verpfeifers) und seiner witzigen Verfolgungsjagd mit Zwischenstopp auf dem Flughafen des ehemaligen Erzfeinds lassen sich eine Reihe von ernsten Lehren ziehen. Zunächst einmal die, dass man mit Freunden wie den Amerikanern eigentlich keine Feinde mehr braucht. Unter dem Vorwand, Terroristen zu jagen, spähen sie klammheimlich ihre Verbündeten aus, und das so systematisch, dass jeder chinesische Industriespion vor Neid erblassen muss. Anders ist nicht zu erklären, dass die Datenspione der NSA in Europas vor allem Deutschland im Visier hatten.

PLMvertraulich
Mit freundlicher Genehmigung von Naypong auf FreeDigitalFotos.net

Zweitens beweisen unsere europäischen Politiker einmal mehr, dass sie etwa so viel Rückrat wie ein Weichtier aus dem jüngeren Pleistozän haben. Selbst unsere eiserne Lady Angela Merkel ist merkwürdig kleinlaut, wenn es darum geht, Stellung zu der massiven Ausspähung zu beziehen. Was muss eigentlich noch geschehen, bevor jemand den amerikanischen Botschafter einbestellt, um ihm eine offizielle Protestnote zu übergeben? Die einzige Erklärung für die Funkstille ist, dass unsere Geheimen von Militärischem Abschirmdienst und Co. mit den amerikanischen Diensten traulich vertraulich im selben Glashaus sitzen, so dass sich keiner traut, den Stein zu werfen.

Die dritte und vielleicht wichtigste Lehre lautet, dass unsere sensiblen Daten nirgendwo so verletzlich sind wie auf dem Transportweg durch die weltweiten Datennetze. Das ist wahrlich keine neue Erkenntnis. Aber wenn irgendein innovatives deutsches Unternehmen mal die verrückte Idee gehabt haben sollte, sein intellektuelles Eigentum in die Cloud zu schicken und das auch noch bei einem amerikanischen Wolkenschieber, dann dürfte sich das Thema erst einmal erledigt haben. Die NSA hat den Anbietern von Cloud-basierten CAD- und PLM-Lösungen einen wahren Bärendienst erwiesen.

Auch die vierte Erkenntnis ist nicht wirklich neu: Der größte Risikofaktor für die Datensicherheit ist der Mensch. Nicht der normale Anwender, der regelmäßig sein Passwort vergisst und es deshalb auf einen Klebezettel an den Bildschirm heftet, sondern der Herr über alle Passwörter. Edward Snowden wird in der Presse immer als Geheimdienstmitarbeiter bezeichnet, was er eigentlich nicht war. Er arbeitete vielmehr als Systemadministrator bei der Beratungsfirma Booz Allen Hamilton, das heißt einem externen Dienstleister, der im Auftrag der NSA an der Datenüberwachung beteiligt war. Dank seiner Tätigkeit konnte er sich Zugang zu geheimen Informationen verschaffen, die selbst für einen Meisterspion schwer zu hacken gewesen wären.

Interessanterweise beschäftigte sich der erste Artikel, den ich vor ein paar Wochen in den USA über den Fall Snowden las, nicht so sehr mit dem Skandal als solchen, sondern mit der Frage, wie dem geheimsten aller Geheimdienste seine Geheimnisse abhanden kommen konnten und wie man sich gegen solche Leaks schützt. Ausgerechnet die IT, die sich um die Datensicherheit kümmert, ist gerade in Unternehmen mit global verteilten Standorten ihre größte Achillesferse, weil die Systemadministratoren vor Ort direkt auf die Datenbanken zugreifen und geschützte Informationen abgreifen können. Da nützen dann auch die besten Rollen- und Rechtekonzepte im PLM-System nichts.

Die Unternehmen sind sich dieser Problematik durchaus bewusst. Neulich besuchte ich einen renommierten Automobilzulieferer, der in der frühen Entwurfsphase eng mit OEM-Kunden zusammenarbeitet und deshalb bei der Datenkommunikation hohe Sicherheitsanforderungen erfüllen muss. Die Firma entwickelt weltweit an elf Standorten, die zum Teil gemeinsam an Projekten arbeiten. Um das Risiko der Industriespionage so gering wie möglich zu halten, werden nur die gemeinsam genutzten Daten an andere Standorte repliziert und auch nur dann, wenn der Anwender die entsprechende Berechtigung hat. “Nichts ist gefährlicher für die Datensicherheit als ein frustrierter Mitarbeiter”, meinte mein Gesprächspartner. Als Systemadministrator wusste er wovon er sprach.

Soziale Netze und Big Data – ein PLM-Thema?

Viele Menschen nehmen fälschlicherweise an, im Internet sei alles gratis. Richtig ist, dass bezahlte Inhalte rar sind, weil kaum jemand bereit ist, für Informationen aus der Cloud zu zahlen. Stattdessen zahlen wir lieber mit Informationen über unsere Person, unsere Vorlieben und Interessen, unser Kaufverhalten etc, die wir bereitwillig auf Facebook & Co. posten, oft ohne uns bewusst zu sein, wie teuer uns das möglicherweise irgendwann mal zu stehen kommt. Dass die Suchbegriffe, die wir in Google eingeben, systematisch für Werbezwecke ausgewertet werden, ist nur die Spitze des Eisberges dessen, was mit “unseren” Daten so alles getrieben wird. In Ermangelung international einheitlicher Datenschutzbestimmungen ist der einzige Schutz, der uns bleibt, die schiere Menge an entstehenden Daten.

Image

Die Sozialen Netze leisten einen maßgeblichen Beitrag dazu, dass sich die Datenmenge seit dem Urknall des Internets mit der Geschwindigkeit des Universums ausbreitet. Das meiste davon ist Abraum, aber die Unternehmen haben den gigantischen Datenberg als Goldmine entdeckt. Big Data – die Auswertung von Unmengen an unstrukturierten Daten, um ein paar Goldkörnchen Information zu entdecken – ist eine der großen Herausforderungen für die IT-Organisation, wie Dr. Ralf Brunken, stellvertretender IT-Leiter des Vokswagen-Konzerns, neulich auf dem ProSTEP iViP-Symposium in Hannover sagt. Interessanterweise nannte er dabei Big Data in einem Atemzug mit Social Media. Mit Hilfe von Social Analytics-Verfahren will der Automobilbauer seine Kunden besser verstehen und mehr über ihre Wünsche in Erfahrung bringen.

Aus Sicherheitsgründen findet die Auswertung der Daten aus den Sozialen Netzen vor den Feuerschutztüren des Firmennetzes statt.  Die firmeninterne Nutzung von  Social Media-Plattformen mit dem Ziel, die Mitarbeiter über bestimmte Themen zu vernetzen, spielt bei Volkswagen noch eine untergeordnete Rolle. Dennoch stellt sich damit über kurz oder lang die Frage, was mit der wachsenden Menge an unstrukturierten Daten im Unternehmen geschehen soll, die Firmeninternas, schützenswertes Know-how und möglicherweise sogar Informationen enthalten können, die aus produkthaftungsrechtlichen Gründen aufbewahrt werden müssen. Prof. Rainer Stark vom Fraunhofer IPK Berlin brachte es auf dem Symposium in einem etwas anderen Zusammenhang auf den Punkt: Die PDM/PLM-Lösungen der Zukunft werden auch unstrukturierte Daten managen (müssen).

Eine andere Frage ist, wie die Anwender in den Unternehmen mit der Informationsflut und vor allem mit der wachsenden Zahl an Kommunikationskanälen umgehen. Die heranwachsende Generation der Digital Natives ist sicher mehrkanalfähig – meine neunjährige Tochter schaffte es neulich, gleichzeitig mit (meinem) iPad, Notebook und PSP herumzuspielen und nebenbei noch die Simpsons im Fernsehen zu verfolgen. Wir älteren Semester sind mit den vielen Kanälen leicht überfordert. Neulich suchte ich verzweifelt in meinen Emails, dann in den Facebook-, LinkedIn-, SMS- und WhatsApp-Benachrichtigungen nach einer Adresse, von der ich sicher wusste, dass ich sie erhalten hatte. Ich fand sie schließlich in den aufgezeichneten Chats in Sykpe.

Je mehr Kommunikationskanäle wir nutzen, desto länger suchen wir nach Informationen und desto größer die Gefahr, wichtige Informationen zu übersehen. Natürlich ist es möglich, die Informationen visuell in einem Dashboard oder Cockpit zusammenzuführen; dafür gibt es heute schon Lösungen. Die eigentliche Herausforderung besteht jedoch darin, mit Hilfe intelligenter Algorithmen Zusammenhänge zwischen zusammen gehörigen Informationen aufzuspüren, ohne die Strukturen explizit herstellen zu müssen. Da sind auch die PLM-Hersteller gefordert, wenn sie künftig großen Mengen an unstrukturierte Daten mit ihren Informationsmodellen verknüpfen wollen.

Requirements Engineering besser integrieren

Das Anforderungsmanagement ist nach einhelliger Auffassung von Praktikern und von Fachleuten aus Forschung und Lehre das A und O des Systems Engineerings (SE). Dabei ist es nicht damit getan, die Anforderungen am Anfang der Systementwicklung einmalig zu erfassen und zu bewerten – sie können sich im Laufe der Entwicklung nämlich verändern und müssen deshalb über ihren gesamten Lebenszyklus einem konsequenten Änderungsmanagement unterworfen werden. Aus diesem Grunde plädieren viele PLM-Hersteller für die Einbettung des Anforderungsmanagements in das Product Lifecycle Management (PLM) bzw. die entsprechenden PLM-Lösungen, mit denen die mechanischen und mechatronischen Komponenten verwaltet werden, die diese Anforderungen letztlich in entsprechende Funktionen umsetzen.

Das Plädoyer klingt plausibel, lässt sich in der Praxis aber nicht so einfach befolgen. Zunächst einmal sind die Menschen, die sich in den Unternehmen mit der Erfassung, Bewertung und Dokumentation von Systemanforderungen beschäftigen, ein besonderer Schlag, der mit PLM (noch?) nicht viel anzufangen weiß. Wer sie näher kennen lernen möchte, dem sei der Besuch der REConf empfohlen – der europaweit bedeutendsten Tagung zum Thema Requirements Engineering (RE). Sie fand neulich zum 12. Mal in München statt, ohne dass die PLM-Welt davon groß Notiz nahm. Zu meinem Erstaunen waren unter den immerhin 40 Ausstellern nur zwei namhafte PLM-Hersteller zu finden, von denen sich einer noch dazu als ALM-Anbieter (Application Lifecycle Management) präsentierte.

Zugegebenermaßen spielt das Thema Prozessintegration und PLM für die RE-Gemeinde derzeit noch eine untergeordnete Rolle. Sie hat andere Prioritäten: Erst einmal geht es darum, RE überhaupt nachhaltig in der Unternehmen zu verankern. Obwohl fast alle Unternehmen heute zumindest in ausgewählten Projekten RE anwenden und die Methode auf eine wachsende Akzeptanz stößt, ist sie in den meisten Fällen noch nicht genügend etabliert, wie eine Anwenderbefragung von REConf-Veranstalter HOOD ergeben hat. Zum Teil hängt das damit zusammen, dass das Management RE zwar gerne nachhaltig in der Organisation verankern würde, aber dafür kein zusätzliches Budget locker macht.

grafik_hood2Der Ruf nach mehr Integration wird jedoch auch in der RE-Gemeinde lauter. Die Anwender, die an der Befragung teilnahmen, sind mit ihren RE-Tools nicht immer zufrieden. Sie wünschen sich bessere Schnittstellen zu den Werkzeugen und Systemen anderer Disziplinen, insbesondere zum Testmanagement, aber auch zu klassischen PLM-Funktionsbereichen wie Änderungsmanagement, Projektmanagement oder Dokumentengenerierung. Viele dieser Schnittstellen würden sich erübrigen, wenn man die Anforderungen direkt im PLM-Kontext erfasste und dokumentierte, aber das würde die etablierte Tool-Landschaft ziemlich über den Haufen werfen.

Wie sieht diese Landschaft aus? Die meist genutzten Anwendungen für RE und Anforderungsmanagement sind immer noch Excel und andere MS Office-Anwendungen, dicht gefolgt von IBM DOORS. Sie leisten den Anwendern zwar gute Dienste, weisen aber gerade in punkto Datenbankintegration und Prozessunterstützung Schwächen auf. Das erschwert zugleich den Austausch von Anforderungen zwischen Entwicklungspartnern, noch dazu wenn sie andere RE-Tools einsetzen. Abhilfe soll jetzt der ReqIF-Standard schaffen, den einige Tool-Hersteller bereits implementiert haben und den auch die PLM-Anbieter nutzen können, um Anforderungen standardbasiert aus den RE-Werkzeugen zu importieren bzw. an sie zu exportieren.

Denn eins ist klar: PLM wird die bestehenden RE-Werkzeuge auf absehbare Zeit nicht ersetzten, sondern allenfalls ergänzen. Einkauf, Entwicklung und anderen Abteilungen haben unterschiedliche Sichten auf die Anforderungen und nutzen unterschiedliche Anwendungen, um diese Sichten darzustellen. Wichtig ist jedoch aus Prozesssicht, dass zumindest die kritischen Anforderungen in der PLM-Umgebung wandern, um sie dort mit anderen Objekten verknüpfen und ihre Änderungsgeschichte nachvollziehen zu können. Dafür müssen die PLM-Anbieter neben eigenen Anforderungsmanagement-Funktionen entsprechende Integrationen bereit stellen.