Hintertürchen zur Collaboration

Engineering Collaboration, die Zusammenarbeit von Unternehmen bei der Produktentwicklung, ist eigentlich nichts Neues. Es gibt das Thema schon solange wie es das Outsourcing gibt. Umso verwunderlicher ist, dass die wesentliche Herausforderung bei der Collaboration immer noch einer Lösung harrt: Die Einbettung der unternehmensübergreifenden Austausch- und Abstimmungsprozesse in die PDM/PLM-Lösungen, mit denen die Produktentwicklung in den Unternehmen gesteuert wird.

An fehlenden Tools liegt es wahrlich nicht – im Gegenteil: die Landschaft der Collaboration-Anwendungen ist dank Cloud und Social Media eher noch bunter geworden. Das eigentliche Problem ist die Integration dieser Tools in die IT-Infrastrukturen und Geschäftsprozesse des jeweiligen Unternehmens. Aus Sicherheitsgründen scheuen

PLM_portal
Mit freundlicher Genehmigung Gualberto107 / FreeDigitalPhotos.net

 die IT-Spezialisten davor zurück, ihre Enterprise Anwendungen nach außen zu öffnen. Das führt oft zu der absurden Situation, dass Daten und Know-how im Unternehmen bombensicher sind, dann aber schnell mal per Email ausgetauscht werden, weil die Ingenieure ja irgendwie ihre Entwicklungsarbeit erledigen müssen. Und die verteilt sich heute nun mal über eine immer längere Supply Chain. Selbst in der sicherheitsbewussten Automobilindustrie tauschen 45 Prozent der Unternehmen ihre Produktdaten mit Auftraggebern und Zulieferern noch vorwiegend per Email aus. Da reiben sich neugierige Nachrichtendienste und andere Datenpiraten freudig die Hände.

In Anbetracht der Tatsache, dass die Collaboration weiter zunimmt und immer globalere Züge annimmt, ist es vielleicht an der Zeit, mal über eine Neugewichtung nachzudenken. Das heißt mit anderen Worten: auf das letzte Quäntchen an innerer Sicherheit zu verzichten, indem man die PLM-Lösung gezielt für den Zugriff von außen öffnet, um dadurch Datensicherheit und Know-how-Schutz bei der Zusammenarbeit mit externen Partnern zu steigern. Insgesamt würde sich die Sicherheitsbilanz bei der verteilten Produktentwicklung dadurch spürbar verbessern. Man muss ja nicht gleich ein großes Portal aufreißen – mit einem Hintertürchen wäre den Projektverantwortlichen manchmal schon gedient.

Eine wesentliche Anforderung an eine solche Collaboration-Lösung ist, dass sie sowohl für die Auftraggeber, als auch für ihre Zulieferer von Nutzen ist. Allzu oft wurden in der Vergangenheit gerade im Automotive-Umfeld Lösungen implementiert, die die Last der Datenkommunikation einseitig den Partnern aufbürdete. Sie mussten für jeden Auftraggeber eine andere Anwendung implementieren und betreiben – oft ohne Integration in ihre Backend-Systeme. Die Daten wurden weitgehend von Hand in die Auftraggeber-Systeme eingepflegt.

Ganz wichtig ist natürlich auch, dass die Lösung unterschiedliche Szenarien der Zusammenarbeit unterstützt. Die Anforderungen bei einem Standardprozess wie zum Beispiel der Angebotseinholung (Request for Quotation) sind andere als bei einem gemeinsamen Entwicklungsprojekt, bei dem die Partner ihre Dateien idealerweise in eine gemeinsame Projektablage einstellen und dadurch die Arbeitsfortschritte online verfolgen. Asynchrone Workflows bieten die Möglichkeit, den Umfang an bereit gestellten Daten und PLM-Funktionen gezielt auf die Empfänger zuzuschneiden. Sie sind gewissermaßen das Hintertürchen der Collaboration, das man dann schrittweise zu einem Portal für die synchrone Zusammenarbeit bei Entwicklungsprojekten ausbauen kann.

Innovationen managen – Flops vermeiden

Der Erfolg hat viele (Mütter und) Väter, der Misserfolg ist immer ein Waisenkind, lautet eine englische Redewendung. Leider ist sie missverständlich. Der Misserfolg hat nämlich mindestens ebenso viele Väter wie der Erfolg, nur dass sie normalerweise den Vaterschaftstest verweigern. Das gilt auch für das Scheitern von Produktinnovationen, das viele Ursachen haben kann. Tina Müller, die neue Marketing-Chefin von Opel, und Marketing-Professor Hans-Willi Schroiff haben die wichtigsten Gründe in einem Buch (Warum Produkte floppen) zusammengetragen.

Ein neues Buch zu einem altbekannten Problem zu schreiben ist keine besonders innovative Idee. Aber wenn es stimmt, dass 60 bis 80 Prozent der neu eingeführten Produkte floppen, wie Müller in einem Interview behauptet (http://www.handelsblatt.com/unternehmen/it-medien/opel-managerin-mueller-innovation-ist-jeden-tag/8953402.html), dann ist das Thema zweifellos relevant. Und Relevanz für die Zielgruppe ist neben der Einzigartigkeit ein wesentliches Kriterium für erfolgreiche Produkte oder Innovationen. Wobei von erfolgreichen Innovationen zu sprechen eigentlich ein Pleonasmus ist: Nach Joseph Schumpeter ist Innovation nämlich nicht die Erfindung, sondern die Durchsetzung einer technischen oder organisatorischen Neuerung. Was sich nicht durchsetzt bzw. keinen Erfolg hat, ist also keine Innovation.

ID-10061597
Mit freundlicher Genehmigung von nokhoog_buchachon, www.freedigitalphotos.net

Paradoxerweise ist der Erfolg (von Innovationen) zugleich ein Floprisiko, weil sich erfolgreiche Organisationen scheuen, Dinge anders zu machen, während sich die Welt um sie verändert. Deshalb laufen gerade erfolgreiche Unternehmen laut Müller Gefahr, den Zug zu verpassen. Sie ruhen sich gewissermaßen auf ihren innovativen Lorbeeren aus und versuchen sie, durch schrittweise Neuerungen frisch zu halten, statt den nächsten Innovationssprung zu wagen. Dafür gibt es zahlreiche Beispiele: Marktführer Nokia hat den Trend zum Smartphone regelrecht verschlafen und Sony war mit dem Walkman so erfolgreich, dass das Unternehmen das Potential des MP3-Formats für die Geschäftsmodellinnovation übersehen hat.

Für die konstant hohen Flopraten gibt – wie gesagt – viele Ursachen. Die meisten Fehler werden schon in der Konzeptphase gemacht, wie Müller sagt, aber selbst ein relevantes und einzigartiges Produkt kann scheitern, wenn es nicht mit der Markenstrategie harmoniert oder das Unternehmen die falsche Vertriebs- und Marketingstrategie wählt. Und dann gibt es Produkte, die im Test begeistern, und trotzdem im Markt floppen, weil die Konsumenten Kaufentscheidungen nicht unbedingt rational treffen. Deshalb sind die Unternehmen ja so daran interessiert, unsere Big Data-Spuren in Internet und Sozialen Medien auszuwerten, um uns auf die Schliche zu kommen.

Eine Frage bzw. die Antworten fand ich aus PLM-Sicht besonders interessant, weshalb ich sie hier wörtlich zitiere. Was wichtiger sei, die Anzahl der Produktideen oder die Qualität des Innovationsmanagements?

Müller: Unternehmen brauchen am Anfang des Innovationsprozesses, bevor sie über das Konzept sprechen, rund 1000 Ideen, damit überhaupt irgendwas dabei ist, was sich lohnt weiterzuentwickeln. Wenn diese erste Stufe, die mehr auf Quantität geht, durchlaufen ist, dann muss es in einem recht engen und strukturierten Innovationsprozess weitergehen, weil sonst noch viel mehr Fehler gemacht werden. Das heißt, die Qualität des Innovationsmanagements ist genau so wichtig wie die Breite der Ideen im Anfangsstadium.

Schroiff: […] ohne diese 1000 Ideen hätte man nicht die zehn, die am Ende des Tags das Zünglein an der Waage für den Erfolg sind. Es ist ganz wichtig, dass die Leute nicht denken, ich muss jetzt mal zehn gute Ideen bekommen. Nein. Sie brauchen diese 1000 Ideen und die müssen immer weiter geschmiedet werden. Es ist nicht richtig, einmal im Jahr eine Woche über Innovationen nachzudenken. Innovation ist jeden Tag. Wenn man das nicht lebt und als Kultur verankert, wird es schwierig mit kontinuierlichen Innovationen. Deshalb braucht man einen ständigen Nachstrom an Ideen, um sagen zu können, das machen wir nicht. (Quelle: Handelsblatt online, 28.10.2013)

Das heißt mit anderen Worten, dass die Unternehmen einerseits einen konstanten Strom von Ideen produzieren müssen, was in erster Linie eine Frage der Innovationskultur ist. Auf der anderen Seite müssen sie die Tausend Ideen erfassen, mit Blick auf ihre Innovationsstrategie bewerten und die richtigen zehn herausfiltern, um sie in (hoffentlich erfolgreiche) Innovationen umzusetzen. Dabei kann PLM wertvolle Hilfe leisten, vorausgesetzt die Lösung unterstützt den Innovationsprozess von der strategischen Produktplanung über die Konzeption bis zur Abwicklung von Entwicklungsprojekten durch ein leistungsfähiges Innovationsmanagement.

Soziale Netze und Big Data – ein PLM-Thema?

Viele Menschen nehmen fälschlicherweise an, im Internet sei alles gratis. Richtig ist, dass bezahlte Inhalte rar sind, weil kaum jemand bereit ist, für Informationen aus der Cloud zu zahlen. Stattdessen zahlen wir lieber mit Informationen über unsere Person, unsere Vorlieben und Interessen, unser Kaufverhalten etc, die wir bereitwillig auf Facebook & Co. posten, oft ohne uns bewusst zu sein, wie teuer uns das möglicherweise irgendwann mal zu stehen kommt. Dass die Suchbegriffe, die wir in Google eingeben, systematisch für Werbezwecke ausgewertet werden, ist nur die Spitze des Eisberges dessen, was mit “unseren” Daten so alles getrieben wird. In Ermangelung international einheitlicher Datenschutzbestimmungen ist der einzige Schutz, der uns bleibt, die schiere Menge an entstehenden Daten.

Image

Die Sozialen Netze leisten einen maßgeblichen Beitrag dazu, dass sich die Datenmenge seit dem Urknall des Internets mit der Geschwindigkeit des Universums ausbreitet. Das meiste davon ist Abraum, aber die Unternehmen haben den gigantischen Datenberg als Goldmine entdeckt. Big Data – die Auswertung von Unmengen an unstrukturierten Daten, um ein paar Goldkörnchen Information zu entdecken – ist eine der großen Herausforderungen für die IT-Organisation, wie Dr. Ralf Brunken, stellvertretender IT-Leiter des Vokswagen-Konzerns, neulich auf dem ProSTEP iViP-Symposium in Hannover sagt. Interessanterweise nannte er dabei Big Data in einem Atemzug mit Social Media. Mit Hilfe von Social Analytics-Verfahren will der Automobilbauer seine Kunden besser verstehen und mehr über ihre Wünsche in Erfahrung bringen.

Aus Sicherheitsgründen findet die Auswertung der Daten aus den Sozialen Netzen vor den Feuerschutztüren des Firmennetzes statt.  Die firmeninterne Nutzung von  Social Media-Plattformen mit dem Ziel, die Mitarbeiter über bestimmte Themen zu vernetzen, spielt bei Volkswagen noch eine untergeordnete Rolle. Dennoch stellt sich damit über kurz oder lang die Frage, was mit der wachsenden Menge an unstrukturierten Daten im Unternehmen geschehen soll, die Firmeninternas, schützenswertes Know-how und möglicherweise sogar Informationen enthalten können, die aus produkthaftungsrechtlichen Gründen aufbewahrt werden müssen. Prof. Rainer Stark vom Fraunhofer IPK Berlin brachte es auf dem Symposium in einem etwas anderen Zusammenhang auf den Punkt: Die PDM/PLM-Lösungen der Zukunft werden auch unstrukturierte Daten managen (müssen).

Eine andere Frage ist, wie die Anwender in den Unternehmen mit der Informationsflut und vor allem mit der wachsenden Zahl an Kommunikationskanälen umgehen. Die heranwachsende Generation der Digital Natives ist sicher mehrkanalfähig – meine neunjährige Tochter schaffte es neulich, gleichzeitig mit (meinem) iPad, Notebook und PSP herumzuspielen und nebenbei noch die Simpsons im Fernsehen zu verfolgen. Wir älteren Semester sind mit den vielen Kanälen leicht überfordert. Neulich suchte ich verzweifelt in meinen Emails, dann in den Facebook-, LinkedIn-, SMS- und WhatsApp-Benachrichtigungen nach einer Adresse, von der ich sicher wusste, dass ich sie erhalten hatte. Ich fand sie schließlich in den aufgezeichneten Chats in Sykpe.

Je mehr Kommunikationskanäle wir nutzen, desto länger suchen wir nach Informationen und desto größer die Gefahr, wichtige Informationen zu übersehen. Natürlich ist es möglich, die Informationen visuell in einem Dashboard oder Cockpit zusammenzuführen; dafür gibt es heute schon Lösungen. Die eigentliche Herausforderung besteht jedoch darin, mit Hilfe intelligenter Algorithmen Zusammenhänge zwischen zusammen gehörigen Informationen aufzuspüren, ohne die Strukturen explizit herstellen zu müssen. Da sind auch die PLM-Hersteller gefordert, wenn sie künftig großen Mengen an unstrukturierte Daten mit ihren Informationsmodellen verknüpfen wollen.