Are data science platforms a good idea?

According to Karl Valentin: Platforms are beautiful and take a lot of work off your neck. The idea of platforms for automatic data analysis comes at just the right time. In line with this, Gartner has now published a “Magic Quadrant for Data Science and Machine Learning Platforms“. The document itself can only be viewed behind a paywall, but on the net some of the companies mentioned in the report offer access to the document by entering the address.

Gartner particularly emphasizes that such a platform should provide everything you need from a single source, unlike various individual components that are not directly coordinated with each other.

Sounds good to me! However, data science is not an area where you can magically get ahead with a tool or even a platform. The development of solutions – for example, for predictive maintenance of the machines offered by a company – goes through various phases, with cleaning/wrangling and preprocessing accounting for most of the work. In this area, ETL (Extract, Transform, Load) and visualization tools such as Tableau can be ranked. And beyond the imaginary comfort zone of platforms that managers imagine, database queries and scripts for transformation and aggregation in Python or R are simply the means of choice. A look at data science online tutorials from top providers like Coursera underlines the importance of these – well – down-to-earth tools. “Statistical analysis, Python programming with NumPy, pandas, matplotlib, and Seaborn, Advanced statistical analysis, Tableau, machine learning with stats models and scikit-learn, deep learning with TensorFlow” is one of Udemy’s course programs.

In addition, the projects often get stuck in this preliminary stage or are cancelled. There are many reasons for this:

  • no analytical/statistical approach can be found
  • the original idea proves to be unfeasible
  • the data is not available in the quantity or quality you need
  • simple analyses and visualizations are enough and everything else would be “oversized”.

This is no big deal, as it only means that the automated use of Machine Learning and AI does not make a data treasure out of every data set. If, however, the productive benefit becomes apparent, it is necessary to prepare for the production pipeline and time or resource constraints. Usually you start from scratch and reproduce everything again, e.g. in Tensorflow for neural networks or in custom libraries.

The misunderstanding is that a) Data Science can be driven up to productive use without a trace and b) a one-stop-shop for Data Science (here “platform”) is needed that does everything in one go. That will never happen.

This is really good news, because it means that organizations can achieve their first goals without having to resort to large platforms. The reasonably careful selection of suitable tools (many of them open source) helps to achieve this.

Also interesting:
In my video “AI Needs Strategy” I explain which steps companies can take to to use AI technology in a successful way.



Die digitale Transformation transformiert auch PLM

Die Unternehmen der Automobilindustrie beschäftigen sich intensiv mit der digitalen Transformation, und dabei geht es nicht mehr nur um Industrie 4.0 und die intelligente Vernetzung der Fertigung, sondern um die Umgestaltung der Unternehmensprozesse und Geschäftsmodelle. Wie intensiv, das wurde auf dem diesjährigen ProSTEP iViP-Symposium in Stuttgart deutlich, an den über 660 Besucher aus 19 Ländern teilnahmen. Ein neuer Rekord, und sicher nicht der letzte. Viele Vorträge spiegelten die Sorge wider, dass disruptive Technologien wie das Internet of Things (IoT) zur Verdrängung der alten Platzhirsche durch neue Herausforderer führen könnten. Der Erfolg von Tesla hat die Branche aufgeschreckt und der Name Nokia steht wie ein Menetekel an der Wand. Continue reading “Die digitale Transformation transformiert auch PLM”

Vernetzung bedeutet Autonomieverlust

Digital Twin oder digitaler Zwilling ist das jüngste Ferkelchen, das die PLM-Hersteller durchs Dorf treiben. Wer den Begriff erfunden hat, weiß ich nicht, aber sicher nicht Bundespräsident Joachim Gauck, der ihn im Jahr 2013 in seiner vielgeachteten Rede zum Tag der Deutschen Einheit erwähnte. Er spielte damit auf die Abbildung unseres realen Ichs in den sozialen Netzwerken an und warnte vor den Gefahren, die daraus für unser Privatsphäre erwachsen können. Continue reading “Vernetzung bedeutet Autonomieverlust”

Die handschriftliche Signatur hat ausgedient

In Deutschland leben einer nicht mehr ganz aktuellen Veröffentlichung der Zeitung “Die Welt” zufolge 2,3 Millionen Analphabeten und weitere 7,5 Millionen, die kaum mehr als ihren Namen schreiben können. Wenn das Beispiel von PISA-Vorbild Finnland Schule machen sollte, dürften es künftig sogar noch ein paar Millionen mehr werden. Die Finnen wollen ernsthaft die Vermittlung der Schreibschrift aus dem Lehrplan der Grundschulen streichen. Stattdessen sollen die Kinder mit allen Fingern tippen lernen, was bei der Größe einer normalen Handytatstatur eine echte Herausforderung darstellt.

Doch was ist mit der Unterschrift? Für die Gültigkeit von vielen Rechtsgeschäften ist immer noch die handschriftliche Namenszeichnung als Nachweis der Identität der betreffenden Person und der Authentizität des unterzeichneten Dokuments erforderlich. Sollen wir Verträge, die uns den Kopf kosten können, etwa wieder mit drei krakeligen Kreuzen unterzeichnen? Wie die Freibeuter in den alten Piratenfilmen, wenn sie – meist nicht ganz freiwillig – auf irgendeinem Seelenverkäufer anheuern?

Mit freundlicher Genehmigung von Jeroen van Oostrom, www.FreeDigitalPhotos.net
Mit freundlicher Genehmigung von Jeroen van Oostrom, www.FreeDigitalPhotos.net

Nein, so traurig es klingen mag, die handschriftliche Signatur hat keine Zukunft mehr. In einer Welt, in der fast alle Dokumente elektronisch erzeugt und verteilt werden, muss auch die Urheberschaft und ihre Unverfälschbarkeit elektronisch bezeugt werden. Sie auszudrucken, von Hand zu unterschreiben und wieder einzuscannen, was heute in vielen Geschäftsprozessen noch gängige Praxis ist, kostet nicht nur unnötig viel Papier. Es ist auch sehr zeitaufwendig, insbesondere wenn die Dokumente auf dem Postweg verteilt und von mehreren Personen an unterschiedlichen Standorten unterzeichnet werden müssen.

Drei elektronische Kreuze am Fuße einer Email reichen als Ersatz für die Unterschrift auf Papier natürlich nicht aus. Die Signaturverordnung der EU und die darauf aufbauende Signaturgesetzgebung der Bundesregierung unterscheiden einfache, fortgeschrittene und qualifizierte elektronische Unterschriften mit unterschiedlich strengen Auflagen hinsichtlich der Erstellung von Signaturschlüsseln und Signaturprüfschlüsseln sowie der Zertifizierung des Unterzeichners durch eine unabhängige Stelle. Finnland ist auch hier einen Schritt weiter: Unter bestimmten Bedingungen ist dort die elektronische Signatur mit dem Handy der handschriftlichen rechtlich gleichgestellt. Warum sollten die finnischen Kinder da noch Schreiben lernen?

Die Akzeptanz der elektronischen Unterschrift ist Voraussetzung für die Ablösung papierbasierter Geschäftsprozesse. Profitieren würden davon vor allem Unternehmen in streng regulierten Industrien wie der Medizintechnik oder der pharmazeutischen Industrie, die heute einen enormen Aufwand für die Dokumentation ihrer Produkte und Prozesse treiben müssen. Die elektronische Unterschrift würde die elektronische Bereitstellung der Dokumentation erleichtern.

In aller Regel akzeptieren die Zulassungsbehörden Dokumente mit fortgeschrittener elektronischer Unterschrift. Allerdings muss die signierende Partei nicht nur die Echtheit der digitalen Signatur und die Identität des Unterzeichners zweifelsfrei nachweisen, sondern auch den Entstehungsprozess der Dokumente zuverlässig protokollieren können. Es muss sichergestellt sein, dass nur autorisierte und eindeutig identifizierte Personen Zugang zu den elektronischen Aufzeichnungen (Records) haben, dass alle Änderungen auf ihre Quelle zurückgeführt werden können und dass die Aufzeichnungen und ihre Änderungsgeschichte im Rahmen der gesetzlichen Aufbewahrungsfristen wieder zugänglich gemacht werden können.

PLM-Systeme erfüllen die meisten dieser Anforderungen aus dem Stand. Sie verfügen über Rechteverwaltung, Versionskontrolle, Change Management etc. Ihre Workflow-Management-Funktionen bieten die Möglichkeit, komplexe Prüf- und Genehmigungsabläufe mit mehreren Beteiligten abzubilden. Die Integration eines digitalen Signaturverfahrens, das dem aktuellen Stand der Verschlüsselungstechnik entspricht, schafft also die Voraussetzung, um bei der Prüfung und Freigabe von Dokumenten und anderen PLM-Objekten auf die handschriftliche Signatur zu verzichten. Drei Kreuze brauchen die Mitarbeiter dann nur noch nach der nächsten Auditierung durch die Zulassungsbehörden zu machen.

Warum einfach, wenn’s auch kompliziert geht

Deutschen Ingenieuren wird oft vorgeworfen, dass sie zum Over Engineering neigen. Leider nicht ganz zu Unrecht. Das ist aber nicht allein ihre Schuld, sondern auch die ihrer Vorgesetzten (meist selber Ingenieure), die nicht immer in der Lage sind, den ihren Mitarbeiter in die Ingenieurswiege gelegten Kreativtrieb zu bremsen oder wenigstens in die richtigen Bahnen zu lenken. (Oh, ich sehe schon, dass ich mir mit diesem Blogbeitrag keine Freunde machen werde:-)).

Deutsche Unternehmen, die zum Beispiel eine einfache (und kostengünstige) Produktvariante für den asiatischen Markt entwickeln wollen, überlassen das nicht selten ihren polnischen oder tschechischen Ingenieuren. Und das nicht etwa deshalb, weil die weniger kosten (das natürlich auch), sondern weil sie eher in der Lage sind, sich weniger komplexe Lösungen auszudenken. Manchmal werden diese Produkte sogar reimportiert, weil die Unternehmen plötzliche entdecken, dass es auch in unserer entwickelten Welt Bedarf für einfache und preisgünstige Lösungen gibt. Die Amerikaner nennen diesen Trend Reverse Innovation.

Mit freundlicher Genehmigung supakitmod, www.FreeDigitalPhotos.net
Mit freundlicher Genehmigung supakitmod, www.FreeDigitalPhotos.net

Natürlich muss man zur Verteidigung der westlichen Welt und ihrer Ingenieure sagen, dass sie letztlich nur das entwickeln, was wir als (deutsche) Konsumenten für teures Geld zu kaufen bereit sind. Vielleicht sollte ich die Klammer weglassen, denn ich bin der festen Überzeugung, dass Phänomene wie die Mass Customization, das heißt die kundenindividuelle Konfiguration (wenn nicht gleich Entwicklung) von in Serie zu fertigenden Produkten, eigentlich eine Erfindung deutscher Ingenieure ist. So wie übrigens auch die deutsche Antwort auf die damit verbundene, fertigungstechnische Herausforderung: Industrie 4.0.

Beweise? Fragen Sie doch mal bei einem der deutschen Premium-Automobilhersteller nach, ob er nordamerikanischen oder asiatischen Kunden die gleichen Konfigurationsmöglichkeiten für seine Fahrzeuge einräumt wie seinen deutschen Kunden? Pustekuchen. Da wird oft schon der langen Lieferzeiten wegen mit vorkonfigurierten Paketen gearbeitet.

Richtig ist aber, dass die Ingenieure in kaum einer Branche so kreativ sein dürfen wie in der globalen Automobilindustrie. Trotz modularer Längs- und Querbaukästen und anderer Anstrengungen zur Eindämmung der Variantenvielfalt werden viele Dinge in einer zumindest für Laien unfassbar großen Varianz entwickelt, was den allseits bekannten Rattenschwanz an Kosten für Fertigung, Einkauf, Lagerhaltung und Verwaltung der eigentlich redundanten Teile nach sich zieht.

Ein schönes Beispiel dafür habe ich neulich beim Besuch eines bekannten Herstellers von Kabelbindern und -befestigungssystemen entdeckt. Das Unternehmen hat einen innovativen Befestigungsclip für Kabelsätze entwickelt, der in ovale Löcher unterschiedlicher Größe in unterschiedlichen Fahrzeugmarken und -modellen passt. Warum, fragte ich mich, müssen die Löcher für die Befestigungen der Kabelsätze eigentlich unterschiedlich groß sein? Könnte man sich da nicht auf einen Standard einigen oder – besser noch – einfach die Vorgaben der Verkabelungsspezialisten übernehmen? Die wissen doch am besten, welche Kräfte so eine Befestigungssystem aushalten muss. Aber nein, es muss eine kundenindividuelle Lösung sein.

Möglicherweise liegt es daran, dass die Ingenieure nicht wissen, welche Lösungen es von der Stange gibt und wie viel Geld sie durch ihre Verwendung sparen könnten. Und wie viel Zeit, denn geprüfte Komponenten müssen nicht mehr aufwendig abgesichert werden, bevor sie verwendet werden können. Dazu bräuchten sie aus ihrem PLM-System heraus den Zugriff auf leistungsfähige Bauteil-Bibliotheken, in denen sie anhand technischer Parameter die passenden Kaufteile suchen und am besten gleich verbauen können. Und die sie auch darüber informieren, welche ähnlichen Komponenten auf Lager sind und alternativ verbaut werden könnten. Solche Bibliothekssysteme gibt es zwar, aber sie werden offensichtlich noch zu wenig genutzt. Sonst müssten sich die Ingenieure das Leben nicht so schwer machen.

Der Fortschritt ist ein Walkürenritt

Den Fortschrittsglauben meiner technikverliebten Freunde und Kollegen teile ich nur bedingt. Ich bin der festen Überzeugung, dass wir jeden Fortschritt mit lauter kleinen Rückschritten erkaufen. Vor ein paar Tagen, als mein “alter” DVD-Player plötzlich seinen Geist aufgab, ist mit das wieder bewusst geworden. Das No-Name-Gerät hatte einen analogen Audio-Ausgang mit zwei Cinch-Buchsen, so dass ich ihn an meine (wirklich alte) Stereo-Anlage anschließen und mir Filme mit guter Musik über die Boxen anhören konnte. Da klang Wagners Walkürenritt in Apocalyse Now noch mal so gut.

Jetzt habe ich einen nagelneuen Blu(e)-Ray-Player von einem namhaften koreanischen Hersteller, den ich sogar ins WLAN hängen kann. Aber statt der Cinch-Buchsen hat er nur noch einen digitalen Coaxial-Ausgang, und in dem ganzen Medienmarkt war kein Mitarbeiter in der Lage mir zu erklären, wie ich das Gerät wieder an meine Stereo-Anlage anschließen kann. Einer meinte, ich solle das Audiosignal doch am Euro Connector des Fernsehers abgreifen und in den Receiver einspeisen, worauf mir der Song von Mike Krüger in den Sinn kam: “Sie müssen erst den Nippel durch die Lasche ziehen…”

Stecker2
Mit freundlicher Genehmigung Hyena Reality, www.FreeDigitalPhotos.net

Smart Connected Systems stelle ich mir anders vor. Vielleicht hätte ich einen der Kunden fragen sollen, die – wenn man der Werbung besagten Marktes Glauben schenken darf – nicht blöd sind. Der hätte mir dann gesagt, dass ich dafür ein Zusatzgerät benötige, das ich im Spezialhandel suchen muss und das mehr kostet als der neue Player. Aber zum Glück gibt es ja heute das Internet, um die Probleme zu lösen, die man vor dem Internet-Zeitalter nicht hatte. Und wo man den Digital Audio Converter dann auch gleich online bestellen kann.

Sie werden sich sicher fragen, was das alles mit PLM zu tun hat? Ich überlege auch schon die ganze Zeit fieberhaft, wie ich die Kurve kriege. Nun, zunächst einmal macht das Beispiel einmal mehr deutlich, warum wir PLM so dringend benötigen. Es gibt keine einfachen Lösungen mehr – alles wird komplizierter, und ohne PLM sind wir einfach nicht mehr in der Lage, die Komplexität zu beherrschen.

Zwingend erforderlich ist die Integration eines leistungsfähigen Anforderungsmanagements in die PLM-Systeme, damit unsere Kundenbedürfnisse endlich besser erfasst werden. Allerdings befürchte ich, dass mein Wunsch nach Anschluss des Players an eine klassische Stereo-Anlage spätestens bei der Priorisierung der erfassten Anforderungen dem Mainstream zum Opfer fallen würde. Stereo-Anlagen sind halt “mega-out”, wie meine Kinder sagen würden. Die hören Musik mit Handy und Knopf im Ohr und wissen deshalb gar nicht mehr wie gut Musik aus Boxen klingen kann.

Ich kann nur hoffen, dass irgendein Hersteller sein Player-Portfolio PLM-gestützt managt und dank eines integrierten Variantenmanagements in der Lage ist, eine meinen Anforderungen entsprechende Produktvariante zu konfigurieren. Es wird doch ständig von Mass Customization geredet – davon dass Massenprodukte immer variantenreicher werden, um individuelle Kundenanforderungen zu erfüllten. Das mag für deutsche Premium-Fahrzeuge und deutsche Premium-Maschinen sicher lohnenswerter sein, als für elektronische Massenware aus dem fernen Korea, die – das muss man der Fairness halber sagen – sehr viel Leistung für wenig Geld bietet. Aber mit Elektronik und Software lässt sich Varianz doch angeblich viel preisgünstiger abbilden als in Hardware.

Das Problem ist, dass die Lebenszyklen elektronischer Konsumgüter im Ladenregal so kurz sind, dass man kaum Zeit hat, sie zu managen. Ihre Lebensdauer ist hingegen wesentlich länger, was dazu führt, dass in unseren Haushalten Produkte unterschiedlicher Generationen zusammenleben. Wir brauchen also ein generationenübergreifendes Produktfamilien-Management. Und wir brauchen ein PLM-gestütztes Systems Engineering, das die Connectivity-Konflikte zwischen unterschiedlichen Produktgenerationen berücksichtigt.

Nachtrag: Ich habe meinen alten, voll funktionsfähigen Receiver inzwischen dem Fortschritt geopfert und ein Gerät mit digitalem Audio-Eingang bestellt – in der Gewissheit, dass es nicht besser klingen, dafür aber höchstens halb so lange halten wird. Zum Glück dürfte dank PLM zumindest die Recyclingfähigkeit sichergestellt sein.

Verbesserungen am laufenden Band

Der Ausdruck “am laufenden Band” stammt – so möchte ich mal vermuten – aus der Welt der Fertigung, hat sich aber dank Rudi Carrell zu einem stehenden Begriff für alles entwickelt, was in rastloser Unruhe ist. Vielleicht sollte man besser von Verbesserungen im laufenden Betrieb sprechen. Denn darum geht es, wenn Unternehmen ihre funktionierenden PLM-Installationen weiter ausbauen und verbessern.

Mit freundlicher Genehmigung freedigitalphotos.net
Mit freundlicher Genehmigung Chomnancoffee, FreeDigitalPhotos.net

Neulich sprach ich mit dem Projektleiter eines mittelständischen Schweizer Unternehmens, das im vergangenen Jahr eine umfassende PLM-Lösung einschließlich Projektverwaltung implementiert hatte. Unmittelbare Nutzeneffekte waren eine bessere Prozessdurchgängigkeit und Datenkonsistenz. Inzwischen hat das Unternehmen sein Änderungsmanagement dahingehend erweitert, dass bei Freigabe der Änderung eines Artikels die Stücklisten von allen Produkten, in denen dieser Artikel verbaut ist, automatisch aktualisiert werden. Die Zeiteinsparungen durch die Neuerung sind nicht gewaltig, weil man auch früher schon Sammeloperationen ausführen konnte, aber die erweiterten Änderungsmanagement-Funktionen befreien die Anwender von lästigen Routinetätigkeiten. Vor allem aber sind sie die Grundlage für die Abbildung des gesamten ECM-Prozesses (Engineering Change Management) in einem elektronischen Workflow, von dem das sich Unternehmen sich eine spürbare Verkürzung der Durchlaufzeiten von Änderungen verspricht. Sie soll der nächsten Ausbaustufe umgesetzt werden.

Die Moral von der Geschichte ist, dass PLM-Projekte eigentlich nie zu Ende gehen. Es müssen im laufenden Betrieb immer wieder neue Wünsche und Bedürfnisse umgesetzt werden, und sei es nur deshalb, weil sich die Anforderungen des Unternehmens mit der Zeit verändern. Eines ist allerdings sicher: Es werden nie weniger, sondern immer mehr, weshalb sich der Funktionsumfang der PLM-Installationen ständig vergrößert. Wer hätte vor ein paar Jahren gedacht, dass Themen wie Anforderungsmanagement, Konfigurationsmanagement, Projektmanagement oder Qualitätsmanagement mal zu den PLM-Funktionen gehören würden.

Mit wachsendem Funktionsumfang wächst der Kreis der PLM-Anwender und er wird heterogener. Im Unterschied zu den Ingenieuren, die zu den Power Usern gehören, greifen viele andere Anwendergruppen nur gelegentlich auf PLM-Informationen zu. Sie brauchen eine einfache, intuitiv zu bedienende Benutzeroberfläche, in der sie sich ohne Lernaufwand zurecht finden. Dieser Anforderung werden viele PLM-Systeme immer noch nicht ganz gerecht, was sich negativ auf die Akzeptanz auswirkt.

Auch seitens des Managements ergeben sich neue Anforderungen an die PLM-Systeme. Die Führungskräfte wollen vielleicht ihre Entscheidungen mit Hilfe von Kennzahlen besser absichern, die sich aus den oft beiläufig erfassten Informationen im PLM destillieren lassen. Oder sie wollen eine Multiprojektsicht auf alle laufenden und geplanten Entwicklungsprojekte haben, um Prognosen über die weitere Geschäftsentwicklung machen zu können.

Was bedeutet das für die PLM-Systeme und ihre Hersteller? Zunächst einmal, dass sie wachstumsfähig sein müssen. Mit den monolithischen Software-Architekturen der Vergangenheit ist es kaum möglich, den erweiterten Funktionsumfang in einer angemessenen Zeit bereitzustellen. Notwendig sind modulare Software-Plattformen, die sich schnell und flexibel um neue Anwendungsmodule ergänzen lassen. Notwendig sind leistungsfähigere Programmierwerkzeuge, mit denen der Kunde oder sogar ein Third-Party-Entwickler zusätzliche Module entwickeln kann, ohne die Update-Fähigkeit der Lösung zu verbauen. Notwendig ist aber auch und vor allem mehr Offenheit der PLM-Systeme, um Fremdanwendungen leichter integrieren zu können, denn die Hersteller werden auf Dauer nicht den gesamten Funktionsumfang aus eigener Kraft bereitstellen wollen oder können.

Industrie 4.0 braucht smarte Produkte

Die vierte industrielle Revolution kann die Produktivität der deutschen Wirtschaft bis zum Jahr 2025 um mindestens 78 Milliarden Euro steigern. Das behauptet eine Untersuchung, die das Fraunhofer IAO im Auftrag des Hightech-Verbands BITKOM durchgeführt hat (als PDF downloaden). Die Betonung liegt auf dem Wörtchen “kann”: Es handelt sich nicht um eine statistisch abgesicherte Prognose, sondern um die Einschätzung des Wachstumspotentials in ausgewählten Branchen durch verschiedene Branchenexperten.

Für die erfolgreiche Umsetzung von Industrie 4.0 müssen eine Reihe von Voraussetzungen technischer, organisatorischer und normativer Natur gegeben sein – so die Studie. Eine Revolution, die Normen voraussetzt, statt sie außer Kraft zu setzen? Das ist wieder mal typisch deutsch, möchte man spotten. Kein Wunder, dass hierzulande noch jede Revolution gescheitert ist, geschweige denn dass wir je eine Revolution erfolgreich exportiert hätten. Wir erlauben Revolutionären allenfalls die Durchreise in plombierten Waggons, damit sie andernorts umstürzlerisch tätig werden. Und dass sich Angela Merkel als deutsche Jeanne d’ Arc an die Spitze dieser Umsturzbewegung stellt, entbehrt nicht einer gewissen Komik. Das ist ungefähr so als wäre Louis XVI im Juli 1789 auf den Balkon von Versailles getreten und hätte zum Sturm auf die Bastille aufgerufen.

Quelle: Abschlussbericht des Arbeitskreises Industrie 4.0 von acatech – Deutsche Akademie der Technikwissenschaften e.V.

Wenn ich, was die Erfolgsaussichten von Industrie 4.0 anbelangt, skeptisch bin, dann aber aus einem anderen Grund: Das von der Bundesregierung initiierte Zukunftsprojekt oder das, was davon bislang an die Öffentlichkeit dringt, ist für meinen Geschmack viel zu einseitig auf die Produktion d.h. die intelligente Vernetzung der Fertigungs- und Logistikprozesse fokussiert. Da sind wir in Deutschland eigentlich ganz gut aufgestellt. Die intelligente Fabrik ist zweifellos wichtig, weil wir aufgrund der Individualisierung unserer Produkte bei kleiner werdenden Stückzahlen hohe Anforderungen an die Flexibilisierung der Produktionsprozesse haben. Aber sie reicht nicht aus. Was nutzt uns eine noch so intelligente Fabrik, wenn wir darin dumme Produkte fertigen, die keiner mehr haben will?

Prof. Martin Eigner, einer der Autoren des bei acatech veröffentlichten Diskussionspapiers zum Thema Smart Engineering (als PDF downloaden), hat das in einem Gespräch am Rande des ProSTEP iViP-Symposiums neulich auf den Punkt gebracht: “Ohne intelligente Produkte gibt es keine Industrie 4.0. Unser Problem in Deutschland ist nicht die Fertigung, sondern dass wir dafür neue Produkte und Geschäftsmodelle generieren müssen.”

Um Missverständnissen vorzubeugen: Ich finde es begrüßenswert, dass die vierte industrielle Revolution mit Forschungsgeldern in Milliardenhöhe gefördert wird. Nur befürchte ich, dass viele dieser Gelder in die falschen Projekte investiert werden. Industrie 4.0 tut nämlich den zweiten Schritt vor dem ersten: Bevor wir uns darüber Gedanken machen, wie sich Produkte intelligenter fertigen lassen, sollten wir uns erst einmal überlegen, wie wir es schaffen, smartere Produkte zu entwickeln. Produkte, die über das Internet of Things (IoT) miteinander kommunizieren und dadurch neue Dienstleistungsangebote und Geschäftsmodelle ermöglichen. Das ist der Denkansatz, den die Amerikaner verfolgen. Mit wie viel Intelligenz diese smarten Produkte dann gefertigt werden, wird auch davon abhängen, wo auf der Welt die Fertigung angesiedelt ist. Ich glaube nämlich nicht, dass es uns dank noch so intelligenter Fabriken gelingen wird, beispielsweise die Handy-Fertigung nach Europa zu holen. Je mehr Varianz in einem Produkt über die Software abgebildet werden kann, desto einfacher lassen sich die mechanischen Komponenten in Großserie fertigen und montieren. Und dafür muss eine Fabrik nicht besonders schlau sein.

Das IoT bedeutet eine große Herausforderung für die Innovationsfähigkeit der Unternehmen. Sie müssen in der Lage sein, komplexe mechatronische Systeme zu entwickeln, die über das Internet miteinander kommunizieren. Und sie müssen diese cyberphysischen Systeme um innovative Dienstleistungen ergänzen, die gegebenenfalls ihre bestehenden Geschäftsmodelle in Frage stellen. Dafür benötigen sie einerseits leistungsfähige Werkzeuge und Methoden für die interdisziplinäre Produktenwicklung und für ein systematisches Innovationsmanagement; andererseits müssen sie ihre Innovations- und Entwicklungsprozesse neu strukturieren.

Wenn die vierte industrielle Revolution nicht im Engineering ansetzt, wo meines Erachtens der größere Handlungsbedarf besteht, ist sie zum Scheitern verurteilt. Dann wird Industrie 4.0 ebenso schnell wieder vergessen sein wie die selige CIM-Philosophie vor 30 Jahren. Hier für Nostalgiker zur Erinnerung noch mal die CIM-Definition der Society of Manufacturing Engineers (SME): CIM is the integration of total manufacturing enterprise by using integrated systems and data communication coupled with new managerial philosophies that improve organizational and personnel efficiency. Das ist nicht weit von der Idee der digitalen Fabrik entfernt. Nur dass es das Internet als Plattform für ihre Vernetzung damals noch nicht gab. Aber genau wie damals fehlen auch heute wieder die Standards. Ohne solche Standards – so die eingangs erwähnte BITKOM-Studie – ist die freie, problemlose Austauschbarkeit von Industrie 4.0-Komponenten nach dem Prinzip des “Plug and Produce” nicht denkbar.

Hintertürchen zur Collaboration

Engineering Collaboration, die Zusammenarbeit von Unternehmen bei der Produktentwicklung, ist eigentlich nichts Neues. Es gibt das Thema schon solange wie es das Outsourcing gibt. Umso verwunderlicher ist, dass die wesentliche Herausforderung bei der Collaboration immer noch einer Lösung harrt: Die Einbettung der unternehmensübergreifenden Austausch- und Abstimmungsprozesse in die PDM/PLM-Lösungen, mit denen die Produktentwicklung in den Unternehmen gesteuert wird.

An fehlenden Tools liegt es wahrlich nicht – im Gegenteil: die Landschaft der Collaboration-Anwendungen ist dank Cloud und Social Media eher noch bunter geworden. Das eigentliche Problem ist die Integration dieser Tools in die IT-Infrastrukturen und Geschäftsprozesse des jeweiligen Unternehmens. Aus Sicherheitsgründen scheuen

PLM_portal
Mit freundlicher Genehmigung Gualberto107 / FreeDigitalPhotos.net

 die IT-Spezialisten davor zurück, ihre Enterprise Anwendungen nach außen zu öffnen. Das führt oft zu der absurden Situation, dass Daten und Know-how im Unternehmen bombensicher sind, dann aber schnell mal per Email ausgetauscht werden, weil die Ingenieure ja irgendwie ihre Entwicklungsarbeit erledigen müssen. Und die verteilt sich heute nun mal über eine immer längere Supply Chain. Selbst in der sicherheitsbewussten Automobilindustrie tauschen 45 Prozent der Unternehmen ihre Produktdaten mit Auftraggebern und Zulieferern noch vorwiegend per Email aus. Da reiben sich neugierige Nachrichtendienste und andere Datenpiraten freudig die Hände.

In Anbetracht der Tatsache, dass die Collaboration weiter zunimmt und immer globalere Züge annimmt, ist es vielleicht an der Zeit, mal über eine Neugewichtung nachzudenken. Das heißt mit anderen Worten: auf das letzte Quäntchen an innerer Sicherheit zu verzichten, indem man die PLM-Lösung gezielt für den Zugriff von außen öffnet, um dadurch Datensicherheit und Know-how-Schutz bei der Zusammenarbeit mit externen Partnern zu steigern. Insgesamt würde sich die Sicherheitsbilanz bei der verteilten Produktentwicklung dadurch spürbar verbessern. Man muss ja nicht gleich ein großes Portal aufreißen – mit einem Hintertürchen wäre den Projektverantwortlichen manchmal schon gedient.

Eine wesentliche Anforderung an eine solche Collaboration-Lösung ist, dass sie sowohl für die Auftraggeber, als auch für ihre Zulieferer von Nutzen ist. Allzu oft wurden in der Vergangenheit gerade im Automotive-Umfeld Lösungen implementiert, die die Last der Datenkommunikation einseitig den Partnern aufbürdete. Sie mussten für jeden Auftraggeber eine andere Anwendung implementieren und betreiben – oft ohne Integration in ihre Backend-Systeme. Die Daten wurden weitgehend von Hand in die Auftraggeber-Systeme eingepflegt.

Ganz wichtig ist natürlich auch, dass die Lösung unterschiedliche Szenarien der Zusammenarbeit unterstützt. Die Anforderungen bei einem Standardprozess wie zum Beispiel der Angebotseinholung (Request for Quotation) sind andere als bei einem gemeinsamen Entwicklungsprojekt, bei dem die Partner ihre Dateien idealerweise in eine gemeinsame Projektablage einstellen und dadurch die Arbeitsfortschritte online verfolgen. Asynchrone Workflows bieten die Möglichkeit, den Umfang an bereit gestellten Daten und PLM-Funktionen gezielt auf die Empfänger zuzuschneiden. Sie sind gewissermaßen das Hintertürchen der Collaboration, das man dann schrittweise zu einem Portal für die synchrone Zusammenarbeit bei Entwicklungsprojekten ausbauen kann.

Innovationen managen – Flops vermeiden

Der Erfolg hat viele (Mütter und) Väter, der Misserfolg ist immer ein Waisenkind, lautet eine englische Redewendung. Leider ist sie missverständlich. Der Misserfolg hat nämlich mindestens ebenso viele Väter wie der Erfolg, nur dass sie normalerweise den Vaterschaftstest verweigern. Das gilt auch für das Scheitern von Produktinnovationen, das viele Ursachen haben kann. Tina Müller, die neue Marketing-Chefin von Opel, und Marketing-Professor Hans-Willi Schroiff haben die wichtigsten Gründe in einem Buch (Warum Produkte floppen) zusammengetragen.

Ein neues Buch zu einem altbekannten Problem zu schreiben ist keine besonders innovative Idee. Aber wenn es stimmt, dass 60 bis 80 Prozent der neu eingeführten Produkte floppen, wie Müller in einem Interview behauptet (http://www.handelsblatt.com/unternehmen/it-medien/opel-managerin-mueller-innovation-ist-jeden-tag/8953402.html), dann ist das Thema zweifellos relevant. Und Relevanz für die Zielgruppe ist neben der Einzigartigkeit ein wesentliches Kriterium für erfolgreiche Produkte oder Innovationen. Wobei von erfolgreichen Innovationen zu sprechen eigentlich ein Pleonasmus ist: Nach Joseph Schumpeter ist Innovation nämlich nicht die Erfindung, sondern die Durchsetzung einer technischen oder organisatorischen Neuerung. Was sich nicht durchsetzt bzw. keinen Erfolg hat, ist also keine Innovation.

ID-10061597
Mit freundlicher Genehmigung von nokhoog_buchachon, www.freedigitalphotos.net

Paradoxerweise ist der Erfolg (von Innovationen) zugleich ein Floprisiko, weil sich erfolgreiche Organisationen scheuen, Dinge anders zu machen, während sich die Welt um sie verändert. Deshalb laufen gerade erfolgreiche Unternehmen laut Müller Gefahr, den Zug zu verpassen. Sie ruhen sich gewissermaßen auf ihren innovativen Lorbeeren aus und versuchen sie, durch schrittweise Neuerungen frisch zu halten, statt den nächsten Innovationssprung zu wagen. Dafür gibt es zahlreiche Beispiele: Marktführer Nokia hat den Trend zum Smartphone regelrecht verschlafen und Sony war mit dem Walkman so erfolgreich, dass das Unternehmen das Potential des MP3-Formats für die Geschäftsmodellinnovation übersehen hat.

Für die konstant hohen Flopraten gibt – wie gesagt – viele Ursachen. Die meisten Fehler werden schon in der Konzeptphase gemacht, wie Müller sagt, aber selbst ein relevantes und einzigartiges Produkt kann scheitern, wenn es nicht mit der Markenstrategie harmoniert oder das Unternehmen die falsche Vertriebs- und Marketingstrategie wählt. Und dann gibt es Produkte, die im Test begeistern, und trotzdem im Markt floppen, weil die Konsumenten Kaufentscheidungen nicht unbedingt rational treffen. Deshalb sind die Unternehmen ja so daran interessiert, unsere Big Data-Spuren in Internet und Sozialen Medien auszuwerten, um uns auf die Schliche zu kommen.

Eine Frage bzw. die Antworten fand ich aus PLM-Sicht besonders interessant, weshalb ich sie hier wörtlich zitiere. Was wichtiger sei, die Anzahl der Produktideen oder die Qualität des Innovationsmanagements?

Müller: Unternehmen brauchen am Anfang des Innovationsprozesses, bevor sie über das Konzept sprechen, rund 1000 Ideen, damit überhaupt irgendwas dabei ist, was sich lohnt weiterzuentwickeln. Wenn diese erste Stufe, die mehr auf Quantität geht, durchlaufen ist, dann muss es in einem recht engen und strukturierten Innovationsprozess weitergehen, weil sonst noch viel mehr Fehler gemacht werden. Das heißt, die Qualität des Innovationsmanagements ist genau so wichtig wie die Breite der Ideen im Anfangsstadium.

Schroiff: […] ohne diese 1000 Ideen hätte man nicht die zehn, die am Ende des Tags das Zünglein an der Waage für den Erfolg sind. Es ist ganz wichtig, dass die Leute nicht denken, ich muss jetzt mal zehn gute Ideen bekommen. Nein. Sie brauchen diese 1000 Ideen und die müssen immer weiter geschmiedet werden. Es ist nicht richtig, einmal im Jahr eine Woche über Innovationen nachzudenken. Innovation ist jeden Tag. Wenn man das nicht lebt und als Kultur verankert, wird es schwierig mit kontinuierlichen Innovationen. Deshalb braucht man einen ständigen Nachstrom an Ideen, um sagen zu können, das machen wir nicht. (Quelle: Handelsblatt online, 28.10.2013)

Das heißt mit anderen Worten, dass die Unternehmen einerseits einen konstanten Strom von Ideen produzieren müssen, was in erster Linie eine Frage der Innovationskultur ist. Auf der anderen Seite müssen sie die Tausend Ideen erfassen, mit Blick auf ihre Innovationsstrategie bewerten und die richtigen zehn herausfiltern, um sie in (hoffentlich erfolgreiche) Innovationen umzusetzen. Dabei kann PLM wertvolle Hilfe leisten, vorausgesetzt die Lösung unterstützt den Innovationsprozess von der strategischen Produktplanung über die Konzeption bis zur Abwicklung von Entwicklungsprojekten durch ein leistungsfähiges Innovationsmanagement.