PLM-Fauxpenness hat keine Zukunft

PLM-Blogger Oleg Shilovitsky, der sich wiederum auf einen Beitrag von Monica Schnitger bezieht, verdanke ich die Entdeckung eines wundervollen Begriffs, der ursprünglich in der Open Source Community geprägt wurde: Fauxpenness. Er bezeichnet eine Software, die vorgibt Open (Source) zu sein, aber es nicht wirklich ist. Der Begriff lässt sich prächtig auf die PLM-Hersteller und ihre Produkte übertragen, die aller Lippenbekenntnisse und der Unterzeichnung des Code of PLM Opennness (CPO) zum Trotz noch längst nicht so offen sind, wie sie sein müssten, um den wachsenden Kundenanforderungen in punkto Interoperabilität zu genügen. Continue reading “PLM-Fauxpenness hat keine Zukunft”

Die digitale Transformation transformiert auch PLM

Die Unternehmen der Automobilindustrie beschäftigen sich intensiv mit der digitalen Transformation, und dabei geht es nicht mehr nur um Industrie 4.0 und die intelligente Vernetzung der Fertigung, sondern um die Umgestaltung der Unternehmensprozesse und Geschäftsmodelle. Wie intensiv, das wurde auf dem diesjährigen ProSTEP iViP-Symposium in Stuttgart deutlich, an den über 660 Besucher aus 19 Ländern teilnahmen. Ein neuer Rekord, und sicher nicht der letzte. Viele Vorträge spiegelten die Sorge wider, dass disruptive Technologien wie das Internet of Things (IoT) zur Verdrängung der alten Platzhirsche durch neue Herausforderer führen könnten. Der Erfolg von Tesla hat die Branche aufgeschreckt und der Name Nokia steht wie ein Menetekel an der Wand. Continue reading “Die digitale Transformation transformiert auch PLM”

Der PLM-Markt wächst in die Höhe und die Breite

Vor ein paar Jahren habe ich an dieser Stelle schon mal über Sinn und Unsinn der PLM-Marktanalysen in der gegenwärtigen Form geschrieben. Grundsätzlich sollen solche Analysen potentiellen Käufern als Orientierung über die am Markt verfügbaren Systeme und die Marktposition der jeweiligen Anbieter dienen. Das tun sie aber nicht, wenn sie Äpfel mit Birnen vergleichen oder – schlimmer noch – Äpfel, Birnen und andere Früchte zu einem bunten PLM-Obstsalat vermengen. Continue reading “Der PLM-Markt wächst in die Höhe und die Breite”

Warum das Pferd vom Schwanz aufzäumen?

Erst kommt die Pflicht des Produktdatenmanagements und dann als Kür das Product Lifecycle Management (PLM). Das war lange Zeit die meist praktizierte Best Practice der PDM/PLM-Implementierung. Aber war es auch die erfolgreichste Vorgehensweise? In Anbetracht vieler Projekte, die im Kleinklein von CAD-Integration, Datenmigration etc. stecken geblieben sind und nie oder erst mit Verspätung die weiter gesteckten PLM-Ziele erreicht haben, möchte man das manchmal bezweifeln. Continue reading “Warum das Pferd vom Schwanz aufzäumen?”

Data Science verstehen – Revolutionäres Potential aus vier Megatrends!

 Wir befinden uns an der Schwelle zu einem neuen Zeitalter, weil verschiedene Strömungen zusammenkommen und damit ein einzigartiges Umfeld schaffen. Vieles (manche würden sagen: alles) wird digital. Damit ist auch das Interesse an den Themen Datenanalyse und -exploration – also Data Science – enorm gestiegen. Data Science ist der Konvergenzpunkt von vier Megatrends, die die letzten Jahren dominiert haben und auch die kommenden dominieren werden: Cloud Computing, IoT, Big Data und algorithmische Analyse.

Was sind die Gründe für das Zusammenkommen verschiedener Strömungen und damit eines neuen, einzigartigen Umfeldes?

  1. Zum ersten Mal in der Geschichte der Künstliche Intelligenz, die in den 1950er Jahren als Disziplin begonnen hat, steht die notwendige Rechenleistung zu niedrigen Kosten zur Verfügung, um praktische Probleme mit den schon länger verfügbaren Algorithmen zu lösen.
  2. Die Algorithmen für das Machine Learning sind deutlich verbessert worden und können nun mit vertretbarem Aufwand für praktische Probleme eingesetzt werden.
  3. Die Popularität von Data Science trägt dazu bei, seine Methoden aus den akademischen Zirkeln in die Breite zu tragen, so dass eine große experimentierfreudige Community eine rapide Weiterentwicklung fördert.
  4. Heutzutage gibt es vor allem durch das Internet, die sozialen Netzwerke und die großen Einkaufsplattformen einen Datenschatz in nie gekannter Größenordnung, der auf seine Auswertung wartet.
  5. Das Internet der Dinge wird für weitere Datenströme sorgen, die zu neuen Geschäftsmodellen führen, die mit Hilfe von Data Science erschlossen werden.

Diese Faktoren haben dazu beigetragen, Data Science als eigene wissenschaftliche Fachdisziplin und Ergänzung zur klassischen Statistik zu etablieren. Data Scientist mit ihren Fähigkeiten im Bereich Programmierung, Statistik und neuerer Algorithmik bringen die erforderliche Expertise mit, um die heutigen Möglichkeiten der Datenanalyse gewinnbringend zu nutzen. Die verschiedenen Data Science Techniken lassen sich nach algorithmischen Verfahren oder nach dem Einsatzzweck grob so kategorisieren:

  • Regression
  • Klassifikation
  • Anomalienerkennung
  • Clustering
  • Reinforcement Learning

Auf der einen Seite der bestehenden Software-Landschaft gibt es bereits sehr spezifische Lösungen für gut umrissene Probleme, zum Beispiel im Einzelhandel oder in der Finanzindustrie. Am anderen Ende des Spektrums stehen die Anbieter von Software-Paketen, die ein abgestimmtes Toolset für den Spezialisten im Bereich Data Science zur Verfügung stellen.

Die meisten Lösungen basieren dabei auf Open Source Software. Im Bereich Toolsets dominieren vor allem zwei Sprachen den Markt: R and Python. Python hat sich zur Standardsprache für Data Scientists entwickelt, vor allem im Bereich Machine Learning.

Die gewaltigen Investitionen und die anziehenden Umsätze von großen Commodity-Plattformen wie Amazon, Microsoft und Google zeigen: Die Megatrends Cloud Computing, IoT, Big Data und algorithmische Analyse bestimmen bereits heute oder in naher zukunft die Geschäftsprozesse, und dass bis in die letzten Winkel. Für Unternehmen, die dieses Thema näher interessiert, hat CONTACT ein neues Data Science White Paper herausgebracht. Dies kann hier heruntergeladen werden.

Kollaboration braucht ein gemeinsames Prozessverständnis

Die unternehmensübergreifende Kollaboration wird in Zukunft weiter zunehmen und sie wird sich in noch komplexeren Entwicklungsnetzen abspielen. Diese an sich wenig überraschende Erkenntnis hat die neue Expertenstudie von Fraunhofer IPK, VDI und CONTACT Software über die Zukunft der Kollaboration bestätigt. Wichtigster Treiber für die Zusammenarbeit mit anderen Unternehmen ist der Zugang zu deren Know-how – noch vor den Kosteneinsparungen und einer besseren Kapazitätsverteilung. Auch das ist angesichts der zunehmenden Komplexität der Produkte nicht weiter verwunderlich. Continue reading “Kollaboration braucht ein gemeinsames Prozessverständnis”

Prozesse müssen künftig gelebt werden

Es gibt viele gute Grunde, ein PLM-System einzusetzen, aber einer, der immer wichtiger wird, ist das Thema Qualität. Vor ein paar Wochen ist die überarbeitete Qualitätsnorm ISO 9001:2015 veröffentlicht worden, die noch größeres Gewicht auf die Orientierung des Qualitätsmanagements an den Unternehmensprozessen und an den zu erwartenden Prozessergebnissen legt. Die Erfüllung der entsprechenden Anforderungen ist künftig zwingende Voraussetzung für die Zertifizierung der Unternehmen. Continue reading “Prozesse müssen künftig gelebt werden”

Vernetzung bedeutet Autonomieverlust

Digital Twin oder digitaler Zwilling ist das jüngste Ferkelchen, das die PLM-Hersteller durchs Dorf treiben. Wer den Begriff erfunden hat, weiß ich nicht, aber sicher nicht Bundespräsident Joachim Gauck, der ihn im Jahr 2013 in seiner vielgeachteten Rede zum Tag der Deutschen Einheit erwähnte. Er spielte damit auf die Abbildung unseres realen Ichs in den sozialen Netzwerken an und warnte vor den Gefahren, die daraus für unser Privatsphäre erwachsen können. Continue reading “Vernetzung bedeutet Autonomieverlust”

Mangelnde Effizienz in der Produktentwicklung

Die Innovationen im deutschen Maschinen- und Anlagenbau sind teuer erkauft. Fast vier von zehn Entwicklungsprojekten laufen aus dem Ruder, was Liefertermine, Herstellungskosten, Entwicklungsbudgets oder Qualitätsvorgaben anbelangt; viele reißen die Meßlatte gleich mehrfach. Das sind die beunruhigenden Ergebnisse einer Studie von VDMA und Staufen AG zum Thema Lean Development im deutschen Maschinenbau. Sie zeigt außerdem ein sehr starkes Gefälle zwischen dem Durchschnitt der befragten Maschinen- und Anlagenbauer und der Spitzengruppe der besten 20 Unternehmen.

Mit freundlicher Genehmigung suphakit73, www.FreeDigitalPhotos.net
Mit freundlicher Genehmigung suphakit73, www.FreeDigitalPhotos.net

Die Ergebnisse der Studie sind Wasser auf die Mühlen der PLM-Hersteller. Die Hälfte der acht untersuchten Handlungsfelder offenbart Verbesserungspotentiale, die durch den konsequenten Einsatz der PLM-Technologie erschlossen werden könnten. Eines knüpft unmittelbar an das Thema meines letzten Blogbeitrags an: Die Reduzierung der unnötig großen Variantenvielfalt durch intelligente Produktbaukästen, die sich vor allem auf die Herstellungskosten positiv auswirken würde. Zwar verwenden angeblich 80 Prozent der Unternehmen in der Produktentwicklung Modularisierung und Baukästen, aber die Module sind noch nicht produktübergreifend genug nutzbar.

“Die Unternehmen im Maschinen- und Anlagenbau entwickeln immer noch zu sehr aus dem Bauch heraus. Es fehlt ihnen die konsequente und systematische Steuerung von der Idee bis zur Produkteinführung “, urteilt Studienleiter Dr. Andreas Romberg von der Staufen AG. Diese Lücke im Innovationsprozess ließe sich durch ein PLM-integriertes Ideenmanagement relativ einfach schließen. Eine systematische Bewertung und Priorisierung von Ideen könnte die Innovationsrate verzehnfachen, weil die Unternehmen sich auf die wichtigen Dinge konzentrieren würden. Das wäre auch deshalb nötig, weil im Maschinenbau nur sechs von 100 offizielle Ideen zu einem erfolgreichen Produkt werden.

Gerade kleinere Unternehmen verlieren sich oft im Kleinklein des Projektalltags und merken es nicht mal. Weniger als die Hälfte hat die gleichzeitige Planung, übergreifende Steuerung und Überwachung von mehreren Projekte professionell organisiert, obwohl ein effizientes Multiprojektmanagement maßgeblich zu einer Verbesserung der Termintreue beitragen würde. Die Projekte werden nicht nach Bedeutung, sondern Dringlichkeit abgearbeitet. Es fehlt es an der nötigen Transparenz im Projektgeschehen und an vor allem an belastbaren Kennzahlen, um die Projektfortschritte bewerten zu können. Und das obwohl die meisten PLM-Systeme heute umfassende Projektmanagement-Funktionen bereitstellen. Man muss sie halt auch nutzen.

Eines der Handlungsfelder, in dem die Maschinen- und Anlagenbauer noch besonders großen Handlungsbedarf aufweisen, ist das Shopfloor Management, verstanden als eine effektive und effiziente Kommunikation von Informationen, Störungen und Abweichungen nach festgelegten Regeln und unter Nutzung visueller Management-Techniken. Gerade einmal 30 Prozent der Unternehmen nutzen Shopfloor Management als zentrales Führungs- und Steuerungsprinzip des Lean Developments, obwohl es ein wichtiger Stellhebel für die fristgerechte Fertigstellung von Entwicklungsprojekten ist. PLM-Systeme erscheinen mir als die geeignete Plattform zu sein, um solche regelbasierten Kommunikationsprozesse abzubilden, zumal sie häufig schon Funktionen für das Issue Management beinhalten.

Natürlich ist die Effizienz in der Produktentwicklung des Maschinen- und Anlagenbaus nicht nur ein PLM-Thema. Die Studie zeigt eine Vielzahl von organisatorischen Ansatzpunkten für Effizienzverbesserungen auf, die ich hier nicht näher erläutern möchte. Wichtig erscheint mir aber hervorzuheben, dass PLM einen maßgeblich Beitrag dazu leisten kann, die Trefferquote von Entwicklungsprojekten in Maschinen- und Anlagenbau zu verbessern. Das ist die Voraussetzung, um nachhaltig innovativ zu sein.

Die Varianz beherrschbar machen

Die hohe Kunst des Variantenmanagements besteht darin, mit einem Minimum an Varianten die maximale Vielfalt kundenspezifischer Ausprägungen zu generieren. Und das möglichst auf Knopfdruck. Von diesem Ideal sind die meisten Unternehmen, die kundenspezifische Produktvarianten in Losgröße eins oder ganz geringen Stückzahlen herstellen, meilenweit entfernt. Meist erzeugen sie neue Varianten ausgehend von einer bestehenden Maschine oder Anlage, die den Wünschen des Kunden am nächsten kommt, in einem zeitaufwendigen Engineering-to-Order-Prozess. Das heißt, dass sie vielleicht nicht das ganze Rad, aber zumindest Nabe und die Felge ständig neu erfinden.

Das Ganze geschieht in aller Regel unter hohem Zeitdruck, weshalb niemand die Muße hat, sich über die Modularisierung und Standardisierung der Produktreihen Gedanken zu machen. Im günstigsten Fall werden dank Klassifizierung nach Sachmerkmalleiste, die mal vor über 20 Jahren eingeführt wurde, bestimmte Teile wieder verwendet. Trotzdem ist der Teilebestand mit der Variantenvielfalt immer weiter angewachsen.

Mit freundlicher Genehmigung www.FreeDigitalPhotos.net
Mit freundlicher Genehmigung von sattva, www.FreeDigitalPhotos.net

Eine Möglichkeit, die Variantenvielfalt einzudämmen oder zumindest besser beherrschbar zu machen, ist der Aufbau intelligenter Produktbaukästen. Geht nicht, gibt’s nicht, werden viele Hersteller von kundenspezifischen Maschinen und Anlagen sagen – dafür sind die Wünsche unserer Kunden viel zu unvorhersehbar. Richtig daran ist, dass sicher keines ihrer Produkte dem anderen gleich wie ein Ei dem anderen. Aber alle haben Schale, Luftkammer, Membran, Dotter, Eiklar und andere Komponenten, die sich mit ihren Ausprägungen in einem Baukasten abbilden ließen.

Selbst wenn man nur 70 Prozent eines Produkts aus dem Baukasten zusammenstellen kann, bedeutet das eine enorme Zeit- und Kostenersparnis für die Unternehmen. Und bessere bzw. besser an die Kundenbedürfnisse angepasste Produkte, denn die Ingenieure können sich auf die restlichen 30 Prozent Engineering-Arbeit konzentrieren. Die Wiederverwendung von vielen Komponenten und Funktionsmodulen hat außerdem den Vorteil, dass sie nicht erneut validiert zu werden brauchen, was im klassischen Engineering-to-Order-Prozess ein wichtiger Zeitfresser ist, insbesondere wenn bei der Validierung Probleme entdeckt werden, die spät im Prozess behoben werden müssen.

Produktbaukästen fallen nicht vom Himmel, sondern müssen systematisch aufgebaut werden. Das erfordert in aller Regel ein Reengineering der bestehenden Produkte, die so strukturiert werden müssen, dass mit einem Minimum an Varianten ein Maximum an kundenspezifischen Ausprägungen erzeugt werden kann. Ganz wichtig dabei ist, sich darüber Gedanken zu machen, welche Varianz wirklich benötigt wird. Viele Unternehmen bieten eine historisch gewachsene Produktvielfalt, die vom Kunden eigentlich gar nicht in ausreichender Zahl nachgefragt wird. Diese hausgemachte Vielfalt muss erst mal bereinigt werden.

Die Automobilindustrie mag sich momentan nicht gerade als Vorbild eignen, aber in punkto Standardisierung und Modularisierung der Produkte kann man sicher von ihr lernen. Dank Produktplattformen, Längst- und Querbaukästen schaffen es VW & Co., mit einer beherrschbaren Varianz eine wachsende Zahl von Fahrzeugmodellen mit immer mehr kundenindividuellen Konfigurationen anzubieten. Der Nachteil dieser Systematik ist natürlich, dass Software-Algorithmen zur Manipulation des Schadstoffausstoßes plötzlich in Millionen von Fahrzeugen stecken.

Maschinen- und Anlagenbauer werden die Modularisierung und Standardisierung nicht so weit treiben können, dass sie alle Kundenwünsche aus dem Baukasten bedienen. Umso wichtiger ist eine klare Festlegung dessen, was an kundenindividuellen Varianten zulässig sein soll. Und die entsprechende IT-Unterstützung: Die Kombination von Configure- und Engineering-to-Order-Prozess erfordert nach Ansicht von Experten ein leistungsfähiges, PLM-gestütztes Variantenmanagement.

Engineering-getriebene Unternehmen benötigen ein PLM-System, um die Baukastensystematik abzubilden und über den Produktlebenszyklus zu pflegen. Es reicht nicht, die Produktbaukästen einmal aufzubauen. Sie müssen leben und sich mit den Marktanforderungen verändern, sonst werden sie zu einem Innovationshindernis.