Der Digitale Zwilling und die Quantenphysik

Neue Themen wollen mit passenden Begriffen einsortiert werden. Sie machen das Kommunizieren effizient, weil der Absender im besten Falle nichts mehr großartig erklären muss.

Einigermaßen gelang das mit dem Begriff Product Lifecycle Management. Sie erinnern sich: „Von der Wiege bis zur Bahre“ usw. Aber wie die Deutschen so sind, gehen sie allem auf den Grund und noch tiefer. Anspruchsvolle Definitionsversuche gab es im Laufe der Jahre reichlich, die eher nicht weitergeholfen haben.

Geht das schon wieder los, dachte ich nun beim Lesen des Beitrags „The Digital Twin Theory“. Die Autoren zu den Anfängen ihrer Arbeit: Zum anderen reifte die Idee der „Digital Twin Theory“ während eines zufälligen Kontakts mit der Quantenphysik…: Aus Sicht der Quantenphysik befinden sich Elektronen an mehreren Orten gleichzeitig… Es erschien spannend zu prüfen, ob diese Eigenschaften auch für digitale Zwillinge angenommen werden können.“

OK, die Freiheit der Wissenschaft ist ein hohes Gut, und Querdenker sind gefragt. Aber bitte nicht zu verquer. Das etwas nicht gleich falsch ist, reicht nicht, oder? Es sollte auch absehbar weiterhelfen.

Warum die Aufregung? Der Digital Zwilling ist ein schönes, einfaches Bild, um die Potentiale hinter dem Internet der Dinge zu verstehen. Wäre schade, wenn das nach dem Motto „warum einfach, wenn’s auch kompliziert geht“ drangegeben wird.

Und übrigens, die englische Wikipedia sagt: A digital twin is a digital replica of a … physical entity…


Sind Data Science Plattformen eine gute Idee?

Frei nach Karl Valentin gilt: Plattformen sind schön und schaffen einem jede Menge Arbeit vom Hals. Da kommt die Idee von Plattformen für die automatische Datenanalyse gerade recht. Passend dazu hat Gartner nun einen „Magic Quadrant for Data Science and Machine Learning Platforms“ veröffentlicht. Das Dokument selbst ist nur hinter einer Paywall einsehbar, aber im Netz bieten einige der im Report erwähnten Unternehmen den Zugriff auf das Dokument gegen Angabe der eigenen Adresse an.

Besonders hebt Gartner hervor, dass so eine Plattform alles was man braucht, aus einem Guss bereitstellen sollte; im Unterschied also zu diversen einzelnen Bausteinen, die nicht unmittelbar aufeinander abgestimmt sind.

Hört sich gut an! Allerdings: Data Science ist kein Bereich, in dem man mit einem Tool oder selbst  einer Plattform wie von Zauberhand weiterkommt. Die Entwicklung von Lösungen – etwa für Predictive Maintenance der Maschinen, die ein Unternehmen anbietet – durchläuft verschiedene Phasen, wobei Cleansing/Wrangling und Preprocessing den größten Teil der Arbeit ausmachen. In diesem Bereich sind ETL(Extract, Transform, Load )- und Visualisierungstools wie Tableau einzuordnen. Und jenseits der gedachten Komfortzone von Plattformen, die sich Manager so vorstellen, sind Datenbankabfragen und Skripte für die Transformation und Aggregation etwa in Python oder R schlicht das Mittel der Wahl. Ein Blick auf Data Science Online-Tutorials der top-Anbieter wie Coursera unterstreicht die Bedeutung dieser – nun ja – bodenständigen Werkzeuge. „Statistical analysis, Python programming with NumPy, pandas, matplotlib, and Seaborn, Advanced statistical analysis, Tableau, Machine Learning with stats models and scikit-learn, Deep learning with TensorFlow“ lautet ein Kursprogramm von Udemy.

Hinzu kommt: Oft bleiben die Projekte in diesem Vorfeld stecken oder werden abgebrochen. Das hat viele Gründe:

  • man findet keinen analytischen/statistischen Ansatz
  • die ursprüngliche Idee erweist sich als nicht durchführbar
  • die Daten sind nicht in der Menge oder Qualität, die man braucht, vorhanden
  • einfache Analysen und Visualisierungen reichen schon aus und alles weiter wäre „oversized“

Das ist nicht schlimm, bedeutet es doch nur, dass der automatisierte Einsatz von Machine Learning und KI nicht aus jedem Datensatz gleich einen Datenschatz macht. Zeichnet sich allerdings der produktive Nutzen ab, gilt es, sich für die Production-Pipeline und Zeit- oder Ressourcen-Constraints  zu rüsten. Meist fängt man dafür neu an und bildet alles nochmals z.B. in Tensorflow für Neuronale Netzwerke oder in Custom-Libraries ab.

Das Missverständnis ist, dass man a) ansatzlos Data Science bis zum produktiven Einsatz treiben kann und b) einen one-stop-shop for Data Science (hier „Plattform“) sucht, der alles in einem Aufwasch macht. Das wird es nie geben.

Das ist tatsächlich auch eine gute Nachricht, bedeutet es doch, dass Organisationen – ohne gleich zu großen Plattformen greifen zu müssen – ihre ersten Ziele erreichen können. Die einigermaßen sorgfältige Auswahl passender Werkzeuge (viele davon Open Source) hilft dabei.

Auch interessant:
In meinem Video „KI braucht Strategie“ erläutere ich, welche Schritte Unternehmen konkret gehen können, um KI-Technologie zielführend einzusetzen.

Design Thinking – Hype oder Hilfe?

Ende Januar veranstaltet  CONTACT gemeinsam mit The Dark Horse, eine der führenden und bekanntesten Design Thinking Agenturen, einen exklusiven Design Thinking  Workshop.

Der Hintergrund: Neue Technologien wie IoT, 3D-Druck und Virtual Reality,  serviceorientierte Geschäftsmodelle und die Digitale Transformation überhaupt stellen herkömmliche Angebote infrage. Das Hasso-Plattner Institut schreibt dazu: „Design Thinking … avanciert heute zu einer ganz neuen Art, den Menschen in Bezug zur Arbeit zu sehen, das Konzept der Arbeit zu denken und zu fragen, wie wir im 21. Jahrhundert leben, lernen und arbeiten wollen. Die Strahlkraft von Design Thinking besteht darin, neue und überraschende Formen der kreativen Zusammenarbeit zu ermöglichen. Wir-Intelligenz ist das neue Schlagwort, Kollaboration wird die Grundlage für ein neues Arbeitsbewusstsein.“

„Ganz neue Art zu denken“, „21.Jahrhundert“, „Wir-Intelligenz“. Bei solchem Drang ins Esoterische gibt brand eins so richtig Contra. Individualistisch geprägte Gesellschaften sind weniger erfolgreich als  kollektivistische? Kreativität gedeiht am besten in Gruppen? Nicht unbedingt, und da kann man schnell mal was falsch verstehen. Und dann noch: Der Erfolg hängt von der Exzellenz in unterschiedlichen Disziplinen ab, also holt man diese Disziplinen mit ins Boot? Produkte mache ich für Kunden und – Revolution! – frage sie also nach ihren Bedürfnissen? Als wenn es Ideen wie Human Centered Design nie gegeben hätte.

Ignorieren wir lieber die Marketingstrategen und betrachten Design Thinking ganz pragmatisch:

  • Der Ausgangspunkt: komplexe Produkte und Systeme in einem eher unbekannten Terrain
  • Die unbedingte Ausrichtung an meine Kunden untere Berücksichtigung technischer und wirtschaftlicher Zielvorgaben
  • Die enge Zusammenarbeit der unterschiedlichen Disziplinen, die einen Beitrag leisten
  • Iteratives, auch spielerisch/experimentelles Vorgehen und lernen aus Feedback und Fehlern.

Design Thinking ist also wie gemacht für die Herausforderungen der Digitalen Transformation. Deswegen sind wir mit dabei.

 

Der digitale Zwilling erschließt neue Geschäftsfelder

Immer mehr Maschinen und Anlagen werden mit Sensorik ausgestattet und gehen online. Hersteller und Betreiber entwickeln vielseitige Ideen, um die Echtzeitdaten aus der Fabrik und dem Feld zu nutzen. Der digitale Zwilling des realen Produkts gibt ihnen die Möglichkeit, innovative digitale Angebote aufzubauen.

Das Internet der Dinge (IoT) eröffnet neue Kommunikationsszenarien für Produkte und Produktionsanlagen, die untereinander und mit zentralen Diensten vernetzt sind. Analog zu den bimodalen Ansätzen im PLM-Umfeld setzen Unternehmen auch für den Betrieb ihrer Produkte und Anlagen auf eine flexiblere, offene IT-Architektur, um kontinuierlich Produktdaten erfassen und auswerten zu können. Das Sammeln der teils großen Datenmengen wird zielführend, wenn dadurch noch bessere Dienstleistungs- und Produktangebote entstehen.

Intelligent genutzt, verbindet der Digitale Zwilling den Lebenszyklus smarter Produkte von der ersten Idee über die Entwicklung und Fertigung mit der Nutzungsphase und macht so erst neue, digitale Geschäftsmodelle möglich

Daten aus der Entwicklung wie Teilestämme, Stücklisten, Modelldaten und Änderungsinformationen werden üblicherweise über eine PLM/ERP-Schnittstelle in die Produktion übergeben, während die Fertigungsprozesse mit den gängigen Simulationsverfahren der Digitalen Fabrik gestaltet werden. Dies reicht jedoch nicht, um die dynamischen Lebenszyklusinformationen einzelner Produktexemplare in der Fertigung oder später auch im Feld sinnvoll mit den Produktdaten in Zusammenhang zu bringen.

Der digitale Zwilling verknüpft die für das physische Produkt relevanten Daten aus dem digitalen Master im PLM-System (Geometriemodelle, Stücklisten, Variantenkonfigurationen) mit den Felddaten (technischer Zustand, Messdaten, Bauzustände) und Software-Konfigurationen. Über eine eigene Anwendungsoberfläche bietet er Zugang zu standardisierten Ingenieurfachprozessen und gleichzeitig einen Ansatzpunkt für Data-Analytics-Methoden.

Möglich wird dies durch das Zusammenspiel aufeinander abgestimmter Software-Bausteine und einer bimodalen IT-Architektur, bei welcher der digitale Zwilling die zentrale Rolle einnimmt. Er führt alle wichtigen Informationen über eine Produktinstanz zusammen, wie beispielsweise aus den Felddaten ermittelte Kennzahlen, virtuelle Produkt- und Prozessmodelle der Produktvariante, produktbeschreibende Dokumente, CAD-Modelle oder Software-Stände und Parametersätze. Nicht nur das Produkt selbst, sondern auch einzelne Bauteile können je nach Informationsrelevanz einen eigenen digitalen Zwilling bereitgestellt bekommen.

Interesse geweckt? Erfahren Sie mehr über Data Analytics, Anwendungsfälle, Praxisszenarien, Digitalisierung und Prozessverbesserung in einem knackigen, zweiseitigem Beitrag – unserer Kollegen Dr. Patrick Müller und Andreas Saum – für IT & Production, Sonderheft Produktentwicklung Wissen kompakt: Der digitale Zwilling – Mit Felddaten Mehrwert im Produktlebenszyklus schaffen

PLM ist tot – lang lebe PLM!

Credit: Sean McGrath, flickr.com
Credit: Sean McGrath, flickr.com

PLM hat im Laufe der Jahre nicht nur Freunde gewonnen. Weil man PLM nicht gut erklären kann, Projekte aus dem Ruder gelaufen sind und der PLM-Alltag – nun ja – anstrengend sein kann.

Man könnte meinen, der eine oder andere wechselt nun schon mal das Klingelschild mit der Aufschrift „PLM“. Bekannte PLM-Player reduzieren ihre Belegschaft, ziehen in die Cloud um und setzen scheinbar alle ihre Chips auf das Thema IoT: „Is PTCs CEO Jim Heppelmann Playing with Fire?

Passend dazu hat jetzt eine ProSTEP iViP Initiative das Thema unter dem Titel „Hat PLM im Zeitalter der Digitalisierung ein Zukunft“ aufs Korn genommen und dazu ein sehr lesenswertes Thesenpapier veröffentlich. Dies ist hier als PDF zugänglich. Unser Blog-Mitstreiter Michael Wendenburg ist einer der Autoren und hat das Thema mit seinem vorangegangenen Blog-Beitrag schon mal eröffnet.

Der Titel mag auf den ersten Blick nicht optimal sein, denn im Mittelpunkt stand ja eigentlich schon immer das virtuelle – also digitale – Produkt. Es geht darum, was passiert, wenn die Produkte selbst und ihre Verwendung durch die Kunden und Nutzer immer digitaler werden. Anhand von insgesamt 22 Thesen zeigen die Autoren, wie der PLM-Begriff im Zeitalter der Digitalen Transformation fortgeschrieben werden sollte. Auf den Punkt bringen sie es mit dem Schlagwort „Future PLM“.

Nun aber: Chefsache PLM

Meine Favoriten aus der Thesensammlung:

„Future PLM ist Chefsache.“ Eigentlich hätte das schon immer so sein sollen (was sollen wir als Lieferant auch anders sagen). Die gute Nachricht: jetzt wird es so kommen, denn die Prozessketten und Implikationen sind nochmal eine Größenordnung bedeutender.

„PLM-Architekturen machen nicht an der Unternehmensgrenze halt. Die Unterstützung der Kollaboration mit Joint Ventures, Entwicklungspartnern, Lieferanten von Systemen, Software und Services etc. ist eine Kernanforderung an die zukünftige PLM-Architektur.“

Eine Lanze für Offene Systeme

Weiter beleuchten die Autoren, wie sich Software und Systeme wandeln müssen: „Monolithische Systeme haben ausgedient.“  „PLM Systeme müssen offener werden.“ „Future PLM muss veränderbar sein … Künftige PLM-Architekturen müssen … flexibel an veränderte Prozesse und Organisationsstrukturen anpassbare Funktionsbausteine bieten.“

Und schließlich: „Future PLM muss kostengünstiger werden“. Den Seitenhieb kann ich mir dann doch nicht verkneifen: Das Papier zeigt ja sehr schön: die Ansprüche an das Management des Produktlebenszyklus wachsen noch einmal deutlich. Da gilt es, die Kosten egal ob aus Erwerb oder Subskription von PLM-Software im Vergleich zum Hebel für die Prozesse und Business Cases nüchtern ins Verhältnis zu setzen. Wie sagt der Schwabe: „Was nix kostet, ist nix“.

Fazit  

PLM ist tot – lang lebe PLM! Es geht nicht darum, die PLM-Idee zu begraben, sondern sie im Gegenteil konsequent zu Ende zu denken. Das erfordert gute Kommunikation in der Community und in den Unternehmen, um auf die neuen Herausforderungen mit tragfähigen innovativen Lösungen zu antworten, die auch auf den vorhandenen PLM-Fundamenten aufbauen. Sonst wird das eine wackelige Angelegenheit!

Hat PLM eine Zukunft und wie sieht die aus?

In meinem letzten Blog-Beitrag habe ich darzulegen versucht, warum es aus Anwendersicht so wichtig ist, PLM aus seinem Engineering-Nischendasein zu befreien. Ebenso wichtig ist es aber auch aus Anbietersicht, wenn die PLM-Hersteller sich auf Dauer am Markt behaupten wollen. Darauf hat vor ein paar Monaten Oleg Shilovitsky in einem Gastblog hingewiesen, den ich jetzt erst entdeckt habe. „Hat PLM eine Zukunft und wie sieht die aus?“ weiterlesen

PLM ist mehr als Produktdatenmanagement

Nein, ich habe das Schießpulver nicht erfunden. Ich weiß auch, dass die Überschrift eine Binsenweisheit ist, die eigentlich jeder kennen sollte. Und doch kann man sie nicht oft genug wiederholen, weil viele PLM-Implementierungen nie oder erst mit jahrelanger Verzögerung die Hürde des Produktdatenmanagements (PDM) nehmen und damit ihrem Anspruch, ein PLM-Projekt zu sein, eigentlich nicht gerecht werden. „PLM ist mehr als Produktdatenmanagement“ weiterlesen

PLM-Fauxpenness hat keine Zukunft

PLM-Blogger Oleg Shilovitsky, der sich wiederum auf einen Beitrag von Monica Schnitger bezieht, verdanke ich die Entdeckung eines wundervollen Begriffs, der ursprünglich in der Open Source Community geprägt wurde: Fauxpenness. Er bezeichnet eine Software, die vorgibt Open (Source) zu sein, aber es nicht wirklich ist. Der Begriff lässt sich prächtig auf die PLM-Hersteller und ihre Produkte übertragen, die aller Lippenbekenntnisse und der Unterzeichnung des Code of PLM Opennness (CPO) zum Trotz noch längst nicht so offen sind, wie sie sein müssten, um den wachsenden Kundenanforderungen in punkto Interoperabilität zu genügen. „PLM-Fauxpenness hat keine Zukunft“ weiterlesen

Die digitale Transformation transformiert auch PLM

Die Unternehmen der Automobilindustrie beschäftigen sich intensiv mit der digitalen Transformation, und dabei geht es nicht mehr nur um Industrie 4.0 und die intelligente Vernetzung der Fertigung, sondern um die Umgestaltung der Unternehmensprozesse und Geschäftsmodelle. Wie intensiv, das wurde auf dem diesjährigen ProSTEP iViP-Symposium in Stuttgart deutlich, an den über 660 Besucher aus 19 Ländern teilnahmen. Ein neuer Rekord, und sicher nicht der letzte. Viele Vorträge spiegelten die Sorge wider, dass disruptive Technologien wie das Internet of Things (IoT) zur Verdrängung der alten Platzhirsche durch neue Herausforderer führen könnten. Der Erfolg von Tesla hat die Branche aufgeschreckt und der Name Nokia steht wie ein Menetekel an der Wand. „Die digitale Transformation transformiert auch PLM“ weiterlesen

Der PLM-Markt wächst in die Höhe und die Breite

Vor ein paar Jahren habe ich an dieser Stelle schon mal über Sinn und Unsinn der PLM-Marktanalysen in der gegenwärtigen Form geschrieben. Grundsätzlich sollen solche Analysen potentiellen Käufern als Orientierung über die am Markt verfügbaren Systeme und die Marktposition der jeweiligen Anbieter dienen. Das tun sie aber nicht, wenn sie Äpfel mit Birnen vergleichen oder – schlimmer noch – Äpfel, Birnen und andere Früchte zu einem bunten PLM-Obstsalat vermengen. „Der PLM-Markt wächst in die Höhe und die Breite“ weiterlesen