The Digital Twin and Quantum Physics

New topics must be sorted with suitable terms. They make communication efficient, because in the best case the sender does not have to explain things from scratch.

The term Product Lifecycle Management was a fairly good way of doing this. You remember: “From the cradle to the grave” and so on. But as the Germans are, they go to the bottom of everything and even deeper. Over the years, there have been plenty of challenging definitions, many of them, which have not helped much.

Here we go again, I thought while reading a recent article The Digital Twin Theory. The authors on the beginnings of their work: “On the other hand, the idea of ‘Digital Twin Theory’ matured during a random contact with quantum physics…: From the point of view of quantum physics, electrons are located in several places simultaneously… It seemed exciting to examine whether these properties could also be assumed for digital twins”.

OK, the freedom of science is a great asset, and original thinkers are in demand. But please don’t be too original. That something is not wrong is not enough, right? It should also be somewhat helpful.

Why the fuss? The Digital Twin is a beautiful, simple picture to understand the potential behind the Internet of Things. It would be a pity if this were lost according to the motto “Why just when you can make it complicated?”

And by the way, the English Wikipedia says: “A digital twin is a digital replica of a … physical entity…”

Are data science platforms a good idea?

According to Karl Valentin: Platforms are beautiful and take a lot of work off your neck. The idea of platforms for automatic data analysis comes at just the right time. In line with this, Gartner has now published a “Magic Quadrant for Data Science and Machine Learning Platforms“. The document itself can only be viewed behind a paywall, but on the net some of the companies mentioned in the report offer access to the document by entering the address.

Gartner particularly emphasizes that such a platform should provide everything you need from a single source, unlike various individual components that are not directly coordinated with each other.

Sounds good to me! However, data science is not an area where you can magically get ahead with a tool or even a platform. The development of solutions – for example, for predictive maintenance of the machines offered by a company – goes through various phases, with cleaning/wrangling and preprocessing accounting for most of the work. In this area, ETL (Extract, Transform, Load) and visualization tools such as Tableau can be ranked. And beyond the imaginary comfort zone of platforms that managers imagine, database queries and scripts for transformation and aggregation in Python or R are simply the means of choice. A look at data science online tutorials from top providers like Coursera underlines the importance of these – well – down-to-earth tools. “Statistical analysis, Python programming with NumPy, pandas, matplotlib, and Seaborn, Advanced statistical analysis, Tableau, machine learning with stats models and scikit-learn, deep learning with TensorFlow” is one of Udemy’s course programs.

In addition, the projects often get stuck in this preliminary stage or are cancelled. There are many reasons for this:

  • no analytical/statistical approach can be found
  • the original idea proves to be unfeasible
  • the data is not available in the quantity or quality you need
  • simple analyses and visualizations are enough and everything else would be “oversized”.

This is no big deal, as it only means that the automated use of Machine Learning and AI does not make a data treasure out of every data set. If, however, the productive benefit becomes apparent, it is necessary to prepare for the production pipeline and time or resource constraints. Usually you start from scratch and reproduce everything again, e.g. in Tensorflow for neural networks or in custom libraries.

The misunderstanding is that a) Data Science can be driven up to productive use without a trace and b) a one-stop-shop for Data Science (here “platform”) is needed that does everything in one go. That will never happen.

This is really good news, because it means that organizations can achieve their first goals without having to resort to large platforms. The reasonably careful selection of suitable tools (many of them open source) helps to achieve this.

Also interesting:
In my video “AI Needs Strategy” I explain which steps companies can take to to use AI technology in a successful way.

The 14 Top Success Patterns of Digital Business Models

Let’s get digital – The Internet of Things (IoT) has an outstanding influence on the relationship between companies and their customers. Companies now face the challenge of placing attractive digital offerings so as not to fall behind. The white paper identifies the central mechanisms of digital offerings and identifies the 14 most important patterns and blueprints for IoT-driven business models.

Market pressure and a new terrain. The markets are becoming digital and smart. Hardly any industry or offer that is not networked and/or in the cloud – at least that’s how it seems. This is undoubtedly a trend that is massively promoted by market-determining players, especially from Silicon Valley. Today, we are all influenced by the use of smartphones and home automation solutions, and we transfer corresponding expectations to other areas as well. The question of “whether” no longer arises, but rather of “how”. According to McKinsey the sales potential for digitized products in the B2B environment is even twice as high as in the B2C sector! Certainly, some phenomena on the market can be accepted as hypes. However, it is also certain that concrete developments and sometimes existential challenges also arise in supposedly firmly established markets:

  • Innovative and established competitors place an offer as “first mover”, attracting attention to themselves from customers for whom digitisation is not yet an issue.
  • New players are breaking into existing markets and placing previously unknown offers on the basis of digitized services.
  • Previously specialized providers (non-providers or providers of secondary services) are expanding their offerings digitally and thus attacking providers in the core market.

The Internet of Things (“IoT”) as a vehicle for digitized product offerings is virtually universal and knows no industry or process boundaries. According to Gartner, this is reflected in “ambitious IoT plans” in a wide variety of industries. Many companies are therefore being forced to confront the potential erosion of their markets by new suppliers.

The challenge lies not only in the high market dynamics, but also in the technical and sales challenges in a partly unknown territory. Many, especially medium-sized companies, lack software know-how, especially if it goes beyond the embedded area. In particular, this includes networked and distributed product architectures or analytics.

Another complicating factor is the fact that suitable personnel is not actually available on the market today. In addition, it is not only about recruiting new employees, but also about building up new business areas. In order to be able to act, companies must invest in completely new alliances and partner models.

The following white paper focuses on the second area of customer service improvement and uses the term “IoT”. The analysis of IoT projects shows that the majority of projects are based on the expansion of a market position in existing markets, i. e. the expansion of the existing product range. Only a few companies approach new markets. In other words, companies generally take a very cautious approach to new business options and try to avoid risks.

Continue reading “The 14 Top Success Patterns of Digital Business Models”

Hat PLM eine Zukunft und wie sieht die aus?

In meinem letzten Blog-Beitrag habe ich darzulegen versucht, warum es aus Anwendersicht so wichtig ist, PLM aus seinem Engineering-Nischendasein zu befreien. Ebenso wichtig ist es aber auch aus Anbietersicht, wenn die PLM-Hersteller sich auf Dauer am Markt behaupten wollen. Darauf hat vor ein paar Monaten Oleg Shilovitsky in einem Gastblog hingewiesen, den ich jetzt erst entdeckt habe. Continue reading “Hat PLM eine Zukunft und wie sieht die aus?”

PLM ist mehr als Produktdatenmanagement

Nein, ich habe das Schießpulver nicht erfunden. Ich weiß auch, dass die Überschrift eine Binsenweisheit ist, die eigentlich jeder kennen sollte. Und doch kann man sie nicht oft genug wiederholen, weil viele PLM-Implementierungen nie oder erst mit jahrelanger Verzögerung die Hürde des Produktdatenmanagements (PDM) nehmen und damit ihrem Anspruch, ein PLM-Projekt zu sein, eigentlich nicht gerecht werden. Continue reading “PLM ist mehr als Produktdatenmanagement”

PLM-Fauxpenness hat keine Zukunft

PLM-Blogger Oleg Shilovitsky, der sich wiederum auf einen Beitrag von Monica Schnitger bezieht, verdanke ich die Entdeckung eines wundervollen Begriffs, der ursprünglich in der Open Source Community geprägt wurde: Fauxpenness. Er bezeichnet eine Software, die vorgibt Open (Source) zu sein, aber es nicht wirklich ist. Der Begriff lässt sich prächtig auf die PLM-Hersteller und ihre Produkte übertragen, die aller Lippenbekenntnisse und der Unterzeichnung des Code of PLM Opennness (CPO) zum Trotz noch längst nicht so offen sind, wie sie sein müssten, um den wachsenden Kundenanforderungen in punkto Interoperabilität zu genügen. Continue reading “PLM-Fauxpenness hat keine Zukunft”

Die digitale Transformation transformiert auch PLM

Die Unternehmen der Automobilindustrie beschäftigen sich intensiv mit der digitalen Transformation, und dabei geht es nicht mehr nur um Industrie 4.0 und die intelligente Vernetzung der Fertigung, sondern um die Umgestaltung der Unternehmensprozesse und Geschäftsmodelle. Wie intensiv, das wurde auf dem diesjährigen ProSTEP iViP-Symposium in Stuttgart deutlich, an den über 660 Besucher aus 19 Ländern teilnahmen. Ein neuer Rekord, und sicher nicht der letzte. Viele Vorträge spiegelten die Sorge wider, dass disruptive Technologien wie das Internet of Things (IoT) zur Verdrängung der alten Platzhirsche durch neue Herausforderer führen könnten. Der Erfolg von Tesla hat die Branche aufgeschreckt und der Name Nokia steht wie ein Menetekel an der Wand. Continue reading “Die digitale Transformation transformiert auch PLM”

Der PLM-Markt wächst in die Höhe und die Breite

Vor ein paar Jahren habe ich an dieser Stelle schon mal über Sinn und Unsinn der PLM-Marktanalysen in der gegenwärtigen Form geschrieben. Grundsätzlich sollen solche Analysen potentiellen Käufern als Orientierung über die am Markt verfügbaren Systeme und die Marktposition der jeweiligen Anbieter dienen. Das tun sie aber nicht, wenn sie Äpfel mit Birnen vergleichen oder – schlimmer noch – Äpfel, Birnen und andere Früchte zu einem bunten PLM-Obstsalat vermengen. Continue reading “Der PLM-Markt wächst in die Höhe und die Breite”

Warum das Pferd vom Schwanz aufzäumen?

Erst kommt die Pflicht des Produktdatenmanagements und dann als Kür das Product Lifecycle Management (PLM). Das war lange Zeit die meist praktizierte Best Practice der PDM/PLM-Implementierung. Aber war es auch die erfolgreichste Vorgehensweise? In Anbetracht vieler Projekte, die im Kleinklein von CAD-Integration, Datenmigration etc. stecken geblieben sind und nie oder erst mit Verspätung die weiter gesteckten PLM-Ziele erreicht haben, möchte man das manchmal bezweifeln. Continue reading “Warum das Pferd vom Schwanz aufzäumen?”

Data Science verstehen – Revolutionäres Potential aus vier Megatrends!

 Wir befinden uns an der Schwelle zu einem neuen Zeitalter, weil verschiedene Strömungen zusammenkommen und damit ein einzigartiges Umfeld schaffen. Vieles (manche würden sagen: alles) wird digital. Damit ist auch das Interesse an den Themen Datenanalyse und -exploration – also Data Science – enorm gestiegen. Data Science ist der Konvergenzpunkt von vier Megatrends, die die letzten Jahren dominiert haben und auch die kommenden dominieren werden: Cloud Computing, IoT, Big Data und algorithmische Analyse.

Was sind die Gründe für das Zusammenkommen verschiedener Strömungen und damit eines neuen, einzigartigen Umfeldes?

  1. Zum ersten Mal in der Geschichte der Künstliche Intelligenz, die in den 1950er Jahren als Disziplin begonnen hat, steht die notwendige Rechenleistung zu niedrigen Kosten zur Verfügung, um praktische Probleme mit den schon länger verfügbaren Algorithmen zu lösen.
  2. Die Algorithmen für das Machine Learning sind deutlich verbessert worden und können nun mit vertretbarem Aufwand für praktische Probleme eingesetzt werden.
  3. Die Popularität von Data Science trägt dazu bei, seine Methoden aus den akademischen Zirkeln in die Breite zu tragen, so dass eine große experimentierfreudige Community eine rapide Weiterentwicklung fördert.
  4. Heutzutage gibt es vor allem durch das Internet, die sozialen Netzwerke und die großen Einkaufsplattformen einen Datenschatz in nie gekannter Größenordnung, der auf seine Auswertung wartet.
  5. Das Internet der Dinge wird für weitere Datenströme sorgen, die zu neuen Geschäftsmodellen führen, die mit Hilfe von Data Science erschlossen werden.

Diese Faktoren haben dazu beigetragen, Data Science als eigene wissenschaftliche Fachdisziplin und Ergänzung zur klassischen Statistik zu etablieren. Data Scientist mit ihren Fähigkeiten im Bereich Programmierung, Statistik und neuerer Algorithmik bringen die erforderliche Expertise mit, um die heutigen Möglichkeiten der Datenanalyse gewinnbringend zu nutzen. Die verschiedenen Data Science Techniken lassen sich nach algorithmischen Verfahren oder nach dem Einsatzzweck grob so kategorisieren:

  • Regression
  • Klassifikation
  • Anomalienerkennung
  • Clustering
  • Reinforcement Learning

Auf der einen Seite der bestehenden Software-Landschaft gibt es bereits sehr spezifische Lösungen für gut umrissene Probleme, zum Beispiel im Einzelhandel oder in der Finanzindustrie. Am anderen Ende des Spektrums stehen die Anbieter von Software-Paketen, die ein abgestimmtes Toolset für den Spezialisten im Bereich Data Science zur Verfügung stellen.

Die meisten Lösungen basieren dabei auf Open Source Software. Im Bereich Toolsets dominieren vor allem zwei Sprachen den Markt: R and Python. Python hat sich zur Standardsprache für Data Scientists entwickelt, vor allem im Bereich Machine Learning.

Die gewaltigen Investitionen und die anziehenden Umsätze von großen Commodity-Plattformen wie Amazon, Microsoft und Google zeigen: Die Megatrends Cloud Computing, IoT, Big Data und algorithmische Analyse bestimmen bereits heute oder in naher zukunft die Geschäftsprozesse, und dass bis in die letzten Winkel. Für Unternehmen, die dieses Thema näher interessiert, hat CONTACT ein neues Data Science White Paper herausgebracht. Dies kann hier heruntergeladen werden.