IoT failures and trust in technology

At the beginning of April this year I attended the building IoT in Cologne. At the conference, which was organized by heise developer, iX and d.punkt publishing house, everything revolved around applications for the Internet of Things (IoT) and Industry 4.0 in lectures and an exhibition. Together with my colleague Yang Zhong, I presented modern user experience concepts (UX) for IoT solutions in a lecture.

At the end of our presentation, which showed a user’s work processes, from the data acquisition of a real “Thing” to the visualization of live data in the dashboard using a Digital Twin, there was a very stimulating discussion. Two points were particularly interesting here:

  • In many application areas, the topic of customer journeys is high on the agenda – which confirms the current trend.  
  • It is essential to develop software for users – which was also a consensus.

The evening was dedicated to Industrial IoT. As a moderator, I hosted a discussion with representatives from various enterprises and software companies, such as Miele, Dürr Dental, Codecentric or akquinet. An intensive discussion around the predominant topics of the industry 4.0 took place here. In addition to the choice of the control electronics or the wireless standard, this also includes questions as to whether an IoT solution should be operated in a cloud. The reasons for solutions in a cloud are of course the convenience and the relatively efficient and simple scalability with regard to the number of “things” to be managed. On the other hand, managing the software on your own servers (on-premise) means that confidential product or customer data really won’t leave your premises. The discussion has confirmed my assessment that both approaches have their advantages in practice and are applied accordingly.

One of my personal highlights at this year’s building IoT was a negative hit list of IoT products, so-called IoT failures: products that have massive security gaps, such as open data interfaces. Some “classic” vulnerabilities were already known, such as unaltered standard passwords that allow data misuse. Others gaps really surprised me: such as a smoke detector of a well-known brand, which is already equipped with a microphone (?!) as standard, which in turn allows unwanted monitoring in living rooms.

Why is there a microphone in a smoke detector?  We can’t say that for sure, at least it’s not in the customer’s interest and causes a massive loss of trust in technology. And that is precisely the point: acceptance of new technologies requires trust. And this is becoming more and more important with increasing digitalization.

20 years of PLM: Why do many still doubt the benefits?

In the meantime, I can look back on several years of consulting for Product Life Cycle Management. A topic whose popularity has fluctuated considerably over the years and is currently on the rise again in the wake of digital transformation.

Despite the increasing attention for PLM again, I notice that the term continues to have a large, cumbersome, tedious, and uneconomical taste. Amazing, because the effort that many companies put into ERP projects, for example, was and is significantly higher in most cases. Nevertheless, the necessity and benefits of – expensive – ERP projects are discussed, but rarely questioned, see Haribo and Lidl.

How do these different perceptions come about? One explanation could be that the benefits of PLM for management and employees in companies have not been sufficiently exploited over the years. This was mainly due to the fact that the scope and visibility of PLM projects in companies was often very limited.

A closer look shows that many of the earlier PLM implementations were in fact PDM implementations. PDM, Product Data Management, focuses on product descriptive data, primarily CAD models and drawings. “PLM” was therefore limited to the core areas of product development, very often even to Mechanical Design. Although beeing avilable in some PLM solutions for years, Change Management, Document Management, Project Management, cross-departmental collaboration or communication with external parties have not been used. Instead, solutions based on Excel, Outlook, the file system or SharePoint were often created on their own. Tools that everyone in the company knows. And for those one can very easily find someone to “optimize” these tools by macro programming. In addition to that, the negative attitude towards PLM was certainly fuelled by the overloaded, highly compressed “engineering user interfaces” of the 1st and 2nd PLM product generations.

So it’s no surprise that PLM was seen in the company as an expensive, less useful and exotic application!

In the current PLM renaissance, companies now have every opportunity to learn from the deficits of the past and to take advantage of the impressive potential of Product Lifecycle Management. Many obsolete and discontinued PDM and PLM solutions are currently or soon to be replaced by modern 3rd generation PLM platforms, which also support the use cases around the Digital Twin and the Internet of Things. They breathe life into the PLM idea by effectively and efficiently supporting processes across phases, departments and company boundaries. New, web-based HTML-5 user interfaces significantly increase acceptance among all user groups in the company by making even complex relationships clearer and handling them more efficient.

Now there is a chance to realize “real” Product Lifecycle Management! Against the background of new, digital business models, which put the use phase of products much more in the foreground, this becomes all the more important. PLM solutions play a central role here, as they lay the foundation for data relating to the Digital Twin.

But in the end, hard facts also count when it comes to benefits and ROI: If PLM is actually used company-wide with all its possibilities, high economies of scale quickly result from the significant minimization of non-value-adding activities. This alone often enables a return on investment after just one year. Regardless of the additional revenue potential from new, data-driven business models that PLM will enable in the future.

The Digital Twin and Quantum Physics

New topics must be sorted with suitable terms. They make communication efficient, because in the best case the sender does not have to explain things from scratch.

The term Product Lifecycle Management was a fairly good way of doing this. You remember: “From the cradle to the grave” and so on. But as the Germans are, they go to the bottom of everything and even deeper. Over the years, there have been plenty of challenging definitions, many of them, which have not helped much.

Here we go again, I thought while reading a recent article The Digital Twin Theory. The authors on the beginnings of their work: “On the other hand, the idea of ‘Digital Twin Theory’ matured during a random contact with quantum physics…: From the point of view of quantum physics, electrons are located in several places simultaneously… It seemed exciting to examine whether these properties could also be assumed for digital twins”.

OK, the freedom of science is a great asset, and original thinkers are in demand. But please don’t be too original. That something is not wrong is not enough, right? It should also be somewhat helpful.

Why the fuss? The Digital Twin is a beautiful, simple picture to understand the potential behind the Internet of Things. It would be a pity if this were lost according to the motto “Why just when you can make it complicated?”

And by the way, the English Wikipedia says: “A digital twin is a digital replica of a … physical entity…”

Are data science platforms a good idea?

According to Karl Valentin: Platforms are beautiful and take a lot of work off your neck. The idea of platforms for automatic data analysis comes at just the right time. In line with this, Gartner has now published a “Magic Quadrant for Data Science and Machine Learning Platforms“. The document itself can only be viewed behind a paywall, but on the net some of the companies mentioned in the report offer access to the document by entering the address.

Gartner particularly emphasizes that such a platform should provide everything you need from a single source, unlike various individual components that are not directly coordinated with each other.

Sounds good to me! However, data science is not an area where you can magically get ahead with a tool or even a platform. The development of solutions – for example, for predictive maintenance of the machines offered by a company – goes through various phases, with cleaning/wrangling and preprocessing accounting for most of the work. In this area, ETL (Extract, Transform, Load) and visualization tools such as Tableau can be ranked. And beyond the imaginary comfort zone of platforms that managers imagine, database queries and scripts for transformation and aggregation in Python or R are simply the means of choice. A look at data science online tutorials from top providers like Coursera underlines the importance of these – well – down-to-earth tools. “Statistical analysis, Python programming with NumPy, pandas, matplotlib, and Seaborn, Advanced statistical analysis, Tableau, machine learning with stats models and scikit-learn, deep learning with TensorFlow” is one of Udemy’s course programs.

In addition, the projects often get stuck in this preliminary stage or are cancelled. There are many reasons for this:

  • no analytical/statistical approach can be found
  • the original idea proves to be unfeasible
  • the data is not available in the quantity or quality you need
  • simple analyses and visualizations are enough and everything else would be “oversized”.

This is no big deal, as it only means that the automated use of Machine Learning and AI does not make a data treasure out of every data set. If, however, the productive benefit becomes apparent, it is necessary to prepare for the production pipeline and time or resource constraints. Usually you start from scratch and reproduce everything again, e.g. in Tensorflow for neural networks or in custom libraries.

The misunderstanding is that a) Data Science can be driven up to productive use without a trace and b) a one-stop-shop for Data Science (here “platform”) is needed that does everything in one go. That will never happen.

This is really good news, because it means that organizations can achieve their first goals without having to resort to large platforms. The reasonably careful selection of suitable tools (many of them open source) helps to achieve this.

Also interesting:
In my video “AI Needs Strategy” I explain which steps companies can take to to use AI technology in a successful way.

Hat PLM eine Zukunft und wie sieht die aus?

In meinem letzten Blog-Beitrag habe ich darzulegen versucht, warum es aus Anwendersicht so wichtig ist, PLM aus seinem Engineering-Nischendasein zu befreien. Ebenso wichtig ist es aber auch aus Anbietersicht, wenn die PLM-Hersteller sich auf Dauer am Markt behaupten wollen. Darauf hat vor ein paar Monaten Oleg Shilovitsky in einem Gastblog hingewiesen, den ich jetzt erst entdeckt habe. Continue reading “Hat PLM eine Zukunft und wie sieht die aus?”

PLM ist mehr als Produktdatenmanagement

Nein, ich habe das Schießpulver nicht erfunden. Ich weiß auch, dass die Überschrift eine Binsenweisheit ist, die eigentlich jeder kennen sollte. Und doch kann man sie nicht oft genug wiederholen, weil viele PLM-Implementierungen nie oder erst mit jahrelanger Verzögerung die Hürde des Produktdatenmanagements (PDM) nehmen und damit ihrem Anspruch, ein PLM-Projekt zu sein, eigentlich nicht gerecht werden. Continue reading “PLM ist mehr als Produktdatenmanagement”

Die digitale Transformation transformiert auch PLM

Die Unternehmen der Automobilindustrie beschäftigen sich intensiv mit der digitalen Transformation, und dabei geht es nicht mehr nur um Industrie 4.0 und die intelligente Vernetzung der Fertigung, sondern um die Umgestaltung der Unternehmensprozesse und Geschäftsmodelle. Wie intensiv, das wurde auf dem diesjährigen ProSTEP iViP-Symposium in Stuttgart deutlich, an den über 660 Besucher aus 19 Ländern teilnahmen. Ein neuer Rekord, und sicher nicht der letzte. Viele Vorträge spiegelten die Sorge wider, dass disruptive Technologien wie das Internet of Things (IoT) zur Verdrängung der alten Platzhirsche durch neue Herausforderer führen könnten. Der Erfolg von Tesla hat die Branche aufgeschreckt und der Name Nokia steht wie ein Menetekel an der Wand. Continue reading “Die digitale Transformation transformiert auch PLM”

Der PLM-Markt wächst in die Höhe und die Breite

Vor ein paar Jahren habe ich an dieser Stelle schon mal über Sinn und Unsinn der PLM-Marktanalysen in der gegenwärtigen Form geschrieben. Grundsätzlich sollen solche Analysen potentiellen Käufern als Orientierung über die am Markt verfügbaren Systeme und die Marktposition der jeweiligen Anbieter dienen. Das tun sie aber nicht, wenn sie Äpfel mit Birnen vergleichen oder – schlimmer noch – Äpfel, Birnen und andere Früchte zu einem bunten PLM-Obstsalat vermengen. Continue reading “Der PLM-Markt wächst in die Höhe und die Breite”

Kollaboration braucht ein gemeinsames Prozessverständnis

Die unternehmensübergreifende Kollaboration wird in Zukunft weiter zunehmen und sie wird sich in noch komplexeren Entwicklungsnetzen abspielen. Diese an sich wenig überraschende Erkenntnis hat die neue Expertenstudie von Fraunhofer IPK, VDI und CONTACT Software über die Zukunft der Kollaboration bestätigt. Wichtigster Treiber für die Zusammenarbeit mit anderen Unternehmen ist der Zugang zu deren Know-how – noch vor den Kosteneinsparungen und einer besseren Kapazitätsverteilung. Auch das ist angesichts der zunehmenden Komplexität der Produkte nicht weiter verwunderlich. Continue reading “Kollaboration braucht ein gemeinsames Prozessverständnis”

Die handschriftliche Signatur hat ausgedient

In Deutschland leben einer nicht mehr ganz aktuellen Veröffentlichung der Zeitung “Die Welt” zufolge 2,3 Millionen Analphabeten und weitere 7,5 Millionen, die kaum mehr als ihren Namen schreiben können. Wenn das Beispiel von PISA-Vorbild Finnland Schule machen sollte, dürften es künftig sogar noch ein paar Millionen mehr werden. Die Finnen wollen ernsthaft die Vermittlung der Schreibschrift aus dem Lehrplan der Grundschulen streichen. Stattdessen sollen die Kinder mit allen Fingern tippen lernen, was bei der Größe einer normalen Handytatstatur eine echte Herausforderung darstellt.

Doch was ist mit der Unterschrift? Für die Gültigkeit von vielen Rechtsgeschäften ist immer noch die handschriftliche Namenszeichnung als Nachweis der Identität der betreffenden Person und der Authentizität des unterzeichneten Dokuments erforderlich. Sollen wir Verträge, die uns den Kopf kosten können, etwa wieder mit drei krakeligen Kreuzen unterzeichnen? Wie die Freibeuter in den alten Piratenfilmen, wenn sie – meist nicht ganz freiwillig – auf irgendeinem Seelenverkäufer anheuern?

Mit freundlicher Genehmigung von Jeroen van Oostrom,
Mit freundlicher Genehmigung von Jeroen van Oostrom,

Nein, so traurig es klingen mag, die handschriftliche Signatur hat keine Zukunft mehr. In einer Welt, in der fast alle Dokumente elektronisch erzeugt und verteilt werden, muss auch die Urheberschaft und ihre Unverfälschbarkeit elektronisch bezeugt werden. Sie auszudrucken, von Hand zu unterschreiben und wieder einzuscannen, was heute in vielen Geschäftsprozessen noch gängige Praxis ist, kostet nicht nur unnötig viel Papier. Es ist auch sehr zeitaufwendig, insbesondere wenn die Dokumente auf dem Postweg verteilt und von mehreren Personen an unterschiedlichen Standorten unterzeichnet werden müssen.

Drei elektronische Kreuze am Fuße einer Email reichen als Ersatz für die Unterschrift auf Papier natürlich nicht aus. Die Signaturverordnung der EU und die darauf aufbauende Signaturgesetzgebung der Bundesregierung unterscheiden einfache, fortgeschrittene und qualifizierte elektronische Unterschriften mit unterschiedlich strengen Auflagen hinsichtlich der Erstellung von Signaturschlüsseln und Signaturprüfschlüsseln sowie der Zertifizierung des Unterzeichners durch eine unabhängige Stelle. Finnland ist auch hier einen Schritt weiter: Unter bestimmten Bedingungen ist dort die elektronische Signatur mit dem Handy der handschriftlichen rechtlich gleichgestellt. Warum sollten die finnischen Kinder da noch Schreiben lernen?

Die Akzeptanz der elektronischen Unterschrift ist Voraussetzung für die Ablösung papierbasierter Geschäftsprozesse. Profitieren würden davon vor allem Unternehmen in streng regulierten Industrien wie der Medizintechnik oder der pharmazeutischen Industrie, die heute einen enormen Aufwand für die Dokumentation ihrer Produkte und Prozesse treiben müssen. Die elektronische Unterschrift würde die elektronische Bereitstellung der Dokumentation erleichtern.

In aller Regel akzeptieren die Zulassungsbehörden Dokumente mit fortgeschrittener elektronischer Unterschrift. Allerdings muss die signierende Partei nicht nur die Echtheit der digitalen Signatur und die Identität des Unterzeichners zweifelsfrei nachweisen, sondern auch den Entstehungsprozess der Dokumente zuverlässig protokollieren können. Es muss sichergestellt sein, dass nur autorisierte und eindeutig identifizierte Personen Zugang zu den elektronischen Aufzeichnungen (Records) haben, dass alle Änderungen auf ihre Quelle zurückgeführt werden können und dass die Aufzeichnungen und ihre Änderungsgeschichte im Rahmen der gesetzlichen Aufbewahrungsfristen wieder zugänglich gemacht werden können.

PLM-Systeme erfüllen die meisten dieser Anforderungen aus dem Stand. Sie verfügen über Rechteverwaltung, Versionskontrolle, Change Management etc. Ihre Workflow-Management-Funktionen bieten die Möglichkeit, komplexe Prüf- und Genehmigungsabläufe mit mehreren Beteiligten abzubilden. Die Integration eines digitalen Signaturverfahrens, das dem aktuellen Stand der Verschlüsselungstechnik entspricht, schafft also die Voraussetzung, um bei der Prüfung und Freigabe von Dokumenten und anderen PLM-Objekten auf die handschriftliche Signatur zu verzichten. Drei Kreuze brauchen die Mitarbeiter dann nur noch nach der nächsten Auditierung durch die Zulassungsbehörden zu machen.