Über IoT-Failures und Vertrauen in Technologie

Anfang April diesen Jahres besuchte ich die building IoT in Köln. Bei der Fachkonferenz, die von heise developer, iX und d.punkt Verlag organisiert wurde, drehte sich in Vorträgen und einer Ausstellung alles rund um Anwendungen für das Internet der Dinge (IoT) und Industrie 4.0. Zusammen mit meiner Kollegin Yang Zhong durfte ich in einem Vortrag  moderne User-Experience-Konzepte (UX) für IoT-Lösungen vorstellen.

Zum Abschluss unseres Vortrags, der einen Arbeitsprozess eines Anwenders, von der Datenaufnahme eines realen „Things“ bis zur Visualisierung der Live-Daten im Dashboard mittels Digitalem Zwilling zeigte, gab es eine sehr anregende Diskussion. Zwei Punkte waren hier besonders interessant: 

  • In vielen Anwendungsbereichen steht das Thema Customer-Journey weit oben auf der Agenda – was den aktuellen Trend bestätigt.  
  • Es ist essentiell, Software für Anwender zu entwickeln – was auch Konsens war.

Der Abend gehörte ganz dem Thema Industrial IoT. Als Moderatorin leitete ich eine Gesprächsrunde aus Vertretern unterschiedlicher Unternehmen und Softwarefirmen, wie beispielsweise Miele, Dürr Dental, Codecentric oder akquinet. Hier entwickelte sich eine intensive Diskussion um die vorherrschenden Themen der Industrie 4.0. Dazu gehören neben der Wahl der Steuerungselektronik oder des Funkstandards auch Fragestellungen, ob eine IoT-Lösung in einer Cloud betrieben werden soll. Gründe für Lösungen in einer Cloud sind natürlich der Komfort und die relativ effiziente und einfache Skalierbarkeit was die Anzahl der zu verwaltenden „Things“ betrifft. Im Gegensatz dazu spricht für das Verwalten der Software auf eigenen Servern (on-premise), dass vertrauliche Produkt- oder Kundendaten das Haus auch wirklich nicht verlassen. Die Diskussion hat meine Einschätzung bestätigt, dass beide Vorgehensweisen in der Praxis ihre Vorteile haben und entsprechend Anwendung finden.

Eines meiner persönlichen Highlights der diesjährigen building IoT war eine negative Hitliste mit IoT Produkten, so genannte IoT-Failures: Produkte also, die massive Sicherheitslücken besitzen, wie beispielsweise offene Datenschnittstellen. Einige „klassische“ Lücken waren schon bekannt, wie nicht geänderte Standard-Passwörter, die Datenmissbrauch/-diebstahl ermöglichen. Von anderen war ich überrascht: wie zum Beispiel einem Rauchmelder eines namhaften Herstellers, der bereits serienmäßig mit einem Mikrophon (?!) ausgestattet wurde, das wiederum unerwünschtes Mithören in Wohnräumen erlaubt.

Warum ist ein Mikrophon in einem Rauchmelder zu finden?  Das können wir nicht mit Sicherheit sagen, zumindest ist es nicht im Sinne des Kunden und lässt das Vertrauen in die Technik massiv schwinden. Und genau das ist der springende Punkt: Akzeptanz für neue Technologien benötigt Vertrauen. Und das wird bei  der zunehmenden Digitalisierung immer wichtiger.

20 Jahre PLM: Warum zweifeln Viele noch immer am Nutzen?

Mittlerweile blicke ich auf einige Jahre Beratung für Product Lifecycle Management zurück. Ein Thema, dessen Popularität im Laufe der Jahre deutlich schwankte und aktuell im Gefolge der Digitalen Transformation wieder stark im Aufwind ist.

Trotz der wieder steigenden Aufmerksamkeit für PLM bemerke ich, dass dem Begriff unverändert die Geschmacksnoten groß, schwerfällig, langwierig, unwirtschaftlich anhaften. Erstaunlich, denn der Aufwand, den viele Unternehmen beispielsweise in ERP-Projekte stecken, war und ist in den meisten Fällen deutlich höher. Dennoch werden Notwendigkeit und Nutzen von – teuren – ERP-Projekten zwar diskutiert, aber nur selten in Frage gestellt, siehe etwa Haribo und Lidl.

Wie kommt es zu dieser unterschiedlichen Wahrnehmung? Eine Erklärung könnte sein, dass sich der Nutzen von PLM für Management und Mitarbeiter in den Unternehmen über Jahre nicht ausreichend erschlossen hat. Das lag vor allem daran, dass Reichweite und Sichtbarkeit der PLM-Projekte in den Unternehmen oft sehr eingeschränkt war.

Ein genauer Blick zeigt, dass viele der früheren PLM-Einführungen in Wahrheit eher PDM-Einführungen waren. PDM, Produktdaten Management, konzentriert sich auf produktbeschreibende Daten, also in erster Linie CAD-Modelle und Zeichnungen. Damit beschränkte sich der „PLM“-Einsatz eher nur auf die Kernbereiche der Produktentwicklung, sehr oft sogar ausschließlich auf die Mechanik-Konstruktion. Obwohl meist schon seit Jahren in einigen PLM-Lösungen verfügbar, wurden z.B. Änderungsmanagement, Dokumentenmanagement, Projektmanagement, abteilungsübergreifende Zusammenarbeit oder die Kommunikation mit Externen nicht genutzt. Stattdessen wurden oft vermeintlich „günstige“ Lösungen auf Basis von Excel, Outlook, dem Dateisystem oder Sharepoint in Eigenregie erstellt. Werkzeuge, die jeder im Unternehmen kennt. Und für die sich meist schnell jemand findet, der diese Tools per Makroprogrammierung „optimiert“. Geschürt wurde die ablehnende Haltung gegenüber PLM dabei sicher auch durch die überfrachteten, hochverdichten „Ingenieurs-Benutzeroberflächen“ der 1. und 2. PLM-Produktgeneration.

Da überrascht es nicht, dass PLM im Unternehmen als teure, wenig Nutzen stiftende und exotische Anwendung gesehen wurde.

In der aktuellen PLM-Renaissance haben die Unternehmen jetzt alle Chancen, aus den Defiziten der Vergangenheit zu lernen und die mittlerweile beeindruckenden Potenziale des Product Lifecycle Managements zu nutzen. Viele veraltete und abgekündigte PDM- und PLM-Lösungen werden aktuell oder demnächst gegen moderne PLM-Plattformen der 3. Generation ausgetauscht, die zudem auch die Anwendungsfälle rund um den Digitalen Zwilling und im Internet der Dinge unterstützen. Sie füllen die PLM-Idee mit Leben, indem sie die Prozesse über die Phasen, Fachbereiche und Unternehmensgrenzen hinweg effektiv und effizient begleiten. Dabei erhöhen neue, webbasierte HTML-5 Benutzeroberflächen die Akzeptanz bei allen Benutzergruppen im Unternehmen deutlich, indem sie auch komplexe Zusammenhänge übersichtlicher und im Handling performanter machen.

Jetzt besteht die Chance, „echtes“ Product Lifecycle Management zu verwirklichen! Vor dem Hintergrund neuer, digitaler Geschäftsmodelle, die die Nutzungsphase von Produkten viel stärker in den Vordergrund rücken, wird dies umso wichtiger. PLM-Lösungen fällt hier eine zentrale Bedeutung zu, denn sie legen den Grundstein für die Daten rund um den Digitalen Zwilling.

Aber am Ende zählen auch harte Fakten, wenn es um den Nutzen und RoI geht: Wird PLM tatsächlich mit all seinen Möglichkeiten unternehmensweit genutzt, ergeben sich schnell hohe Skaleneffekte durch die deutliche Minimierung von nicht-wertschöpfenden Tätigkeiten. Dies allein ermöglicht oft schon einen Return on Investment nach gut einem Jahr. Unbenommen der zusätzlichen Umsatzpotenziale aus neuen, datengetriebenen Geschäftsmodellen, die PLM zukünftig ermöglichen wird.

Der Digitale Zwilling und die Quantenphysik

Neue Themen wollen mit passenden Begriffen einsortiert werden. Sie machen das Kommunizieren effizient, weil der Absender im besten Falle nichts mehr großartig erklären muss.

Einigermaßen gelang das mit dem Begriff Product Lifecycle Management. Sie erinnern sich: „Von der Wiege bis zur Bahre“ usw. Aber wie die Deutschen so sind, gehen sie allem auf den Grund und noch tiefer. Anspruchsvolle Definitionsversuche gab es im Laufe der Jahre reichlich, die eher nicht weitergeholfen haben.

Geht das schon wieder los, dachte ich nun beim Lesen des Beitrags „The Digital Twin Theory“. Die Autoren zu den Anfängen ihrer Arbeit: Zum anderen reifte die Idee der „Digital Twin Theory“ während eines zufälligen Kontakts mit der Quantenphysik…: Aus Sicht der Quantenphysik befinden sich Elektronen an mehreren Orten gleichzeitig… Es erschien spannend zu prüfen, ob diese Eigenschaften auch für digitale Zwillinge angenommen werden können.“

OK, die Freiheit der Wissenschaft ist ein hohes Gut, und Querdenker sind gefragt. Aber bitte nicht zu verquer. Das etwas nicht gleich falsch ist, reicht nicht, oder? Es sollte auch absehbar weiterhelfen.

Warum die Aufregung? Der Digitale Zwilling ist ein schönes, einfaches Bild, um die Potentiale hinter dem Internet der Dinge zu verstehen. Wäre schade, wenn das nach dem Motto „warum einfach, wenn’s auch kompliziert geht“ drangegeben wird.

Und übrigens, die englische Wikipedia sagt: A digital twin is a digital replica of a … physical entity…