Developer Experience – von intuitiv bis komplex

Es klingt nach einer spannenden Zukunftsvision: Anwender:innen jedes Fachbereichs nutzen vorgefertigte Programmbausteine, um schnell und einfach Simulationen, Optimierungsaufgaben oder Analysen mittels Künstlicher Intelligenz (KI) zu erstellen. Das können dann auch Fachabteilungen umsetzen, deren Mitarbeiter:innen nicht über Kenntnisse in einer höheren Programmiersprache verfügen. Soweit die Idee. Vorab müssen Entwickler:innen diese Programmbausteine natürlich erstellen, damit Fachanwender:innen daraus eine für ihre Anforderung passende Lösung zusammensetzen können.

KI-gestützte Analysen für die Fachabteilung

Gemeinsam mit unseren Partnern forschen wir im Projekt KI-Marktplatz daran, dieser Vision ein Stück näher zu kommen. Namensgebendes Ziel ist es, KI-Anwendungen auf dem Gebiet des Produktentstehungsprozess zu entwickeln und auf einer zentralen Handelsplattform anzubieten. Das Angebot soll zudem Services, wie zum Beispiel Seminare zu ausgewählten KI-Themen oder Auftragsentwicklungen sowie fertige KI-gestützte Apps und Programmblöcke für ganz spezielle Aufgaben umfassen. Die Entwicklung und Wiederverwendung der Apps befinden sich aktuell in der Erprobung. Parallel dazu evaluiert das Projektteam Nutzen und Qualität der Resultate.

Verschiedene Programmierebenen für eine breitere Anwendung

Soweit der Stand der Forschung, aber wie genau unterstützen wir bei CONTACT die Entwicklung wiederverwendbarer Programmbausteine, die Integration von Simulationsmodellen oder KI-gestützter Analysemethoden? Ein Beispiel für den Einsatz in der Praxis findet sich im Bereich der vorausschauenden Wartung (englisch: predictive maintenance). Vorausschauend heißt, dass Wartungszeiträume nicht wie bisher in festen Abständen stattfinden, sondern in Abhängigkeit von Betriebsdaten und Ereignissen an der Maschine oder Anlage berechnet werden. Unsere Plattform Elements for IoT stellt für solche Anwendungsfälle eine Lösung bereit, Betriebsdaten direkt zu analysieren. Dabei speichert der Digitale Zwilling die Daten der jeweiligen Maschine oder Anlage in einem eindeutigen Kontext. Diese lassen sich anhand einer blockbasierten Programmierung direkt abrufen und einfach auswerten. Mit der No-Code-Funktionalität der IoT-Plattform können Fachabteilungen Digitale Zwillinge intuitiv erstellen, automatische Regeln definieren und Ereignisse überwachen sowie Diagramme und Dashboards anlegen – ohne eine Zeile Code zu schreiben.

Darüber hinaus gibt es Anwendungen rund um den Digitalen Zwilling, die mehr Programmier-Know-how erfordern. Hierfür bietet die Plattform Analysten die Möglichkeit, mit einem Jupyter Notebook oder anderen Analysewerkzeug ihre Modelle in einer höheren Programmiersprache selbst zu entwickeln. Vor allem im Bereich des Prototyping ist Python die Sprache der Wahl. Es ist aber auch möglich, mit einer Compiler-basierten Programmiersprache wie C++ zu arbeiten. Eine kontinuierliche Berechnung der Prognosen erfolgt dann über eine Automatisierung der Modelle, die in einer Laufzeitumgebung zur Verfügung stehen. Die Ausführung des Codes erfolgt entweder in der eigenen IT-Infrastruktur oder direkt an der Anlage oder Maschine im Feld (Edge).

Dieses Vorgehen fassen wir unter dem Begriff Low-Code-Entwicklung zusammen, da nur noch der Code für die Entwicklung der Modelle geschrieben wird. Die Datenanbindung erfolgt über den Digitalen Zwilling und geschieht konfigurativ. Das Stück Programm-Code kann dann für verschiedene Anwendungen, wie beispielsweise Digitale Zwillinge innerhalb einer Flotte, als Programmblock wiederverwendet werden.

CONTACT Elements for IoT ist somit offen für Interaktionen auf unterschiedlichen Levels: Von der Verwendung vordefinierter Bausteine (No-Code), über die Möglichkeit, mit selbstgeschriebenem Programm-Code zu interagieren (Low-Code), bis zur Definition eigener Geschäftsobjekte und der Erweiterung der Plattform auf der Basis von Python.

Data Science verstehen – Revolutionäres Potential aus vier Megatrends!

Wir befinden uns an der Schwelle zu einem neuen Zeitalter, weil verschiedene Strömungen zusammenkommen und damit ein einzigartiges Umfeld schaffen. Vieles (manche würden sagen: alles) wird digital. Damit ist auch das Interesse an den Themen Datenanalyse und -exploration – also Data Science – enorm gestiegen. Data Science ist der Konvergenzpunkt von vier Megatrends, die die letzten Jahren dominiert haben und auch die kommenden dominieren werden: Cloud Computing, IoT, Big Data und algorithmische Analyse.

Was sind die Gründe für das Zusammenkommen verschiedener Strömungen und damit eines neuen, einzigartigen Umfeldes?

  1. Zum ersten Mal in der Geschichte der Künstliche Intelligenz, die in den 1950er Jahren als Disziplin begonnen hat, steht die notwendige Rechenleistung zu niedrigen Kosten zur Verfügung, um praktische Probleme mit den schon länger verfügbaren Algorithmen zu lösen.
  2. Die Algorithmen für das Machine Learning sind deutlich verbessert worden und können nun mit vertretbarem Aufwand für praktische Probleme eingesetzt werden.
  3. Die Popularität von Data Science trägt dazu bei, seine Methoden aus den akademischen Zirkeln in die Breite zu tragen, so dass eine große experimentierfreudige Community eine rapide Weiterentwicklung fördert.
  4. Heutzutage gibt es vor allem durch das Internet, die sozialen Netzwerke und die großen Einkaufsplattformen einen Datenschatz in nie gekannter Größenordnung, der auf seine Auswertung wartet.
  5. Das Internet der Dinge wird für weitere Datenströme sorgen, die zu neuen Geschäftsmodellen führen, die mit Hilfe von Data Science erschlossen werden.

Diese Faktoren haben dazu beigetragen, Data Science als eigene wissenschaftliche Fachdisziplin und Ergänzung zur klassischen Statistik zu etablieren. Data Scientist mit ihren Fähigkeiten im Bereich Programmierung, Statistik und neuerer Algorithmik bringen die erforderliche Expertise mit, um die heutigen Möglichkeiten der Datenanalyse gewinnbringend zu nutzen. Die verschiedenen Data Science Techniken lassen sich nach algorithmischen Verfahren oder nach dem Einsatzzweck grob so kategorisieren:

  • Regression
  • Klassifikation
  • Anomalienerkennung
  • Clustering
  • Reinforcement Learning

Auf der einen Seite der bestehenden Software-Landschaft gibt es bereits sehr spezifische Lösungen für gut umrissene Probleme, zum Beispiel im Einzelhandel oder in der Finanzindustrie. Am anderen Ende des Spektrums stehen die Anbieter von Software-Paketen, die ein abgestimmtes Toolset für den Spezialisten im Bereich Data Science zur Verfügung stellen.

Die meisten Lösungen basieren dabei auf Open Source Software. Im Bereich Toolsets dominieren vor allem zwei Sprachen den Markt: R and Python. Python hat sich zur Standardsprache für Data Scientists entwickelt, vor allem im Bereich Machine Learning.

Die gewaltigen Investitionen und die anziehenden Umsätze von großen Commodity-Plattformen wie Amazon, Microsoft und Google zeigen: Die Megatrends Cloud Computing, IoT, Big Data und algorithmische Analyse bestimmen bereits heute oder in naher zukunft die Geschäftsprozesse, und dass bis in die letzten Winkel. Für Unternehmen, die dieses Thema näher interessiert, hat CONTACT ein neues Data Science White Paper herausgebracht. Dies kann hier heruntergeladen werden.

 

Brauchen smarte Produkte neue PLM-Systeme?

Auf dem jüngsten ProSTEP iViP-Symposium gab es eine interessante Podiumsdiskussion zum Thema Smart Engineering, in der hochkarätige Vertreter aus Wissenschaft und Forschung ziemlich offen die Immobilität der PLM-Hersteller angesichts der Herausforderung des Internet of Things (IoT) und der Entwicklung smart vernetzter Systeme kritisierten. O-Ton eines Teilnehmers: „Wir bräuchten Player mit neuen Ideen, die frischen Wind in den Markt bringen.“ Es fehle eine Art Google, der den ganzen PLM-Markt aufrolle, meinte ein andere. Welcher Hafer hat die denn gestochen?, dachte ich mir.

Einer der Vorwürfe an die Adresse der PLM-Hersteller, der aus dem Mund staatlich alimentierter und geförderter Wissenschaftler natürlich etwas befremdlich klingt, ist der, dass sie bei der Weiterentwicklung ihrer Systeme zu wenig in Vorleistung treten und immer nur das entwickeln, mit dem sich ziemlich unmittelbar Geld verdienen lässt. Abgesehen davon, dass Altruismus nicht unbedingt eines der Wesensmerkmale kapitalistischer Systems ist, halte ich den Vorwurf für nicht ganz zutreffend.

  • Erstens kenne ich den einen oder anderen PLM-Hersteller, der seine Software bereits um Module für Anforderungsmanagement, Funktionsmodellierung und andere Systems Engineering-Funktionen ergänzt hat, die sich nicht gerade verkaufen wie warme Semmeln.
  • Zweitens haben die wenigen Anwendervorträge zum Thema Systems Engineering auf dem Symposium einmal mehr deutlich gemacht, dass die Unternehmen immer noch in einer Findungsphase stecken und erst einmal klären müssen, was sie an IT-Unterstützung für die Entwicklung ihrer smarten Produkte benötigen. Ein Eindruck, der durch die Interviews bestätigt wird, die ich in den letzten Jahren zu dem Thema geführt habe.
  • Drittens wissen auch die Wissenschaftler noch nicht so genau, welche Partialmodelle aus der modellbasierten Entwicklung cyberphysischer Systeme mit welchen Informationen eigentlich ins PLM-System gehören. Sonst bräuchten wir ja wohl dotierte Forschungsprojekte wie mecPro2 nicht, die genau das herausfinden sollen.

Richtig ist natürlich, dass die PLM-Hersteller genauso wie ihre Kunden gefordert sind, sich mit den Auswirkungen des IoT auf ihre Geschäftswelt auseinanderzusetzen. Sie müssen ihr Lösungsangebot anpassen, um agilere und kontinuierlichere Entwicklungsprozesse zu unterstützen, wie Stan Przybylinski von der amerikanischen Markforschungsfirma CIMdata kürzlich in einem Webinar zum Thema „The Internet of Things – What does it mean for PLM“ betonte. Doch was heißt das konkret für die Entwicklung der PLM-Software? Muss sie künftig in der Lage sein, unstrukturierte Informationen zu verwalten oder Unmengen an Sensordaten zu analysieren? Ich glaube, dafür sind andere Anwendungen besser geeignet.

Das IoT verspricht Wachstum ohne Ende. Grafik: CIMdata Inc.
Das IoT bietet ein riesiges Wachstumspotential, vor allem für industrielle Anwendungen. Grafik: CIMdata Inc.

Hauptaufgabe der PLM-Systeme ist und bleibt die Unterstützung der Produktentwicklung. Das Problem ist nicht so sehr, dass diese Produkte immer mehr Elektronik und Software enthalten, die sich ständig ändert, sondern dass Elektronik und Software zunehmend genutzt werden, um Produkte mit anderen Produkten und Systemen zu vernetzen und ihren Lebenszyklus dadurch weit über den Start of Production hinaus zu verlängern. Im Sinne eines vollständigen Product Lifecycle Managements muss auch diese Phase systemseitig unterstützt werden.

Das wirkliche Produktleben lag für die Hersteller bislang auf der „dark side of the moon“, wie PTC-Chef Jim Heppelman sich einmal ausdrückte. Dieses Leben besser auszuleuchten, das heißt die Informationen aus dem Feld auszuwerten, in den Lifecycle einzusteuern und für die kontinuierliche Verbesserung der Produkte zu nutzen, das ist die riesige Chance des IoT und die wahre Herausforderung für die PLM-Hersteller. Es geht nicht um die Entwicklung oder Integration von noch ein paar Systems Engineering-Werkzeugen mehr, sondern um die Vernetzung der PLM-Systeme mit den IoT-Plattformen, auf denen diese Lifecycle-Informationen zusammenfließen.

Welche Plattformen das sein werden, ist noch ziemlich offen. Aber wenn man sich vor Augen hält, dass IBM mal eben schlappe drei Milliarden US-Dollar in den Aufbau einer eigenen IoT-Organisation investiert, kann man sich ungefähr ausmalen, welches Kaliber die Player in diesem Markt haben werden. Ein Markt über dessen Größe die aberwitzigsten Zahlen kursieren. Cisco sprich von 19 Billionen US-Dollar im Jahr 2020, McKinsey immerhin noch von 2,7 bis 6,2 Billionen. Einig sind sich alle Auguren, dass der größte Anteil davon auf die Fertigung entfallen wird: Vielleicht war das mit Industrie 4.0 doch keine so schlechte Idee.