KI – Wo wir im Hype Cycle stehen und wie es weiter geht

Während sich der Anstieg der Forschungsartikel und Konferenzen im Bereich KI laut artificial intelligence index weiter fortsetzt, lässt sich in den Medien langsam eine gewisse Ermüdung angesichts des Hypes erkennen. Zeit also, Bilanz zu ziehen: Was ist erreicht worden? Was ist praktisch möglich? Und wie geht es weiter?

Was ist erreicht worden?

In den Jahren 2018 und 2019 wurden die vorher entwickelten Methoden zur Anwendung von neuronalen Netzwerken (so definiere ich hier KI) weiter verfeinert und perfektioniert. Standen zunächst (2012-2016, Imagenet-Wettbewerb) Verfahren zur Bildklassifizierung und -verarbeitung und danach Audio-Verfahren (2015-2017, Start von Alexa und anderen Sprachassistenten) im Mittelpunkt, wurden 2019 große Fortschritte in der Textverarbeitung und -generierung gemacht (NLP = natural language processing). Insgesamt sind die zur Verfügung stehenden Techniken mit hohem Aufwand vor allem der großen Player (Google, Facebook, OpenAI, Microsoft) weiter verbessert und kombiniert worden.

Was ist praktisch möglich?

Die Anwendung von KI ist im Wesentlichen immer noch begrenzt auf vier Anwendungsbereiche:

  • Bilder: Bilderkennung, -segmentierung
  • Audio: Umwandlung von Sprache in Text und umgekehrt
  • NLP: Textverarbeitung und -generierung
  • Labeled Data: Vorhersage des Labels (z.B. Preis) aus einer Menge von Featuren

Diese Liste ist überraschend kurz, gemessen an der Aufmerksamkeit, die KI in den Medien erhält. Die beeindruckendsten Erfolge von KI ergeben sich allerdings aus einer Kombination der Techniken wie z.B. Sprachassistenten durch Kombination von Audio, NLP und Labeled Data zur Umwandlung der Eingabe in Text, Erkennung der Textintention mit NLP und Vorhersage des Sprecherwunsches durch Anwendung von riesigen Mengen von Labeled Data, also vorherigen Auswertungen ähnlicher Äußerungen.

Entscheidend für die Entwicklung gerade dieser KI-Anwendungsfelder waren:

  1. Das Vorliegen großer Mengen frei verfügbarer Benchmark-Datensätze (Datensätze für Machine Learning), an denen Algorithmen entwickelt und verglichen wurden
  2. Eine große Forschergemeinde, die sich gemeinsam auf die Benchmark-Datensätze verständigt hat, und ihre Algorithmen in öffentlichen Wettbewerben vergleicht (GLUE, Benchmarks AI, Machine Translation u.a.)
  3. Eine freie Verfügbarkeit der entwickelten Modelle, die als Ausgangspunkt für den praktischen Einsatz dienen (beispielhaft Tensorflow Hub)

An Hand dieser Voraussetzungen kann man schnell einschätzen, wie realistisch manche Marketing-Fantasien sind. Z.B. gibt es für das oft plakativ vorgebrachte Einsatzgebiet Predictive Maintenance weder Benchmarkdatensätze noch eine Forschergemeinde und entsprechend auch keine Modelle.

Wie geht es weiter?

Es ist zum einen abzusehen, dass die weitere Entwicklung im KI-Bereich sicherlich zunächst in den vorgenannten Anwendungsfeldern weitergeht und sich an den Randbereichen weiterentwickelt. Zum anderen zeichnen sich Bereiche ab, die ähnlich wie die vorgenannten Einsatzgebiete unter Aufwendung großer öffentlicher und privater Mittel (z.B. werden OpenAI und Deepmind mit Milliardensummen von Elon Musk bzw. Google bezuschusst) vorangetrieben werden. Exemplarisch für große Investitionen in diesem Bereich steht sicher das autonome Fahren aber auch der Bereich IoT. Insgesamt sehe ich folgende Bereiche, die sich 2020-2022 stark weiterentwickeln:

  • Die Verbindung von Reinforcement Learning mit KI-Gebieten zum schnelleren Anlernen von Modellen
  • Eine weitere Verstärkung im Bereich autonomes Fahren, die sich aus der Anwendung und Kombination von KI und Reinforcement Learning ergibt
  • Durchbrüche in der Verallgemeinerung der Erkenntnisse aus der Bildverarbeitung auf 3D (Geometric Deep Learning und Graph Networks)
  • Eine Verschmelzung von traditionellen Methoden aus der Statistik mit neuronalen Netzwerken
  • IoT-Zeitreihen (s.u.)

Einen großen Wandel sehe ich durch das Aufkommen von IoT und der damit einhergehenden Sensorik und Daten auf uns zukommen. IoT-Daten sind ihrer Natur nach Zeitreihen, die zur Auswertung gefiltert, kombiniert, geglättet und angereichert werden müssen. Zu diesem Zweck ist bisher relativ wenig Spezifisches passiert. Es könnte sein, das ab 2020 – 2022 dieses Thema einige überraschende Wendungen und Durchbrüche für uns bereithält. Insbesondere die deutsche Industrie, die von den ersten Entwicklungen im Bereich KI eher wenig profitiert hat, dürfte hier ein vielversprechendes Einsatzgebiet finden.

#workfromhome – Wie arbeitet unsere Software-Entwicklung jetzt zusammen?

Bei CONTACT glauben wir daran, dass die persönliche und informelle Interaktion von Menschen ein wichtiger Erfolgsfaktor in komplexen technischen Vorhaben ist – und dazu zählt ohne Zweifel auch die Entwicklung unserer eigenen Software-Produkte. Wir legen deshalb Wert darauf, unseren Teams die Möglichkeit zu geben, sich mit ihren Kolleginnen und Kollegen in ihren Büros, unseren Meeting-Räumen oder an Orten wie dem „Red Sofa“ zu treffen. All das hatte durch Corona ein jähes und hoffentlich vorläufiges Ende.

Homeoffice für alle
Nach ersten Vorbereitungen an den Tagen zuvor hat CONTACT am Wochenende 14.-15. März entschieden, alle Mitarbeiterinnen und Mitarbeiter von zu Hause arbeiten zu lassen. „Work from Home“ trifft bei einem Software-Hersteller im Gegensatz zu vielen unserer Kunden auf besonders günstige Voraussetzungen: Es gibt keine Produktion, bei der Material bewegt werden muss, und Software als „virtuelles“ Produkt kann im Prinzip an jedem Ort der Welt bearbeitet werden.

Als IT-Unternehmen verfügen wir natürlich über eine geeignete und leistungsfähige technische Infrastruktur, und bis auf einige notwendige Hardware-Transporte von Workstations, Bildschirmen und ähnlichem waren die Software-Entwicklung und auch die anderen Bereiche bei CONTACT in weniger als einem Tag einsatzbereit.

Neben unserem Headquarter in Bremen betreiben wir Entwicklungsstandorte in München, Köln, Paderborn sowie Stuttgart und arbeiten häufig mit externen Partnern zusammen. Deshalb sind Kommunikationsmittel wie E-Mail, Telefonieren über Voice-over-IP, Microsoft Teams und so weiter für unsere technik-affinen Software-Entwickler sowieso alltäglich.

Was unsere Entwicklung jedoch wirklich zusammenhält, sind die gemeinsamen Prozesse und Vorgehensweisen, und die dazugehörigen Systeme. Die wichtigste Unternehmensplattform ist unsere Inhouse-Installation von CONTACT Elements, kurz CEDM genannt. Alles was wir tun, läuft dort zusammen, und alle anderen IT-Systeme sind mit CONTACT Elements verbunden.

Über den Activity Stream von CONTACT Elements können wir Informationen und Dokumente gezielt und schnell teilen.

Produkte
Jeder Software-Baustein von CONTACT Elements wird in unserer Elements Inhouse-Installation als Produkt geführt. Die Quelltexte unserer Fachanwendungen verwalten wir in Git- oder Subversion-Repositories, die mit dem Produktobjekt verbunden sind. Aus dem Feld auflaufende Fehler oder Änderungswünsche für die Software-Produkte werden als „Change Requests“ in Elements verwaltet. Wenn diese zu Code-Änderungen führen, erfolgt eine direkte Verlinkung zwischen einem Change-Request und einer Quelltextänderung (einem „Commit“) in Git oder Subversion. Außerdem führen wir in CONTACT Elements natürlich eine Liste der Produkt-Releases und dem jeweiligen Reifegrad.

Unsere Entwicklungsprozesse sind hochgradig automatisiert und naturgemäß vollständig digital. So betreiben wir viele weitere Systeme, die Software automatisch bauen, testen und vermessen. Alle diese Systeme sind direkt oder mittelbar mit CONTACT Elements verbunden.

Jede Stunde, die ein Entwickler mit der Pflege oder Weiterentwicklung einer Software-Komponente verbringt, wird mit der Zeiterfassung in CONTACT Elements verbucht. So haben wir jederzeit einen Überblick darüber, in welchem Umfang wir in Software-Bausteine investieren und was die Wartung kostet.

Projekte
Unsere Entwicklungsmethodik verbindet mehrere agile Methoden mit für unser Unternehmen spezifischen Erweiterungen. Sie heißt „Revolution“ und ist durch Vorlagen für Projekte, die durch „Tayloring“ angepasst werden können, in CONTACT Elements hinterlegt. In „Revolution“ gibt es darüber hinaus eine Reihe von Liefergegenständen (Deliverables), die in CONTACT Elements als Dokumente aus Vorlagen ausgeprägt werden. Anforderungen legen wir als Spezifikationen im Requirements-Management von CONTACT Elements an. Die Projektplanung erfolgt in Iterationen, die mit Task Boards geplant und bearbeitet werden.

Task Board zu einem aktuellen Entwicklungsprojekt bei CONTACT.

Im Ergebnis sind damit alle Informationen, die für unsere Entwicklung bedeutsam sind, in einem System auffindbar und miteinander verbunden. Alle Mitarbeiterinnen und Mitarbeiter sind mit den Begrifflichkeiten bestens vertraut, jederzeit in der Lage auf die relevanten Informationen zuzugreifen, und werden von den Systemen zu den richtigen nächsten Aktivitäten geführt.

Fazit
In der gegenwärtigen Krise schafft diese System- und Prozesslandschaft Vertrauen und Handlungsfähigkeit. Sie hat es uns ermöglicht, praktisch von einem Augenblick auf den anderen auf Remote-Arbeit umzustellen, ohne dass es Verwerfungen gibt. Hinzu kommt, dass es dank der Veränderungsbereitschaft unserer Belegschaft und der ohnehin vorhandenen Neigung zu technischen Kommunikationsmitteln gelungen ist, die persönliche Interaktion und Meetings mittels Video-Chats und Web-Konferenzen ins Internet zu verlagern.

Psst, bloß nicht laut von PLM reden!

Puhh, als PLM-Fan musste man in der vergangenen Woche tief Luft holen: Gleich zwei bekannte Blogger senkten in den Überschriften ihren Daumen nach unten: Joe Barkai: „Why I Don’t Do PLM“ und Oleg Shilovitsky: „Are PLM conferences dead?“.

Kurioserweise ziehen beide an den entgegengesetzten Enden des Seils. Für Barkai greift die klassische Sichtweise von PLM als „single version oft the truth“ zu kurz, während Shilovitsky die Basics hinter der PLM-Idee beschwört.

Barkai: „I find it fascinating that traditional PLM software vendors are not realizing how the Internet of Things and the connected enterprise are breathing a new life into the PLM space that does not quite know how to reinvent itself. After decades of using enterprise PLM software, it is still common to hear at a PLM conference a speaker announcing, “Let me give you my definition of PLM.” Or those never-ending debates about eBOMs and mBOMs and where PDM ends and PLM begins.“

Shilovitsky: “I know many people struggling with their PLM decisions and fighting alone to balance tools, budgets, organizational and cultural changes and timelines. Companies are struggling with very basics things – Part Numbers, Change Management, Revisions, and others. To discuss the real problems, can be an opportunity. This is the foundation – the story. This is a single unit… If a single unit doesn’t sell, making it broader or scaling it up won’t solve the problem.”

Ehrlich gesagt, je nachdem mit welchen Kollegen ich bei uns spreche, könnte es ähnlich ausgehen. Bei einer Sache sind wir uns dabei aber alle ziemlich sicher: PLM groß auf eine Einladung oder eine Anzeige zu schreiben, dazu gehört heute schon etwas Mut.

Sind die besten Zeiten von PLM also vorbei?

Unternehmen bestehen deshalb am Markt, weil sie ihren Kunden zuhören und ihr Angebot immer wieder rechtzeitig an neue Anforderungen und Möglichkeiten anpassen! Ja, die Basics sind immer noch die low hanging fruits,  und die Vorreiter kümmern sich um die anspruchsvolleren Potentiale im Produktlebenszyklus, wo es um die Integration von Disziplinen, Tools und Prozessen geht. Einige PLM-Anbieter nutzen zum Beispiel ihre Erfahrung und ihr bisheriges Portfolio rund um das virtuelle Produkt, um ihr Angebot Richtung Internet of Things und den digitalen Zwilling zu erweitern.

Dies macht das Dilemma deutlich: PLM war im Gegensatz zu ERP oder auch der Finanzbuchhaltung nie ein Selbstläufer. Immer schon musste die PLM-Idee bei den Geldgebern besonders überzeugend motiviert werden.

Und das ist oft nicht gut gelungen, wie mein Kollege Rolf Stübbe es in seinem Blog-Beitrag „20 Jahre PLM: Warum zweifeln Viele noch immer am Nutzen?“ auf den Punkt bringt: „Trotz der wieder steigenden Aufmerksamkeit für PLM bemerke ich, dass dem Begriff unverändert die Geschmacksnoten groß, schwerfällig, langwierig, unwirtschaftlich anhaften.“ Vermeintliche Leuchtturmprojekte wie die schier endlose Teamcenter-Einführung bei VW und Dassaults Lizenzpolitik, die mit ursächlich für die Code of PLM Openness Initiative war, stehen stellvertretend für die vielen Nadelstiche, die den Ruf von PLM mit der Zeit ramponiert haben.

Fazit

Man kommt sich vor wie bei Monty Python in der Fawlty Towers Folge “The Germans”: „Don‘t mention the war!“. PLM: Jeder denkt dran, aber alle versuchen, dem Begriff aus dem Weg zu gehen. 

Dabei waren Zeiten für die PLM-Idee nie besser als heute. Der Druck in den Unternehmen ist hoch und steigt weiter, um die Chancen der Digitalen Transformation zu nutzen. Aber das Storytelling muss besser werden. Da taugen die alten Geschichten und komplizierten Definitionen sicher nicht mehr, und der PLM-Begriff als Werbeträger nur noch bedingt. Storytelling und Projektmarketing gehören von Anfang an zusammen. Das fängt mit den Zielen an. Da bin ich bei Oleg Shilovitsky: Wir sollten das Kind nicht mit dem Bade ausschütten. Krude Versprechungen und obskure Visionen, die zum Scheitern verurteilt sind, helfen nicht, im Gegenteil. Lieber die low hanging fruits attraktiv verpacken, dem Projekt einen sinnstiftenden Namen geben und alles dafür tun, dass die ersten, überschaubaren Ziele auch erreicht werden.