Risiken und Sicherheit – (k)ein Krisenthema?

Deutschland und fast alle anderen Länder stecken in der Krise! Binnen kürzester Zeit mussten wir erkennen, dass eine infektiöse organische Struktur mit einer Größe von wenigen Nanometern weltweit gigantische Schäden anrichtet und unser Leben gehörig auf den Kopf stellt. Wir realisieren plötzlich, wie verwundbar unser Dasein ist und wie unser eigenes Sicherheitsbedürfnis immer dann besonders deutlich in den Vordergrund tritt, wenn alles um einen herum nicht mehr selbstverständlich ist.

Die Geschichte lehrt uns, dass es egal ist, wie eine Katastrophe heißt – COVID-19, 9/11, Fukushima oder Tsunami, es gilt in jedem Fall Sicherheit und Risiken neu zu überdenken und zu bewerten. Denn ein zu viel an Sicherheit macht jedes System träge und schwerfällig. Im Gegensatz dazu bergen jedoch zu viele Risiken ein hohes Maß an Gefahren – nicht nur für den Einzelnen, sondern auch für die Gesellschaft insgesamt.

Die Betrachtung und Bewertung von Produktrisiken ist in der PLM-Welt ein altbekanntes Thema. Häufig wird Risikomanagement als lästiges Beiwerk empfunden, das im Wesentlichen dafür sorgt, viel Papier zu füllen. Der konkrete Mehrwert ist indes nicht immer unmittelbar ersichtlich. Hier hilft der Perspektivwechsel vom Produzenten zum Konsumenten: Unzählige Prüf- und Gütesiegel in jedem Bereich des täglichen Lebens stellen die Unbedenklichkeit im Umgang mit Produkten sicher, so zum Beispiel der TÜV für das Auto, das CE-Kennzeichen auf dem Notebook oder das GS-Siegel auf dem Bürostuhl. Keiner möchte darauf verzichten, dass das von ihm genutzte Produkt hinreichend sicher ist und er es ohne größere Risiken nutzen kann.

Für meine Beratungstätigkeit haben sich drei grundlegende Erkenntnisse herauskristallisiert:

  1. Das Undenkbare denken
    Wissenschaft und Technik geben uns immer mehr das Gefühl, dass uns nichts passieren kann. Diese Sicherheit kann aber trügerisch sein. Manchmal fühlen wir uns nur deswegen sicher, weil uns Risiken (noch) nicht bekannt sind oder wir sie falsch einschätzen.
  2. Man kann nicht so doof denken, wie es kommen kann
    Es wird nie möglich sein, jedes Risiko zu antizipieren und für alle Eventualitäten gerüstet oder gar versichert zu sein. Dennoch schult das Risikomanagement den Blick für mögliche Gefahren und effektive Gegenmaßnahmen. Sich in Nicht-Krisenzeiten regelmäßig Gedanken über Risiken zu machen und Parameter für Sicherheit auszuloten, trainiert Denkstrukturen und Handlungsmuster. Diese bilden in Konsequenz eine solide Basis für ein fundiertes Krisenmanagement.
  3. Not macht erfinderisch
    Unbekannte Situationen lähmen zwar zunächst das eigene Denken und Handeln, regen aber in Folge besonders die Kreativität an. Hier liegt enormes Potenzial für innovative und effiziente Ideen, wie mit vorhandenen Bordmitteln Großes bewirkt werden kann. So liegt in jeder Krise auch eine Chance auf Veränderung und Verbesserung.

Corona sorgt dafür, dass die goldene Mitte zwischen Sicherheit und Risiko in allen Lebensbereichen unter den gegebenen Parametern wieder einmal neu auszuloten ist. Vielleicht gelingt es durch die veränderten Sichtweisen sogar, auch das Risikomanagement im PLM positiver zu betrachten und der eigenen Kreativität sowohl bei der Einschätzung von Risiken wie auch bei der Entwicklung von sicheren Produkten freien Lauf zu lassen?

KI – Wo wir im Hype Cycle stehen und wie es weiter geht

Während sich der Anstieg der Forschungsartikel und Konferenzen im Bereich KI laut artificial intelligence index weiter fortsetzt, lässt sich in den Medien langsam eine gewisse Ermüdung angesichts des Hypes erkennen. Zeit also, Bilanz zu ziehen: Was ist erreicht worden? Was ist praktisch möglich? Und wie geht es weiter?

Was ist erreicht worden?

In den Jahren 2018 und 2019 wurden die vorher entwickelten Methoden zur Anwendung von neuronalen Netzwerken (so definiere ich hier KI) weiter verfeinert und perfektioniert. Standen zunächst (2012-2016, Imagenet-Wettbewerb) Verfahren zur Bildklassifizierung und -verarbeitung und danach Audio-Verfahren (2015-2017, Start von Alexa und anderen Sprachassistenten) im Mittelpunkt, wurden 2019 große Fortschritte in der Textverarbeitung und -generierung gemacht (NLP = natural language processing). Insgesamt sind die zur Verfügung stehenden Techniken mit hohem Aufwand vor allem der großen Player (Google, Facebook, OpenAI, Microsoft) weiter verbessert und kombiniert worden.

Was ist praktisch möglich?

Die Anwendung von KI ist im Wesentlichen immer noch begrenzt auf vier Anwendungsbereiche:

  • Bilder: Bilderkennung, -segmentierung
  • Audio: Umwandlung von Sprache in Text und umgekehrt
  • NLP: Textverarbeitung und -generierung
  • Labeled Data: Vorhersage des Labels (z.B. Preis) aus einer Menge von Featuren

Diese Liste ist überraschend kurz, gemessen an der Aufmerksamkeit, die KI in den Medien erhält. Die beeindruckendsten Erfolge von KI ergeben sich allerdings aus einer Kombination der Techniken wie z.B. Sprachassistenten durch Kombination von Audio, NLP und Labeled Data zur Umwandlung der Eingabe in Text, Erkennung der Textintention mit NLP und Vorhersage des Sprecherwunsches durch Anwendung von riesigen Mengen von Labeled Data, also vorherigen Auswertungen ähnlicher Äußerungen.

Entscheidend für die Entwicklung gerade dieser KI-Anwendungsfelder waren:

  1. Das Vorliegen großer Mengen frei verfügbarer Benchmark-Datensätze (Datensätze für Machine Learning), an denen Algorithmen entwickelt und verglichen wurden
  2. Eine große Forschergemeinde, die sich gemeinsam auf die Benchmark-Datensätze verständigt hat, und ihre Algorithmen in öffentlichen Wettbewerben vergleicht (GLUE, Benchmarks AI, Machine Translation u.a.)
  3. Eine freie Verfügbarkeit der entwickelten Modelle, die als Ausgangspunkt für den praktischen Einsatz dienen (beispielhaft Tensorflow Hub)

An Hand dieser Voraussetzungen kann man schnell einschätzen, wie realistisch manche Marketing-Fantasien sind. Z.B. gibt es für das oft plakativ vorgebrachte Einsatzgebiet Predictive Maintenance weder Benchmarkdatensätze noch eine Forschergemeinde und entsprechend auch keine Modelle.

Wie geht es weiter?

Es ist zum einen abzusehen, dass die weitere Entwicklung im KI-Bereich sicherlich zunächst in den vorgenannten Anwendungsfeldern weitergeht und sich an den Randbereichen weiterentwickelt. Zum anderen zeichnen sich Bereiche ab, die ähnlich wie die vorgenannten Einsatzgebiete unter Aufwendung großer öffentlicher und privater Mittel (z.B. werden OpenAI und Deepmind mit Milliardensummen von Elon Musk bzw. Google bezuschusst) vorangetrieben werden. Exemplarisch für große Investitionen in diesem Bereich steht sicher das autonome Fahren aber auch der Bereich IoT. Insgesamt sehe ich folgende Bereiche, die sich 2020-2022 stark weiterentwickeln:

  • Die Verbindung von Reinforcement Learning mit KI-Gebieten zum schnelleren Anlernen von Modellen
  • Eine weitere Verstärkung im Bereich autonomes Fahren, die sich aus der Anwendung und Kombination von KI und Reinforcement Learning ergibt
  • Durchbrüche in der Verallgemeinerung der Erkenntnisse aus der Bildverarbeitung auf 3D (Geometric Deep Learning und Graph Networks)
  • Eine Verschmelzung von traditionellen Methoden aus der Statistik mit neuronalen Netzwerken
  • IoT-Zeitreihen (s.u.)

Einen großen Wandel sehe ich durch das Aufkommen von IoT und der damit einhergehenden Sensorik und Daten auf uns zukommen. IoT-Daten sind ihrer Natur nach Zeitreihen, die zur Auswertung gefiltert, kombiniert, geglättet und angereichert werden müssen. Zu diesem Zweck ist bisher relativ wenig Spezifisches passiert. Es könnte sein, das ab 2020 – 2022 dieses Thema einige überraschende Wendungen und Durchbrüche für uns bereithält. Insbesondere die deutsche Industrie, die von den ersten Entwicklungen im Bereich KI eher wenig profitiert hat, dürfte hier ein vielversprechendes Einsatzgebiet finden.

Physische Produkte agil entwickeln?

In meinem letzten Blog-Beitrag ging es um Teams, die erst durch Erfahrung wirklich agil werden. Heute stehen die Herausforderungen im Mittelpunkt, die die Agilität gerade im Engineering mit sich bringt.

Agile Softwareentwicklung hat sich fast 20 Jahre nach dem Agilen Manifest weitgehend durchgesetzt. Es geht nicht mehr um das Ob, sondern nur noch um die Best Practices im Detail sowie agile Skalierbarkeit. Der Erfolg und die einfache Anwendbarkeit etwa von Task Boards haben dazu geführt, dass agiles Vorgehen auch außerhalb der Software-Entwicklung begeisterte Nutzer findet, wo Aufgaben im Team bearbeitet werden.

Dies mündete schließlich in die zunehmend intensiv diskutierte Frage, ob auch physische Produkte effizienter mit agilem Vorgehen entwickelt werden könnten.

Warum eigentlich?

Es gibt seit vielen Jahren etablierte Produktentstehungsprozesse, die eine große Reife erlangt haben und eine erfolgreiche Entwicklung unterstützen. Warum davon abgehen und die Risiken eines komplett neuen Ansatzes auf sich nehmen?

Je unklarer die Anforderungen an das Produkt sind und je unbekannter die zu verwendende Technologie ist, desto weniger sind klassische Projektmanagement-Methoden geeignet, weil sie sehr stark vorausplanend sind. Genau diese Tendenz, Projekte trotz zunächst unvollständiger Anforderungen zu starten, beobachten wir aber zunehmend. Digitalisierung und neue Technologien erfordern neue Geschäftsmodelle oder neue technologische Fähigkeiten. Dies spricht für ein agiles Vorgehen, da es für den Umgang mit Unklarheit und Noch-Nicht-Wissen erfunden wurde.

Geht das überhaupt?

Die entscheidende Frage lautet dabei: Sind agile Methoden aus der Softwareentwicklung überhaupt geeignet, die Herausforderungen in der „klassischen“ Produktentwicklung zu bewältigen? Physische Produkte werden im Unterschied zu Software deutlich arbeitsteiliger entwickelt. Die Produktion von fehlerhaften Komponenten verursacht hohe Folgekosten und die Absicherung ist auf physische Prototypen angewiesen. Es ist nicht möglich, alle zwei Wochen einen neuen, funktionierenden und potenziell auslieferbaren Stand zu präsentieren. Lösungen für solche Probleme erfordern eine kreative Weiterentwicklung der bekannten agilen Vorgehensmodelle. Ein sehr einfaches Beispiel dafür: Die Teams verschiedener Domänen benutzen unterschiedliche Sprintdauern. Während das Software-Team alle 2 Wochen liefert, gilt für das Mechanik-Team ein 6-Wochen-Rhythmus. Wichtig ist, die Sprints so zu synchronisieren, dass alle 6 Wochen ein gemeinsames Inkrement erreicht wird.

Die Herausforderung

Die Herausforderung bei der Einführung agiler Methoden ist damit eine doppelte: Einerseits ist es erforderlich, die agilen Methoden aus der Software-Entwicklung an die Bedingungen in der Produktentwicklung anzupassen. Andererseits benötigt man – damit komme ich wieder zu meinem vorigen Beitrag zurück – viel agiles Erfahrungswissen, um solche Anpassungen erfolgreich hinzubekommen. Um diesen Widerspruch aufzulösen, sollte man die Pioniere, die sich auf das neue Terrain wagen, zusammenbringen mit erfahrenen „Agilikern“, die ihr Handwerk aus der Software-Entwicklung beherrschen. Das wechselseitige voneinander Lernen und Teilen von Wissen führt zu einer besseren Beherrschung der Produktentwicklung unter den sich rasant ändernden Randbedingungen.