Kontext ist King – virtuelle Zusammenarbeit in der Produktentwicklung

Die vergangenen zwei Monate haben dem Thema virtuelle Zusammenarbeit einen enormen Schub verliehen. Die Corona Krise hat flächendeckend jeden dazu gezwungen, sich mit dieser Thematik auseinanderzusetzten. Und das Fazit ist durchgängig positiv!

In den ersten Wochen galt es, zunächst einmal die Möglichkeiten für eine virtuelle Zusammenarbeit zu schaffen. Jetzt geht es darum, die Potenziale dieser Möglichkeiten nach der Rückkehr in die „Normalität“ weiter zu nutzen. Mehr noch: Viele Unternehmen nehmen die gesammelten Erfahrungen zum Anlass, ihre Aufbau- und Ablauforganisation neu zu überdenken und Geschäftsprozesse weiter zu digitalisieren.

Sonderfall Produktentwicklung

Während gängige Office-Lösungen in Kombination mit Videokonferenzen in Bereichen wie Administration, Marketing oder Vertrieb einfach zu nutzen sind, stoßen sie in der Produktentwicklung oft an ihre Grenzen. Ein Grund dafür ist, unter anderem, die hohe Interdisziplinarität in diesem Bereich. Viele verschiedene Fachteams müssen zeitgleich und in mehreren Projekten zusammenarbeiten. Hinzu kommt die hohe Komplexität der Arbeitsgegenstände, die oftmals als Strukturen ausgeprägt sind und vielfältige Relationen untereinander haben. Um unter diesen Rahmenbedingungen produktiv virtuell zusammenzuarbeiten, reichen die Möglichkeiten der üblichen IT-Tools nicht aus.

Neue Anforderungen an IT-Werkzeuge

Abhilfe schaffen hier intelligente Plattformlösungen für kollaboratives Product Lifecycle Management (PLM), die es ermöglichen kontextbezogen interdisziplinär zu arbeiten. Kontextbezogen heißt, dass alle Arbeitsgegenstände miteinander verlinkt und zu jeder Zeit im Arbeitsprozess und aus jedem Zusammenhang aufrufbar sind. Analysten wie Gartner sprechen hier von Content Collaboration Tools. So kann von einem Arbeitsgegenstand ohne Suchen und Nachfragen zu allen benachbarten Arbeitsgegenständen navigiert werden. Das garantiert gerade bei verteilten Teams ein effizientes und geltungssicheres Zusammenarbeiten.

Intelligente Plattformlösungen bieten noch einen weiteren Vorteil in der Zusammenarbeit: Eine gemeinsame Umgebung in der sich alle Projektbeteiligten informieren und Änderungen direkt einsehen können. Dabei unterstützen teamübergreifende Chat-Funktionen, sogenannte Activity Streams, den konsistenten Austausch über den aktuellen Stand der Dinge. Das garantiert gerade in der virtuellen Zusammenarbeit einen kontinuierlichen Informationsfluss, der in den meisten Fällen den fehlenden „Flurfunk“ oder das Treffen an der Kaffeemaschine mehr als kompensiert. Auch hierfür hat Gartner einen Begriff parat, den der Workstream Collaboration.

Ein weiterer wesentlicher Bestandteil intelligenter Plattformlösungen ist die Verwendung von integrierten Taskboards, mit denen Entwicklerteams eigenverantwortlich ihre Aufgaben organisieren. In der Vergangenheit nutzte man oft Aufgabenlisten mit mehreren hundert Einträgen. Heute ermöglichen Taskboards nur wichtige Meilensteine oder Quality Gates vorzugeben, die einzelnen Aufgaben innerhalb der Meilensteine jedoch den Teams eigenverantwortlich zu überlassen. Damit kann ein interdisziplinäres, verteiltes Team in virtuellen Sessions z.B. per ZOOM, eine gemeinsame Wochenplanung am Bildschirm durchführen.

Der wesentliche Vorteil integrierter Taskboards liegt in der direkten Verlinkung von Aufgabenkarten auf den Boards mit den Arbeitsgegenständen. Das vermeidet neben der zeitraubenden Suche nach den passenden Arbeitsobjekten, auch Fehler- und Versionsrisiken. Diese Mehraufwände und Risiken treten in der Regel bei zugekauften Einzellösungen auf.

Fazit:

Die Corona Krise hat den Boden bereitet, um ab jetzt den Umfang der virtuellen Zusammenarbeit – auch in der Produktentwicklung – kontinuierlich auszubauen. Die Produktentwicklung stellt für eine effiziente virtuelle Zusammenarbeit spezielle Anforderungen an IT-Tools. Insbesondere das Arbeiten im Kontext ist hierbei ein entscheidender Produktivitätsfaktor. Ausgewählte intelligente Plattformlösungen für kollaboratives PLM erfüllen diese Anforderungen schon heute.

Risiken und Sicherheit – (k)ein Krisenthema?

Deutschland und fast alle anderen Länder stecken in der Krise! Binnen kürzester Zeit mussten wir erkennen, dass eine infektiöse organische Struktur mit einer Größe von wenigen Nanometern weltweit gigantische Schäden anrichtet und unser Leben gehörig auf den Kopf stellt. Wir realisieren plötzlich, wie verwundbar unser Dasein ist und wie unser eigenes Sicherheitsbedürfnis immer dann besonders deutlich in den Vordergrund tritt, wenn alles um einen herum nicht mehr selbstverständlich ist.

Die Geschichte lehrt uns, dass es egal ist, wie eine Katastrophe heißt – COVID-19, 9/11, Fukushima oder Tsunami, es gilt in jedem Fall Sicherheit und Risiken neu zu überdenken und zu bewerten. Denn ein zu viel an Sicherheit macht jedes System träge und schwerfällig. Im Gegensatz dazu bergen jedoch zu viele Risiken ein hohes Maß an Gefahren – nicht nur für den Einzelnen, sondern auch für die Gesellschaft insgesamt.

Die Betrachtung und Bewertung von Produktrisiken ist in der PLM-Welt ein altbekanntes Thema. Häufig wird Risikomanagement als lästiges Beiwerk empfunden, das im Wesentlichen dafür sorgt, viel Papier zu füllen. Der konkrete Mehrwert ist indes nicht immer unmittelbar ersichtlich. Hier hilft der Perspektivwechsel vom Produzenten zum Konsumenten: Unzählige Prüf- und Gütesiegel in jedem Bereich des täglichen Lebens stellen die Unbedenklichkeit im Umgang mit Produkten sicher, so zum Beispiel der TÜV für das Auto, das CE-Kennzeichen auf dem Notebook oder das GS-Siegel auf dem Bürostuhl. Keiner möchte darauf verzichten, dass das von ihm genutzte Produkt hinreichend sicher ist und er es ohne größere Risiken nutzen kann.

Für meine Beratungstätigkeit haben sich drei grundlegende Erkenntnisse herauskristallisiert:

  1. Das Undenkbare denken
    Wissenschaft und Technik geben uns immer mehr das Gefühl, dass uns nichts passieren kann. Diese Sicherheit kann aber trügerisch sein. Manchmal fühlen wir uns nur deswegen sicher, weil uns Risiken (noch) nicht bekannt sind oder wir sie falsch einschätzen.
  2. Man kann nicht so doof denken, wie es kommen kann
    Es wird nie möglich sein, jedes Risiko zu antizipieren und für alle Eventualitäten gerüstet oder gar versichert zu sein. Dennoch schult das Risikomanagement den Blick für mögliche Gefahren und effektive Gegenmaßnahmen. Sich in Nicht-Krisenzeiten regelmäßig Gedanken über Risiken zu machen und Parameter für Sicherheit auszuloten, trainiert Denkstrukturen und Handlungsmuster. Diese bilden in Konsequenz eine solide Basis für ein fundiertes Krisenmanagement.
  3. Not macht erfinderisch
    Unbekannte Situationen lähmen zwar zunächst das eigene Denken und Handeln, regen aber in Folge besonders die Kreativität an. Hier liegt enormes Potenzial für innovative und effiziente Ideen, wie mit vorhandenen Bordmitteln Großes bewirkt werden kann. So liegt in jeder Krise auch eine Chance auf Veränderung und Verbesserung.

Corona sorgt dafür, dass die goldene Mitte zwischen Sicherheit und Risiko in allen Lebensbereichen unter den gegebenen Parametern wieder einmal neu auszuloten ist. Vielleicht gelingt es durch die veränderten Sichtweisen sogar, auch das Risikomanagement im PLM positiver zu betrachten und der eigenen Kreativität sowohl bei der Einschätzung von Risiken wie auch bei der Entwicklung von sicheren Produkten freien Lauf zu lassen?

KI – Wo wir im Hype Cycle stehen und wie es weiter geht

Während sich der Anstieg der Forschungsartikel und Konferenzen im Bereich KI laut artificial intelligence index weiter fortsetzt, lässt sich in den Medien langsam eine gewisse Ermüdung angesichts des Hypes erkennen. Zeit also, Bilanz zu ziehen: Was ist erreicht worden? Was ist praktisch möglich? Und wie geht es weiter?

Was ist erreicht worden?

In den Jahren 2018 und 2019 wurden die vorher entwickelten Methoden zur Anwendung von neuronalen Netzwerken (so definiere ich hier KI) weiter verfeinert und perfektioniert. Standen zunächst (2012-2016, Imagenet-Wettbewerb) Verfahren zur Bildklassifizierung und -verarbeitung und danach Audio-Verfahren (2015-2017, Start von Alexa und anderen Sprachassistenten) im Mittelpunkt, wurden 2019 große Fortschritte in der Textverarbeitung und -generierung gemacht (NLP = natural language processing). Insgesamt sind die zur Verfügung stehenden Techniken mit hohem Aufwand vor allem der großen Player (Google, Facebook, OpenAI, Microsoft) weiter verbessert und kombiniert worden.

Was ist praktisch möglich?

Die Anwendung von KI ist im Wesentlichen immer noch begrenzt auf vier Anwendungsbereiche:

  • Bilder: Bilderkennung, -segmentierung
  • Audio: Umwandlung von Sprache in Text und umgekehrt
  • NLP: Textverarbeitung und -generierung
  • Labeled Data: Vorhersage des Labels (z.B. Preis) aus einer Menge von Featuren

Diese Liste ist überraschend kurz, gemessen an der Aufmerksamkeit, die KI in den Medien erhält. Die beeindruckendsten Erfolge von KI ergeben sich allerdings aus einer Kombination der Techniken wie z.B. Sprachassistenten durch Kombination von Audio, NLP und Labeled Data zur Umwandlung der Eingabe in Text, Erkennung der Textintention mit NLP und Vorhersage des Sprecherwunsches durch Anwendung von riesigen Mengen von Labeled Data, also vorherigen Auswertungen ähnlicher Äußerungen.

Entscheidend für die Entwicklung gerade dieser KI-Anwendungsfelder waren:

  1. Das Vorliegen großer Mengen frei verfügbarer Benchmark-Datensätze (Datensätze für Machine Learning), an denen Algorithmen entwickelt und verglichen wurden
  2. Eine große Forschergemeinde, die sich gemeinsam auf die Benchmark-Datensätze verständigt hat, und ihre Algorithmen in öffentlichen Wettbewerben vergleicht (GLUE, Benchmarks AI, Machine Translation u.a.)
  3. Eine freie Verfügbarkeit der entwickelten Modelle, die als Ausgangspunkt für den praktischen Einsatz dienen (beispielhaft Tensorflow Hub)

An Hand dieser Voraussetzungen kann man schnell einschätzen, wie realistisch manche Marketing-Fantasien sind. Z.B. gibt es für das oft plakativ vorgebrachte Einsatzgebiet Predictive Maintenance weder Benchmarkdatensätze noch eine Forschergemeinde und entsprechend auch keine Modelle.

Wie geht es weiter?

Es ist zum einen abzusehen, dass die weitere Entwicklung im KI-Bereich sicherlich zunächst in den vorgenannten Anwendungsfeldern weitergeht und sich an den Randbereichen weiterentwickelt. Zum anderen zeichnen sich Bereiche ab, die ähnlich wie die vorgenannten Einsatzgebiete unter Aufwendung großer öffentlicher und privater Mittel (z.B. werden OpenAI und Deepmind mit Milliardensummen von Elon Musk bzw. Google bezuschusst) vorangetrieben werden. Exemplarisch für große Investitionen in diesem Bereich steht sicher das autonome Fahren aber auch der Bereich IoT. Insgesamt sehe ich folgende Bereiche, die sich 2020-2022 stark weiterentwickeln:

  • Die Verbindung von Reinforcement Learning mit KI-Gebieten zum schnelleren Anlernen von Modellen
  • Eine weitere Verstärkung im Bereich autonomes Fahren, die sich aus der Anwendung und Kombination von KI und Reinforcement Learning ergibt
  • Durchbrüche in der Verallgemeinerung der Erkenntnisse aus der Bildverarbeitung auf 3D (Geometric Deep Learning und Graph Networks)
  • Eine Verschmelzung von traditionellen Methoden aus der Statistik mit neuronalen Netzwerken
  • IoT-Zeitreihen (s.u.)

Einen großen Wandel sehe ich durch das Aufkommen von IoT und der damit einhergehenden Sensorik und Daten auf uns zukommen. IoT-Daten sind ihrer Natur nach Zeitreihen, die zur Auswertung gefiltert, kombiniert, geglättet und angereichert werden müssen. Zu diesem Zweck ist bisher relativ wenig Spezifisches passiert. Es könnte sein, das ab 2020 – 2022 dieses Thema einige überraschende Wendungen und Durchbrüche für uns bereithält. Insbesondere die deutsche Industrie, die von den ersten Entwicklungen im Bereich KI eher wenig profitiert hat, dürfte hier ein vielversprechendes Einsatzgebiet finden.