Mit der Digitalisierungsroadmap zum ganzheitlich digitalen Unternehmen

Die Digitalisierung von Unternehmensprozessen hat in den letzten Jahren bemerkenswerte Aufmerksamkeit erfahren. Zum einen legte die Corona-Pandemie digitale Defizite schonungslos offen, zum anderen sind Unternehmen in Anbetracht des politischen, gesellschaftlichen und ökologischen Wandels mehr denn je gefordert, agiler und nachhaltiger zu handeln. Motivation ist also ausreichend vorhanden und die Fortschritte in der Digitalisierung werden mehr und mehr sichtbar. Die Umsetzung erfolgt dabei jedoch meist weniger anhand einer Digitalisierungsroadmap, die die Meilensteine und Wegpunkte bis zum Ziel aufzeigt, sondern eher nach der sprichwörtlichen Salamitaktik.

Häppchenweise Digitalisierung birgt Risiken

Wenn ich mit Vertretern mittelständischer Unternehmen über das Thema Digitalisierung spreche, lautet die Antwort häufig: Ja, das machen wir laufend! Als Beispiele folgen dann unter anderem Maßnahmen wie die Erstellung von Policies zur unternehmensweit stärkeren Nutzung der Features von Office-Software, die Einführung eines Tickesytstems oder die Nutzung eines Requirements Management Tools in der Produktentwicklung.

Dies spiegelt die weit verbreitete Praxis wider, Digitalisierungsprojekte bereichs- oder abteilungsweise, bezogen auf einzelne Aufgabenstellungen oder Teilprozesse durchzuführen. Es scheint auf den ersten Blick oft attraktiv, Projekte aus Bereichs- oder Standortsicht zu planen und umzusetzen, denn der Abstimmungsaufwand ist geringer und bereichsspezifische Lösungen können vermeintlich schnell umgesetzt werden.

Grundsätzlich ist die Durchführung anspruchsvoller Projekte in überschaubaren Schritten eine sinnvolle Vorgehensweise. Schnell Nutzen zu erzeugen und Digitalisierungsfortschritte kontinuierlich sichtbar zu machen, ebenfalls. Allerdings birgt das fragmentierte Vorgehen auch Risiken: Dann nämlich, wenn das Zielbild der Digitalisierung unklar und der Weg dorthin nicht ausreichend beschrieben ist. Hier besteht die realistische Gefahr, wesentliche Ziele von Digitalisierungsprojekten nicht zu erreichen. Wie zum Beispiel die Potenziale neuer, digitaler Geschäftsmodelle nicht auszuschöpfen und damit die digitale Transformation des Unternehmens nicht voranzutreiben. Oder die unternehmensweiten und unternehmensübergreifenden Datenschätze nicht zu nutzen, wenn der Fokus nur auf lokalen Optimierungen liegt.

Die Vorteile einer Digitalisierungsroadmap

Um es vorwegzunehmen: Mit einer Roadmap zur Digitalisierung können Unternehmen die oben genannten Risiken mit wenig Aufwand minimieren. Sie bietet eine verlässliche, mittelfristige Guideline für alle Digitalisierungsaktivitäten im Unternehmen, ausgerichtet auf ein klares Zielbild. Mit ihren unterschiedlichen Perspektiven auf das Thema Digitalisierung adressiert sie sowohl die Fachabteilungen, die IT als auch das Management. Dabei sollte die Digitalisierungs-Roadmap einige wesentliche Informationen beinhalten:

  1. Welchen Digitalisierungsgrad hat das Unternehmen?
    Die Basis der Digitalisierungsroadmap bildet die Bestandsaufnahme des aktuellen Digitalisierungsgrades im Unternehmen. Dazu werden die bereits bestehenden Zielbilder, Anforderungen und Aktivitäten in den unterschiedlichen Unternehmensbereichen und -hierarchien gesichtet. Gängige Reifegradmodelle helfen, den Digitalisierungsgrad des Unternehmens einzuschätzen.
  2. Was ist das Zielbild?
    Steht das Status quo fest, kann ein klares, abgestimmtes Zielbild der Digitalisierung entworfen werden. Das Zielbild enthält einen Überblick über die zukünftigen digital durchgängigen Geschäftsprozesse sowie die zukünftige Applikationsarchitektur und die notwendigen Informationsservices.
  3. Welche Teilschritte sind nötig?
    Ist das Ziel klar geht es darum, die dafür notwendigen Teilprojekte zu definieren und zu beschreiben. Um die Teilprojekte sinnvoll zu priorisieren, werden die benötigten internen und externen Ressourcen sowie die möglichen Projektrisiken abgeschätzt. Mit den zuvor gewonnenen Informationen aus der Bestandsaufnahme wird zudem das Nutzen- und Geschäftspotenzial der einzelnen Digitalisierungs-Teilprojekte hochgerechnet. Damit ist die Berechnung von Business Cases der geplanten Projekte möglich.

    Projektteam und Management sind so in der Lage, über die Teilprojekte und ihre Priorisierung nach objektiven Kosten-/Nutzenkriterien, Ressourcenverfügbarkeit und anderen unternehmens-spezifischen Parametern zu entscheiden. So werden die heutigen Digitalisierungshäppchen zu definierten, bewerteten Teilprojekten innerhalb eines übergreifenden Kontexts.
  4. Wie sieht der Business Case aus?
    Der hohe Konkretisierungsgrad der Digitalisierungsaktivitäten, speziell des aussagekräftigen Business Cases, schafft eine wesentliche Voraussetzung für eine belastbare Finanzierung der Digitalisierungsprojekte. So bieten zum Beispiel spezielle IT-Projektfinanzierer ein flexibles Aufstockungsleasing an, das die Leasingraten an den zu erwartenden Nutzenaufwuchs anpasst. Oder auch die Finanzierung der internen Personalressourcen. Mit solchen Finanzierungsmodellen gelingt die Digitalisierung dann sogar ohne Einschränkungen der Liquidität.

Fazit

In der Vergangenheit wurden häufig nur einzelne Vorhaben gestartet. Aktuell nutzen jedoch immer mehr unserer Kunden die Vorteile der strategischen Planung mit Digitalisierungsroadmaps. Sie bieten mit wenig Aufwand eine verlässliche Orientierung für die Digitale Transformation mit einem klaren Zielbild, konkretem Business Case und alternativen Finanzierungsmöglichkeiten.

Was ist Material Data Management?

Wenn mich jemand etwas zu Material Data Management fragt, antworte ich immer erst mit der Gegenfrage, was mit „Material“ genau gemeint ist. Das ist vielleicht nicht die Antwort, die mein Gegenüber in diesem Moment erwartet, erspart uns beiden aber lange Minuten der Verwirrung und des aneinander Vorbeiredens. Der Grund: Material ist nicht gleich Material.

Zur Mehrdeutigkeit der Sprache

Als Franzose in Deutschland bin ich daran gewöhnt, dass Doppeldeutigkeit zu Missverständnissen führt. Manche Ausdrücke lassen sich von einer Sprache in die andere nicht eins zu eins übersetzen – zumindest nicht so, dass jedem auf Anhieb klar wird, was gemeint ist. Ein allgemein bekanntes Beispiel ist das Wort „Gemütlichkeit“. Den Begriff gibt es nur auf Deutsch. Tückischer sind aber die sogenannten falschen Freunde: Wortpaare wie „gift“ im Englischen und „Gift“ auf Deutsch. Sehen gleich aus, die Bedeutung unterscheidet sich aber grundlegend. Auch als erfahrener Polyglott ist man nicht davor geschützt. So können zum Beispiel meine französischen Gesprächspartner irritiert wirken, wenn ich sage, etwas hätte mich „irrité“ und damit meine, etwas hätte mich überrascht. Sie verstehen darunter jedoch, ich hätte vor lauter Verdruss irgendeinen Hautausschlag bekommen.

Was im Alltag zu lustigen und sogar mitunter leicht peinlichen Situationen führen kann, sorgt in der Arbeitswelt oft für Ineffizienz. Um Beispiele zu finden, müssen wir nicht mal im internationalen Kontext suchen: Auch innerhalb einer deutschsprachigen Organisation sprechen nicht unbedingt alle die gleiche Sprache. Schuld daran ist nicht die starke Ausprägung der Dialekte vielerorts, sondern die disziplinäre Ausprägung der Sprache: Personen mit unterschiedlicher Qualifikation beziehungsweise Expertise können unter demselben Wort unterschiedliche Dinge verstehen.

Und das bringt mich zu dem Thema dieses Beitrags. Genauer gesagt zum mehrsprachigen Geflecht und der interdisziplinären Mehrdeutigkeit des Worts „Material“, dessen galaktische Verwirrung rund um die Begrifflichkeit ich gerne auflösen möchte.

Material ist nicht gleich Material

In Unternehmenssoftware geht es viel um die Verwaltung von Materialien (Materials im Englischen) und deren Daten. Es gibt dafür tolle Lösungen. Sie heißen Materials Management oder Materials Data Management oder sogar Master Material Data Management. Die Bezeichnungen klingen sehr ähnlich und werden in der Praxis oft synonym verwendet. Dabei verweisen sie auf völlig verschiedene Dinge. Frei nach dem Motto „Material ist gleich Material“ wird übersehen, dass das Wort für unterschiedliche Disziplinen eine unterschiedliche Bedeutung haben kann und Sachen in einen Topf geschmissen werden, die wenig miteinander zu tun haben. Verwechslungen und Missverständnisse sind so vorprogrammiert.

Unterschiede innerhalb der Disziplinen

In der Produktionslogistik bzw. der Materialbedarfsplanung ist ein Material eine logistische Einheit, das heißt eine Ressource, die für irgendeinen wertschöpfenden Prozess benötigt wird. Waren, die man kaufen kann, wie zum Beispiel eine Schraube, ein Flansch, eine Spindel, ein Reifen und so weiter. Die Kunst, Materialien sinnvoll zu beschaffen, zu bewegen und zu lagern, wird im Deutschen als Materialwirtschaft und im Englischen als Materials Management benannt. 

Im Kontext der Produktentwicklung spielen Materialien in diesem Sinne keine Rolle. Die Entwicklung interessiert sich nicht für die Schaube und wo sie gelagert wird, sondern nur für ihre Beschreibung. Um es in der Sprache der Informationstechnik zu verdeutlichen: Die Entwicklung definiert Klassen, die Produktionslogistik verwaltet Instanzen dieser Klassen. Jedoch tritt das Konzept von Material auch hier wieder auf, denn im Sprachgebrauch werden Artikel, Teile und Baugruppen gerne als Materialien benannt. Der Grund dafür ist, dass sie an der Schnittstelle zwischen PLM und ERP zu Materialien im Sinne der Produktionslogistik werden. Hieraus entstehen irreführende Bezeichnungen wie Material Management oder Material Data Management. Richtiger wäre es hierbei, von Master Data Management im Sinne einer Teilestammverwaltung zu sprechen.

Im Engineering (inklusive Simulation) ist das Wort Material das Synonym für Werkstoff. Das ist naheliegend, ist die englische Übersetzung von Werkstoff doch Material und beschreibt hier die physische Komposition eines Objektes im Sinne der Materialwissenschaft beziehungsweise der Werkstofftechnik: Also, ob ein Objekt zum Beispiel aus Holz, PA66, Inconel oder GFK gefertigt wird. Die Verwaltung aller Informationen rund um Werkstoffe und ihrer Eigenschaften wird Werkstoffdatenmanagement (im Englischen Material Data Management) genannt. Verwirrenderweise steht das Akronym MDM auch für Master Data Management, was zur Schärfung der Begriffe nicht besonders zuträglich ist.

Unterschiedliche Disziplinen, unterschiedliche Bedeutungen des Wortes Material

Fazit

Die Verwirrung ist also groß. Abhilfe schaffen PLM-Lösungen, die auf die jeweiligen Disziplinen zugeschnitten sind. Sie bedienen die unterschiedlichen Anforderungen optimal und sorgen so insgesamt für bessere Zusammenarbeit. Mit einem Master Data Management als Kern-PDM-Funktion lassen sich alle Teilestammdatensätze konsistent halten und effizient verwalten. Ein modernes Material Data Management speichert alle Informationen zu Werkstoffen und dient als Referenz für den gesamten Produktentwicklungsprozess. Material Compliance unterstützt dabei, die qualitätsgeprüfte Lieferung regulierter Werkstoffe und Vorprodukte zu dokumentieren und stellt sicher, dass nur zugelassene Stoffe verarbeitet werden. Mit Schnittstellen zu ERP-Systemen machen digitale Materialien (im Sinne der Entwicklung) dann auch problemlos den Schritt in die physische Welt und werden zu Materialien im Sinne der Produktionslogistik.

Groß, größer, gigantisch. Die Folgen der Riesenmodelle in der KI

Die Entwicklung der Sprachmodelle im Bereich NLP (Natural Language Processing) hat vor allem seit 2019 zu gewaltigen Sprüngen in der Genauigkeit dieser Modelle für bestimmte Aufgaben geführt, aber auch in der Anzahl und dem Umfang der Fähigkeiten an sich. Als Beispiel seien die mit viel Medienrummel von OpenAI veröffentlichen Sprachmodelle GPT-2 und GPT-3 genannt, die mittlerweile für den kommerziellen Einsatz verfügbar sind und sowohl in Art, Umfang  und Genauigkeit erstaunliche Fähigkeiten haben, auf die ich in einem anderen Blog-Post eingehen möchte. Dies wurde im Fall von GPT-3 durch Training mittels eines Modells mit 750 Milliarden Parametern auf einem Datensatz von 570 GB erreicht. Das sind Werte, die einem die Sprache verschlagen.

Je größer die Modelle, je höher die Kosten

Gigantisch sind aber auch die Kosten, die das Training dieser Modelle verschlingt: Setzt man nur die angegebenen Compute-Kosten 1 für einen kompletten Trainingslauf an, kommt man auf eine Größenordnung von 10 Millionen USD für das Training von GPT-3 2, 3. Hinzu kommen weitere Kosten für Vorversuche, Storage, Commodity-Kosten für die Bereitstellung etc., die in ähnlicher Größenordnung liegen dürften. In den vergangenen Jahren hat sich der Trend, immer größere Modelle zu bauen, verstetigt und jedes Jahr kommt ungefähr eine Größenordnung hinzu, d.h. die Modelle sind 10x größer als im Jahr davor.

Größe von NLP-Modellen von 2018-2022. Die Parametergrößen sind logarithmisch aufgetragen in Einheiten von Milliarden. Die rote Linie stellt das mittlere Wachstum dar:  ca. 10-20 mal größere Modelle pro Jahr 2.

Das nächste Modell von OpenAI GPT-4 soll ca. 100 Billionen Parameter haben (100 x 1012 ). Zum Vergleich: Das menschliche Gehirn hat ungefähr 100 Milliarden Neuronen (100 x 109) also 1000 mal weniger. Die theoretische Grundlage für diesen Gigantismus liefern Studien, die ein klares Skalenverhalten zwischen Größe des Modells und Performance belegen 4. Danach sinkt der sogenannte Verlust – ein Maß für die Fehlerhaftigkeit der Vorhersagen der Modelle – um 1, wenn das Modell 10mal größer wird. Das funktioniert aber nur wenn Rechenleistung und Trainingsmenge ebenfalls nach oben skaliert werden.

Neben den ungeheuren Mengen Energie, die das Berechnen dieser Modelle verschlingt und dem damit einhergehenden CO2-Footprint, der ein Besorgnis erregendes Ausmaß annimmt, ergeben sich direkte wirtschaftliche Folgen: Offenbar können nicht nur kleinere Unternehmen die Kosten für das Training solcher Modelle nicht stemmen, auch größere Konzerne dürften vor Kosten von 10 Mio. USD bzw. in Zukunft 100 Mio. USD oder mehr zurückschrecken. Ganz abgesehen von der notwendigen Infrastruktur und Personalausstattung für ein solches Unterfangen.

Monopolstellung der großen Player

Das hat direkte Auswirkungen auf die Verfügbarkeit: Während die kleineren Modelle bis Ende 2019 mittlerweile Open Source sind und über spezialisierte Provider frei zugreifbar, gilt das für die großen Modelle ab ca. Ende 2020 (dem Auftauchen von GPT-2) nicht mehr. OpenAI bietet zum Beispiel eine kommerzialisierte API für den Zugriff an und erteilt nur durch einen Genehmigungsprozess einen Zugang. Das ist einerseits für die Entwicklung von Applikationen mit diesen NLP-Modellen bequem, da die Arbeit des Hostings und der Administration entfällt, andererseits ist die Eintrittsbarriere für Wettbewerber in diesen Markt so steil, dass im Wesentlichen die super-großen KI-Firmen dort teilnehmen: Google mit OpenAI, Microsoft mit Deepmind und Alibaba.

Die Konsequenzen dieser Monopolstellungen der führenden KI-Unternehmen sind wie bei jedem Monopol alternativlose Preismodelle und starre Geschäftspraktiken. Die Fähigkeiten der jetzigen Large Language Models wie GPT-3 und Megatron Turing NLG sind allerdings schon so beeindruckend, dass abzusehen ist, dass wahrscheinlich in 10 Jahren jedes Unternehmen für die unterschiedlichsten Anwendungen Zugriff auf die dann aktuellen Modelle braucht. Ein weiteres Problem ist, dass die Herkunft der Modelle aus dem amerikanischen oder chinesischen Raum einen großen Bias in die Modelle bringt, der sich einerseits klarerweise darin ausdrückt, dass Englisch oder Chinesisch die Sprache ist, mit der die Modelle am Besten funktionieren. Andererseits bringen die Trainingsdatensätze, die aus diesen Kulturbereichen stammen, eben kulturellen Tendenzen aus diesen Räumen mit, so dass abzusehen ist, dass andere Regionen der Welt unterrepräsentiert sind und weiter ins Hintertreffen geraten.

Was kann man tun?

Ich glaube es ist wichtig, die Entwicklung sorgfältig im Auge zu behalten und die Entwicklung von KI im europäischen Raum aktiver zu gestalten. Es ist jedenfalls eine größere Anstrengung notwendig, um langfristig eine Abhängigkeit von monopolisierten KI-Providern zu vermeiden. Denkbar ist vielleicht die Einbindung von nationalen Rechenzentren oder Forschungsverbünden, die vereint mit Unternehmen eigene Modelle trainieren und kommerzialisieren und ein Gegengewicht zu amerikanischen oder chinesischen Unternehmen bilden. Die nächsten 10 Jahre werden hier entscheidend sein.

1 s. hier in Abschnitt D sowie Compute-Kosten per GPU z.B. auf Google Cloud ca. 1USD/hour für eine NVIDIA V100
2 Rechenansatz: V100 = 7 TFLOPs = 7 10^12 / s, 3.14 10^23 Flops => 3.14 10^23/7×10^12 / 3600 = 10^7 Stunden = 10 Mio USD, Details der Rechnung sowie Recherche der Parameter hier.
3 s. auch hier zum Vergleich Grafik mit älteren Daten.
4 s. arxiv und Deepmind