Die Verwaltungsschale als Katalysator der Industrie 4.0

„Land der Dichter und Denker“ oder „Land der Ideen“: Deutschland ist sichtlich stolz auf seine Schriftsteller:innen, Wissenschaftler:innen und Ingenieur:innen. Und auf seine akribische Bürokratie, die auf absolute Präzision einer Aussage oder Angabe abzielt. In Kombination entstehen daraus bei der Benennung technischer Begriffe oft ungelenke Wortschöpfungen. Aktuelles Beispiel hierfür ist die „Verwaltungsschale“, deren innovatives Potenzial und zentrale Bedeutung für die Industrie 4.0 sich so nicht direkt erschließen lassen.

Was genau ist eine Verwaltungsschale?

Bei der Verwaltungsschale (VWS) handelt es sich nicht um eine verstaubte Verwaltungsbehörde, sondern um die sehr deutsche Übersetzung des englischen Begriffs „Asset Administration Shell“ (AAS). Die AAS ist eine standardisierte, vollständige digitale Beschreibung eines Assets. Ein Asset ist im Grunde alles, was sich als Teil einer Industrie 4.0-Lösung anschließen lässt (zum Beispiel Anlagen, Maschinen, Produkte sowie deren einzelne Komponenten). Die AAS enthält sämtliche Informationen und ermöglicht in einer vernetzten Industrie den Austausch und die Interaktion zwischen unterschiedlichen Assets, Systemen und Organisationen. Sie ist damit also so ziemlich das Gegenteil einer trägen Behörde und aktuell das Schlagwort in der digitalen Transformation.

Wie bei vielen neuen Themen gehen auch bei der Verwaltungsschale die Definitionen auseinander und sind recht weit gefasst. Von sehr konkret, wie der VWS als Umsetzung des Digitalen Zwillings für Industrie 4.0, bis hin zur lockeren Beschreibung der VWS als Datenstecker oder Integrationsstecker für digitale Ökosysteme.

Ich bevorzuge die Darstellung der Verwaltungsschale als ein Metamodel zur Selbstbeschreibung eines Assets. Mit diesem Metamodell können dann weitere Modelle erzeugt werden, um Informationen gesammelt bereitzustellen. Durch den Einsatz von Software werden diese Modelle dann zum „Leben erweckt“ und über Schnittstellen anderen zur Verfügung gestellt.

Konzept und Anwendung der Verwaltungsschale

Als digitales Abbild eines Assets stellt die Verwaltungsschale durch seine Teil- bzw. Submodelle Informationen oder Funktionen zu einem bestimmten Kontext bereit. Beispiele hierfür sind unter anderem digitale Typenschilder, technische Dokumente, die Komponenten- beziehungsweise Asset-Struktur, Simulationsmodelle, Zeitreihendaten oder auch nachhaltigkeitsrelevante Informationen wie der CO2-Fußabruck. Die Informationen entstehen entlang der verschiedenen Phasen des Lebenszyklus und es hängt vom konkreten Wertschöpfungsnetzwerk ab, welche Informationen zu einem Asset von Bedeutung sind. So werden Submodelle in bestimmten Lebenszyklusphasen initial erstellt, in darauffolgenden Phasen konkretisiert und ausgeprägt und im weiteren Verlauf um Informationen angereichert oder aktualisiert. Dabei bezieht sich die Verwaltungsschale mal auf eine sehr generische (Typ) oder eine sehr konkrete (Instanz) Darstellung eines Assets.

So wie sich Assets über die Zeit verändern (as-defined, as-designed, as-ordered, as-built, as-maintained), verändert sich auch die Verwaltungsschale. Damit können für ein und dasselbe Asset im Verlauf des Lebenszyklus mehrerer Verwaltungsschalen existieren. Um die Informationen in der Verwaltungsschale im Rahmen seines Wertschöpfungsnetzes zu nutzen, müssen diese zugänglich sein. Der Zugriff erfolgt meist über das Internet beziehungsweise über die Cloud (Repository-gehaltene VWS). Bei intelligenten Systemen kann die Verwaltungsschale auch Teil des Assets selbst sein (Asset-gehaltene VWS).

Der Informationsaustausch erfolgt dabei auf verschiedenen Wegen. Entweder über Dateien, sogenannte AASX-Files (VWS Typ 1), über eine Server-Client-Interaktion wie zum Beispiel via RestAPI (VWS Typ 2) oder mittels Peer-to-Peer-Interaktion (VWS Typ 3), bei der die Verwaltungsschalen unter Anwendung der sogenannten I4.0-Sprache eigenständig Kontakt zueinander aufbauen und kooperativ Aufgaben durchführen.

Während Typ 1 und 2 eine passive Rolle im Wertschöpfungsnetzwerk einnehmen und eher bei Repository-gehaltenen VWS im Einsatz sind, beschreibt Typ 3 eine aktive Teilnahme im Wertschöpfungsnetzwerk und wird eher bei Asset-gehaltene VWS mit intelligenten Produkten eingesetzt.

Gemeinsame Standards verbinden!

Für welche Art der Verwaltungsschale man sich auch entscheidet: Wichtig ist, dass Empfänger und Bereitsteller dieselbe Sprache sprechen. Dafür muss der Austausch konkreter Informationsinhalte standardisiert sein. In Anbetracht der Menge an unterschiedlichen Branchen, Szenarien, Assets und Funktionen sind das immens viele Teilmodelle, die es zu standardisieren gilt. Organisationen und Vereine wie die Industrial Digital Twin Association (IDTA), bestehend aus Forschungsinstituten, Industrieunternehmen und Software-Anbietern, nehmen sich dieser Mammutaufgabe an. Die rasant wachsenden Mitgliederzahlen sowie der rege Austausch auf Messen und Fachtagungen untereinander verdeutlichen den hohen Stellenwert für die Industrie. Hierbei gilt es klein- und mittelständige Unternehmen nicht abzuhängen, sondern bestmöglich in die Standardisierungsarbeit mit einzubinden.

Fazit

Die Verwaltungsschale ist zentraler Dreh- und Angelpunkt für erfolgreiche Industrie 4.0-Szenarien. Sie ermöglicht herstellerunabhängige Interoperabilität und vereinfacht die Integration aller Arten von Assets zu einem kollaborativen Wertschöpfungsnetzwerk. Sie steigert durch eine lückenlose Transparenz des Echtzeit-Zustands jedes Assets die Effizienz innerhalb der Produktionsprozesse. Und sie bietet darüber hinaus ein umfassendes Sicherheitskonzept zum Schutz der Daten. Innerhalb kürzester Zeit hat sich die Verwaltungsschale damit von einem theoretischen Konstrukt zu einer realen Anwendung in der Praxis gewandelt. Gemeinsam mit Partnern aus Forschung und Industrie arbeiten wir als Mitglied der IDTA und im Rahmen der Forschungsprojekte ESCOM und Flex4Res daran, sie in der industriellen Breite nutzbar zu machen.

Mit dem Passwort zu mehr Cybersecurity

Heute ist wieder der “Ändere dein Passwort-Tag”. Eine gut gemeinte
Initiative für mehr IT-Sicherheit. Die ursprünglich aus dem militärischen Kontext der 1960er-Jahre stammende Empfehlung, das Passwort regelmäßig zu wechseln, findet sich auch heute noch in vielen Unternehmensrichtlinien wieder. Moderne Richtlinien wie das aktuelle BSI Grundschutzkompendium und die NIST Digital Identities Guidelines streichen diese Anforderung, denn es gibt effektivere Strategien, die Passwortsicherheit zu erhöhen:

Passwortlänge schlägt -komplexität

Zuallererst gilt: Ein starkes Passwort muss nur dann geändert werden, wenn es
den Verdacht gibt, dass es enthüllt wurde.

Angreifer können heute mit automatisierten Systemen Milliarden von Passwörtern innerhalb kürzester Zeit ausprobieren. Insbesondere wenn diese Systeme über das Netzwerk erreichbar sind oder Zugriff auf die Passwort Hashes haben und daher effektiv offline ausprobiert werden können. Die Komplexität des Passwortes ist daher vollkommen gleichgültig, wenn es zu kurz ist. Die Empfehlungen für die Länge schwankt zwischen 8 bis zu mindestens 14 Zeichen. Fortschritte bei Angriffswerkzeugen wie zum Beispiel Hashcat und durch schnellere, spezialisierte Hardware zum Passwortraten treiben diese Anforderungen immer weiter in die Höhe.

Compliance-Richtlinien verlangen heutzutage individualisierte Zugangsdaten. Damit entfällt die Gefahr, dass ein Passwort vielen Leuten bekannt ist und so auch die Notwendigkeit dieses regelmäßig zu ändern. Ein langes Passwort für genau eine Person für genau einen Dienst. Ziemlich sicher.

Passworte sind keine Wiederholteile

Hand aufs Herz, haben Sie nicht auch schon mal das identische oder ein sehr ähnliches Passwort für mehrere Dienste verwendet? Das sollten Sie sich schnell abgewöhnen, denn so führt ein erfolgreicher Angriff auf einen Dienst automatisch zu einem erfolgreichen Angriff auf weiteren. Vor allem die Verwendung bereits privat genutzter Passwörter im Unternehmensumfeld ist besonders kritisch.

Moderne Passwortrichtlinien stellen sicher, dass Passworte abgelehnt werden, die in Listen erbeuteter Passwörter vorkommen. Die Webseite haveibeenpwand zum Beispiel zeigt an, ob ein Passwort erbeutet wurde. Moderne Systeme bieten hier Schnittstellen, um Passworte dahingehend zu prüfen. In CONTACT Elements können Sie diese ganz einfach aktivieren:

from cdb.sig import connect
from cdb.authentication import check_pwned_password
connect(‘password_acceptable_hook’)(check_pwned_password)

Passwort-Manager statt Einheitsbrei

Passwortwiederholung ist schlecht, kurze Passwörter auch. Benutzer stehen vor der Herausforderung, sich eine große Anzahl langer Passwörter im Kopf zu merken. Auf einen Zettel schreiben und diesen unter der zu Tastatur verstecken oder an die Pinnwand zu kleben ist keine Lösung, da eine Kamera das Passwort abfilmen kann.

Besser ist es, einen Passwort-Manager zu verwenden. Dieser kann lange Passwörter erstellen, verwalten und erleichtert per Copy und Paste die Eingabe. Leider blockieren einige Unternehmen, getrieben von der Sorge, dass ein Trojaner die Passwörter in der Zwischenablage abfangen, die Copy und Paste-Methode in ihren Anwendungen und verhindern damit die Verwendung eines Passwort-Managers. Bei einem Trojaner-Befall ist diese Maßnahme jedoch meist wirkungslos und Unternehmen sollten die Benutzer anleiten, einen Passwort-Manager zu benutzen, um Ihre IT-Sicherheit zu erhöhen.

Vorsicht vor Wegelagerern und Trickbetrügern

Selbst das stärkste Passwort schützt nicht vor Angriffen, wenn es abgefangen wird. Das geht oft erstaunlich einfach. Verbindungen ohne ein Mindestmaß an Sicherheit wie Transport Layer Security (TLS) sind ein offenes Buch für jeden Angreifer. Auch ältere Netzwerkprotokolle wie Kerberos bieten zahlreiche Einfallstore. Ransomware nutzt diese aus, um sich im Firmennetz auszubreiten. Sobald sich ein Administrator auf einem befallenen Rechner anmeldet, hat der Angreifer die Zugangsdaten und kurz darauf sind goldene und silberne Tickets erstellt und die Windows-Domäne ist fest in der Hand des Angreifers. Auch hier steht und fällt die Sicherheit mit dem Passwort, da dieses in die Berechnung der Authentifizierungstickets eingeht und aufgrund der symmetrischen Verschlüsselung dem Angreifer ermöglicht, aus dem Ticket das Passwort zurückzurechnen.

Sicherheit durch mehrere Faktoren steigern

Eine Empfehlung, um die Schwächen von Passworten zu umgehen, ist es, weitere Faktoren einzubeziehen. Das funktioniert sehr gut aus der Perspektive der Sicherheit. Ein zweiter Faktor erhöht in praktisch jedem Fall die Sicherheit deutlich. Dabei ist es in den meisten Fällen zweitrangig, ob es sich um Einmalpassworte wie TANs per SMS, zeitbasierte Codes wie Definition Time-based One-time Password (TOTP) oder auch schlichte Bestätigungsemails mit Links handelt.

Die Schattenseite von zweiten Faktoren ist der zusätzliche Aufwand und die Auswirkungen auf die Usability. Helpdesk Prozesse werden komplizierter, Benutzer müssen geschult werden und Anmeldevorgänge passieren oft langsamer.

Single Sign-On – Fluch und Segen zugleich

Benutzer:innen lieben Single Sign-On (SSO), bei dem man nur einmalig ein Passwort und einen zweiten Faktor eingeben muss, um zahlreiche Dienste zu nutzen. Das minimiert den Aufwand enorm – allerdings auch für den Angreifer. Insbesondere, wenn der Zugang nur an einem schwachen Passwort hängt. Ein zentrales Login-System löst auch viele Probleme für Compliance, wenn Benutzer:innen gesperrt oder Reports erstellt werden. Auch die Kosten für Benutzerverwaltung reduzieren sich.

Single Sign-On stellt die oben angeführte Argumentation „Ein Passwort pro Dienst“ auf den Kopf. Wieder steht nur ein Passwort zwischen dem Angreifer und Ihrem System. Kennt der Angreifer das Passwort, so hat er Zugang. Und dann öffnet das Single Sign-On-System dem Angreifer alle Türen.

Phishing erkennen

Auch stärkere Verfahren wie TOTP oder Hardware-Keygeneratoren bieten keinen Schutz, wenn man Passwort und Zugangscode auf einer gefälschten Webseite eingibt. Diese Praxis ist bekannt unter dem Namen Phishing. Die Lösung dagegen lautet Kanal- oder Token-Binding und verknüpft (bindet) den gewünschten Zugang mit dem Kanal, über den der Zugang angefragt wird. Was bedeutet, dass ein Token nur für den Zugang zu Gerät A akzeptiert wird, nicht aber für Gerät B des Angreifers.

Diese Form der Mehrfaktorauthentifizierung ist sehr sicher und mit moderner Hardware oder Mobiltelefonen einfach zu verwenden. Für die Unternehmens-IT ist die Integration in gängige Plattformen dabei relevant. Windows Hello, Apple und Android unterstützen den von der FIDO Alliance spezifizierten FIDO2 / WebAuthn-Standard, um Phishing aufzudecken und Single Sign-On sicher zu machen.

Passworte sind überflüssig!?

Ausgehend vom WebAuthn-Standard gibt es seit 2022 mit Passkeys eine neue Initiative – getrieben von Apple, Microsoft und Google – um Passworte aus Anwendungen und Single Sign-On zu verbannen. Sie können Ihr Passwort bereits heute schon in einen Passkey ändern, wenn Ihr Gerät das unterstützt und 2024 den “Change your Password Day” dazu nutzen, Ihr Passwort zu löschen und nie wieder verwenden zu müssen.


Mehr zum Thema Cybersecurity

In unserem kostenlosen White Paper „IT Sicherheit für Unternehmen“ erfahren Sie alles zum Aufbau einer verlässlichen IT-Sicherheitsarchitektur zum Schutz vor Cyberattacken.

Groß, größer, gigantisch. Die Folgen der Riesenmodelle in der KI

Die Entwicklung der Sprachmodelle im Bereich NLP (Natural Language Processing) hat vor allem seit 2019 zu gewaltigen Sprüngen in der Genauigkeit dieser Modelle für bestimmte Aufgaben geführt, aber auch in der Anzahl und dem Umfang der Fähigkeiten an sich. Als Beispiel seien die mit viel Medienrummel von OpenAI veröffentlichen Sprachmodelle GPT-2 und GPT-3 genannt, die mittlerweile für den kommerziellen Einsatz verfügbar sind und sowohl in Art, Umfang  und Genauigkeit erstaunliche Fähigkeiten haben, auf die ich in einem anderen Blog-Post eingehen möchte. Dies wurde im Fall von GPT-3 durch Training mittels eines Modells mit 750 Milliarden Parametern auf einem Datensatz von 570 GB erreicht. Das sind Werte, die einem die Sprache verschlagen.

Je größer die Modelle, je höher die Kosten

Gigantisch sind aber auch die Kosten, die das Training dieser Modelle verschlingt: Setzt man nur die angegebenen Compute-Kosten 1 für einen kompletten Trainingslauf an, kommt man auf eine Größenordnung von 10 Millionen USD für das Training von GPT-3 2, 3. Hinzu kommen weitere Kosten für Vorversuche, Storage, Commodity-Kosten für die Bereitstellung etc., die in ähnlicher Größenordnung liegen dürften. In den vergangenen Jahren hat sich der Trend, immer größere Modelle zu bauen, verstetigt und jedes Jahr kommt ungefähr eine Größenordnung hinzu, d.h. die Modelle sind 10x größer als im Jahr davor.

Größe von NLP-Modellen von 2018-2022. Die Parametergrößen sind logarithmisch aufgetragen in Einheiten von Milliarden. Die rote Linie stellt das mittlere Wachstum dar:  ca. 10-20 mal größere Modelle pro Jahr 2.

Das nächste Modell von OpenAI GPT-4 soll ca. 100 Billionen Parameter haben (100 x 1012 ). Zum Vergleich: Das menschliche Gehirn hat ungefähr 100 Milliarden Neuronen (100 x 109) also 1000 mal weniger. Die theoretische Grundlage für diesen Gigantismus liefern Studien, die ein klares Skalenverhalten zwischen Größe des Modells und Performance belegen 4. Danach sinkt der sogenannte Verlust – ein Maß für die Fehlerhaftigkeit der Vorhersagen der Modelle – um 1, wenn das Modell 10mal größer wird. Das funktioniert aber nur wenn Rechenleistung und Trainingsmenge ebenfalls nach oben skaliert werden.

Neben den ungeheuren Mengen Energie, die das Berechnen dieser Modelle verschlingt und dem damit einhergehenden CO2-Footprint, der ein Besorgnis erregendes Ausmaß annimmt, ergeben sich direkte wirtschaftliche Folgen: Offenbar können nicht nur kleinere Unternehmen die Kosten für das Training solcher Modelle nicht stemmen, auch größere Konzerne dürften vor Kosten von 10 Mio. USD bzw. in Zukunft 100 Mio. USD oder mehr zurückschrecken. Ganz abgesehen von der notwendigen Infrastruktur und Personalausstattung für ein solches Unterfangen.

Monopolstellung der großen Player

Das hat direkte Auswirkungen auf die Verfügbarkeit: Während die kleineren Modelle bis Ende 2019 mittlerweile Open Source sind und über spezialisierte Provider frei zugreifbar, gilt das für die großen Modelle ab ca. Ende 2020 (dem Auftauchen von GPT-2) nicht mehr. OpenAI bietet zum Beispiel eine kommerzialisierte API für den Zugriff an und erteilt nur durch einen Genehmigungsprozess einen Zugang. Das ist einerseits für die Entwicklung von Applikationen mit diesen NLP-Modellen bequem, da die Arbeit des Hostings und der Administration entfällt, andererseits ist die Eintrittsbarriere für Wettbewerber in diesen Markt so steil, dass im Wesentlichen die super-großen KI-Firmen dort teilnehmen: Google mit OpenAI, Microsoft mit Deepmind und Alibaba.

Die Konsequenzen dieser Monopolstellungen der führenden KI-Unternehmen sind wie bei jedem Monopol alternativlose Preismodelle und starre Geschäftspraktiken. Die Fähigkeiten der jetzigen Large Language Models wie GPT-3 und Megatron Turing NLG sind allerdings schon so beeindruckend, dass abzusehen ist, dass wahrscheinlich in 10 Jahren jedes Unternehmen für die unterschiedlichsten Anwendungen Zugriff auf die dann aktuellen Modelle braucht. Ein weiteres Problem ist, dass die Herkunft der Modelle aus dem amerikanischen oder chinesischen Raum einen großen Bias in die Modelle bringt, der sich einerseits klarerweise darin ausdrückt, dass Englisch oder Chinesisch die Sprache ist, mit der die Modelle am Besten funktionieren. Andererseits bringen die Trainingsdatensätze, die aus diesen Kulturbereichen stammen, eben kulturellen Tendenzen aus diesen Räumen mit, so dass abzusehen ist, dass andere Regionen der Welt unterrepräsentiert sind und weiter ins Hintertreffen geraten.

Was kann man tun?

Ich glaube es ist wichtig, die Entwicklung sorgfältig im Auge zu behalten und die Entwicklung von KI im europäischen Raum aktiver zu gestalten. Es ist jedenfalls eine größere Anstrengung notwendig, um langfristig eine Abhängigkeit von monopolisierten KI-Providern zu vermeiden. Denkbar ist vielleicht die Einbindung von nationalen Rechenzentren oder Forschungsverbünden, die vereint mit Unternehmen eigene Modelle trainieren und kommerzialisieren und ein Gegengewicht zu amerikanischen oder chinesischen Unternehmen bilden. Die nächsten 10 Jahre werden hier entscheidend sein.

1 s. hier in Abschnitt D sowie Compute-Kosten per GPU z.B. auf Google Cloud ca. 1USD/hour für eine NVIDIA V100
2 Rechenansatz: V100 = 7 TFLOPs = 7 10^12 / s, 3.14 10^23 Flops => 3.14 10^23/7×10^12 / 3600 = 10^7 Stunden = 10 Mio USD, Details der Rechnung sowie Recherche der Parameter hier.
3 s. auch hier zum Vergleich Grafik mit älteren Daten.
4 s. arxiv und Deepmind