Visuelle Programmierung mit No-Code-Lösungen für den Digital Twin

In der heutigen datengetriebenen Welt sind Digitale Zwillinge unverzichtbar, um Prozesse zu optimieren und die Effizienz zu steigern. Dennoch ist der Einstieg für viele Unternehmen oft nicht leicht, insbesondere wenn spezialisierte Ressourcen fehlen. Hier kommt Power Apps ins Spiel: Ein rein visuelles Entwicklungstool für die Erstellung von Digital Twin-Anwendungen, das keine tiefgehenden Programmierkenntnisse erfordert.

Power Apps als einfache und effektive Basis

Power Apps basiert auf der JavaScript-Bibliothek Blockly, die eine visuelle Programmieroberfläche bereitstellt. Nutzer*innen können mit grafischen Blöcken Programmierkonzepte wie Variablen, Schleifen oder logische Ausdrücke umsetzen – ohne zu Coden. Diese intuitive Herangehensweise ermöglicht es, Digitale Zwillinge mit wenigen Klicks zu erstellen.

CONTACT Elements: Die Plattform für digitale Zwillinge

Power Apps ist Bestandteil der CONTACT Elements-Plattform , die alle Daten und Prozesse von der ersten Idee bis zum Recycling eines Produkts entlang des Digital Thread (digitaler Faden) durchgängig verbindet und die digitale Transformation beschleunigt. Nutzer*innen können Digitale Zwillinge von Produkten, Systemen oder Prozessen erstellen, verwalten und optimieren – individuell und ohne aufwendige Backend-Programmierung.

Einfache Integration von Simulationen, Datenanalysen oder KI

Mit Power Apps lassen sich automatisierte Schnittstellen zu bestehenden Systemen und Datenquellen schneller umsetzen, was den Datenfluss zum Digitalen Zwilling deutlich erleichtert. Python Skripte ergänzen dabei komplexere Algorithmen für Simulationen oder maschinelles Lernen (ML). Bibliotheken wie TensorFlow oder Pandas ermöglichen Zustände von Maschinen und Anlagen präzise vorherzusagen. Simulationen bieten darauf aufbauend eine gezielte Analyse verschiedener Szenarien sowie deren Auswirkungen auf Systeme.

Ergebnisse wie KPIs oder Zeitreihen lassen sich in der Elements-Plattform in Geschäftsprozesse einbinden – ideal für Unternehmen aus der Fertigungs-, Gesundheits- oder Energiebranche, die auf genaue Prognosen angewiesen sind.

Anwendungen flexibel anpassen

Die intuitive Benutzeroberfläche von Power Apps erlaubt es, mit nur wenigen Klicks maßgeschneiderte Anwendungen zu entwickeln und an spezifische Anforderungen anzupassen. Daten aus Dokumenten, Sensoren oder Simulationen können verarbeitet, berechnet und direkt im Dashboard des digitalen Zwillings visualisiert werden.

Keine IT-Hürden und komplexe Freigaben mehr

Power Apps benötigt keine komplexen IT-Tools oder Freigabeprozesse. Nutzer*innen können Anwendungen direkt auf der CONTACT Elements-Plattform erstellen, anpassen und freigeben. Dadurch können sie schnell auf neue Anforderungen reagieren.

Fazit

Die visuelle Programmierung mit innovativen Lösungen wie Power Apps auf der CONTACT Elements-Plattform erleichtert es, Anwendungen für digitale Zwillinge zu erstellen und zu automatisieren. Ohne aufwendige IT-Infrastruktur werden digitale Zwillinge so für Unternehmen jeder Größe zugänglich.

Vorteile auf einen Blick:

  • Schnelle Entwicklung: Iterative Anpassungen und User-Feedback in Echtzeit.
  • Optimierung durch Simulation: Erkenntnisse aus Analysen direkt in Modelle einfließen lassen.
  • Integration in Geschäftsprozesse: Ergebnisse nahtlos in Workflows oder Servicefälle einbinden.

Mit der einfachen und flexiblen Erstellung digitaler Zwillinge eröffnen sich Unternehmen neue Möglichkeiten, Effizienz zu steigern und Innovationen voranzutreiben.

Digitale Echtheit: So erkennen Sie KI-generierte Inhalte

Im digitalen Zeitalter stellt sich oft die Frage, ob wir Bildern, Videos oder Texten vertrauen können. Die Quelle einer Information herauszufinden, wird immer schwieriger. Generative KI beschleunigt die Möglichkeiten solche Inhalte zu erstellen enorm. Wo früher ein Künstler nötig war, können nun KI-Modelle in Sekundenschnelle Bilder und Audiodateien erzeugen. Modelle wie Sora von OpenAI erzeugen sogar Videos in hoher Qualität!

Diese Technologie bietet Chancen, aber auch Risiken. Einerseits beschleunigt sie kreative Prozesse, andererseits kann sie auch missbraucht werden, um zum Beispiel Phishing-Angriffe durchzuführen oder Deepfakes mit täuschend echt wirkenden Videos zu erstellen. Wie können wir also sicherstellen, dass online geteilte Informationen echt sind?

Digitale Wasserzeichen: unsichtbarer Schutz für Inhalte

Digitale Wasserzeichen sind eine Möglichkeit, die Herkunft von Bildern, Videos oder Audiodaten zu sichern. Diese für das menschliche Auge unsichtbaren Muster sind selbst nach geringfügigen Veränderungen, wie dem Komprimieren oder Beschneiden eines Bildes, durch Algorithmen wiederzuerkennen und lassen sich nur schwer entfernen. Sie kommen vor allem beim Schutz von Urheberrechten zum Einsatz.

Jedoch sind Wasserzeichen in Texten wesentlich schwieriger umzusetzen, da diese unter anderem weniger redundant sind als die Pixel in Bildern. Ein mit dem Wasserzeichen verwandter Ansatz ist es, kleine, aber sichtbare Fehler im Originalinhalt einzufügen. Diese Methode nutzt unter anderem Google Maps mit erfundenen Straßen: Tauchen diese auch in einer Kopie auf, lassen sich so Urheberrechtsverletzungen nachweisen.

Digitale Signaturen: Sicherheit durch Kryptografie

Digitale Signaturen basieren auf asymmetrischer Kryptografie. Das bedeutet, dass der Inhalt eines Werkes mit einem privaten Schlüssel signiert wird, den nur die Person besitzt, die ihn erstellt hat. Jeder andere kann dann mit dem öffentlichen Schlüssel die Echtheit des Inhalts bestätigen. Schon kleinste Änderungen am Inhalt machen die Signatur ungültig, wodurch Fälschungen praktisch unmöglich sind. Digitale Signaturen sorgen bereits in der Online-Kommunikation für Transparenz, etwa durch das https-Protokoll beim Surfen im Internet.

In einer Welt, in der alle digitalen Inhalte durch Signaturen geschützt wären, ließe sich von einem zugesendeten Artikel sofort die Herkunft und die Echtheit überprüfen sowie Absenderin und Quelle der Nachricht zurückverfolgen. So zum Beispiel bei einem Foto, wer es wo und wann aufgenommen hat. Eine Initiative, die dies vorantreibt, ist die Coalition for Content Provenance and Authenticity (C2PA). Sie arbeitet an technischen Standards, um digitale Signaturen auf Medieninhalte anzuwenden und deren Ursprung zu dokumentieren. Im Gegensatz zu Wasserzeichen sind Signaturen nicht fest im Inhalt integriert und können entfernt werden, ohne dabei das Material zu verändern. In einer idealen Vorstellung würde jeder digitale Signaturen verwenden – fehlende Signaturen würden dann Zweifel an der Vertrauenswürdigkeit des Inhalts wecken.

GenAI-Detektoren: KI gegen KI

GenAI-Detektoren sind eine weitere Option, generierte Inhalte zu erkennen. KI-Modelle sind Algorithmen, die bestimmte Muster hinterlassen. Andere KI-Modelle können diese wiederum erkennen. Solche Muster sind zum Beispiel bestimmte Formulierungen oder Satzstrukturen. Tools wie GPTZero erkennen bereits mit hoher Genauigkeit, ob ein Text von einem generativen KI-Modell wie ChatGPT oder Gemini stammt. Diese Detektoren sind zwar noch nicht perfekt, bieten aber eine erste Orientierung.

Was bedeutet das für Nutzer*innen?

Digitale Signaturen bieten unter allen Optionen den stärksten Schutz, da sie für alle Inhalte verwendbar sind und auf kryptografischen Methoden basieren. Ich bin gespannt, ob mit Projekten wie der C2PA vertrauenswürdige Standards etabliert werden können. Dennoch sind je nach Zweck verschiedene Maßnahmen nötig, um die Vertrauenswürdigkeit digitaler Inhalte zu gewährleisten. Neben den technologischen Lösungen bleibt kritisches Denken immer noch eine der besten Methoden, um im Informationszeitalter sicher zu navigieren. Die Menge an verfügbaren Informationen wächst ständig – daher ist es wichtig, Informationen kritisch zu hinterfragen, zu überprüfen und sich den Fähigkeiten von generativen KI-Modellen bewusst zu sein.

Einen umfangreicheren Beitrag zum Thema finden Sie auch hier auf dem CONTACT Research Blog.

Sind Data Science Plattformen eine gute Idee?

Frei nach Karl Valentin gilt: Plattformen sind schön und schaffen einem jede Menge Arbeit vom Hals. Da kommt die Idee von Plattformen für die automatische Datenanalyse gerade recht. Passend dazu hat Gartner nun einen „Magic Quadrant for Data Science and Machine Learning Platforms“ veröffentlicht. Das Dokument selbst ist nur hinter einer Paywall einsehbar, aber im Netz bieten einige der im Report erwähnten Unternehmen den Zugriff auf das Dokument gegen Angabe der eigenen Adresse an.

Besonders hebt Gartner hervor, dass so eine Plattform alles was man braucht, aus einem Guss bereitstellen sollte; im Unterschied also zu diversen einzelnen Bausteinen, die nicht unmittelbar aufeinander abgestimmt sind.

Hört sich gut an! Allerdings: Data Science ist kein Bereich, in dem man mit einem Tool oder selbst  einer Plattform wie von Zauberhand weiterkommt. Die Entwicklung von Lösungen – etwa für Predictive Maintenance der Maschinen, die ein Unternehmen anbietet – durchläuft verschiedene Phasen, wobei Cleansing/Wrangling und Preprocessing den größten Teil der Arbeit ausmachen. In diesem Bereich sind ETL(Extract, Transform, Load )- und Visualisierungstools wie Tableau einzuordnen. Und jenseits der gedachten Komfortzone von Plattformen, die sich Manager so vorstellen, sind Datenbankabfragen und Skripte für die Transformation und Aggregation etwa in Python oder R schlicht das Mittel der Wahl. Ein Blick auf Data Science Online-Tutorials der top-Anbieter wie Coursera unterstreicht die Bedeutung dieser – nun ja – bodenständigen Werkzeuge. „Statistical analysis, Python programming with NumPy, pandas, matplotlib, and Seaborn, Advanced statistical analysis, Tableau, Machine Learning with stats models and scikit-learn, Deep learning with TensorFlow“ lautet ein Kursprogramm von Udemy.

Hinzu kommt: Oft bleiben die Projekte in diesem Vorfeld stecken oder werden abgebrochen. Das hat viele Gründe:

  • man findet keinen analytischen/statistischen Ansatz
  • die ursprüngliche Idee erweist sich als nicht durchführbar
  • die Daten sind nicht in der Menge oder Qualität, die man braucht, vorhanden
  • einfache Analysen und Visualisierungen reichen schon aus und alles weiter wäre „oversized“

Das ist nicht schlimm, bedeutet es doch nur, dass der automatisierte Einsatz von Machine Learning und KI nicht aus jedem Datensatz gleich einen Datenschatz macht. Zeichnet sich allerdings der produktive Nutzen ab, gilt es, sich für die Production-Pipeline und Zeit- oder Ressourcen-Constraints  zu rüsten. Meist fängt man dafür neu an und bildet alles nochmals z.B. in Tensorflow für Neuronale Netzwerke oder in Custom-Libraries ab.

Das Missverständnis ist, dass man a) ansatzlos Data Science bis zum produktiven Einsatz treiben kann und b) einen one-stop-shop for Data Science (hier „Plattform“) sucht, der alles in einem Aufwasch macht. Das wird es nie geben.

Das ist tatsächlich auch eine gute Nachricht, bedeutet es doch, dass Organisationen – ohne gleich zu großen Plattformen greifen zu müssen – ihre ersten Ziele erreichen können. Die einigermaßen sorgfältige Auswahl passender Werkzeuge (viele davon Open Source) hilft dabei.

Auch interessant:
In meinem Video „KI braucht Strategie“ erläutere ich, welche Schritte Unternehmen konkret gehen können, um KI-Technologie zielführend einzusetzen.