Digitale Echtheit: So erkennen Sie KI-generierte Inhalte

Im digitalen Zeitalter stellt sich oft die Frage, ob wir Bildern, Videos oder Texten vertrauen können. Die Quelle einer Information herauszufinden, wird immer schwieriger. Generative KI beschleunigt die Möglichkeiten solche Inhalte zu erstellen enorm. Wo früher ein Künstler nötig war, können nun KI-Modelle in Sekundenschnelle Bilder und Audiodateien erzeugen. Modelle wie Sora von OpenAI erzeugen sogar Videos in hoher Qualität!

Diese Technologie bietet Chancen, aber auch Risiken. Einerseits beschleunigt sie kreative Prozesse, andererseits kann sie auch missbraucht werden, um zum Beispiel Phishing-Angriffe durchzuführen oder Deepfakes mit täuschend echt wirkenden Videos zu erstellen. Wie können wir also sicherstellen, dass online geteilte Informationen echt sind?

Digitale Wasserzeichen: unsichtbarer Schutz für Inhalte

Digitale Wasserzeichen sind eine Möglichkeit, die Herkunft von Bildern, Videos oder Audiodaten zu sichern. Diese für das menschliche Auge unsichtbaren Muster sind selbst nach geringfügigen Veränderungen, wie dem Komprimieren oder Beschneiden eines Bildes, durch Algorithmen wiederzuerkennen und lassen sich nur schwer entfernen. Sie kommen vor allem beim Schutz von Urheberrechten zum Einsatz.

Jedoch sind Wasserzeichen in Texten wesentlich schwieriger umzusetzen, da diese unter anderem weniger redundant sind als die Pixel in Bildern. Ein mit dem Wasserzeichen verwandter Ansatz ist es, kleine, aber sichtbare Fehler im Originalinhalt einzufügen. Diese Methode nutzt unter anderem Google Maps mit erfundenen Straßen: Tauchen diese auch in einer Kopie auf, lassen sich so Urheberrechtsverletzungen nachweisen.

Digitale Signaturen: Sicherheit durch Kryptografie

Digitale Signaturen basieren auf asymmetrischer Kryptografie. Das bedeutet, dass der Inhalt eines Werkes mit einem privaten Schlüssel signiert wird, den nur die Person besitzt, die ihn erstellt hat. Jeder andere kann dann mit dem öffentlichen Schlüssel die Echtheit des Inhalts bestätigen. Schon kleinste Änderungen am Inhalt machen die Signatur ungültig, wodurch Fälschungen praktisch unmöglich sind. Digitale Signaturen sorgen bereits in der Online-Kommunikation für Transparenz, etwa durch das https-Protokoll beim Surfen im Internet.

In einer Welt, in der alle digitalen Inhalte durch Signaturen geschützt wären, ließe sich von einem zugesendeten Artikel sofort die Herkunft und die Echtheit überprüfen sowie Absenderin und Quelle der Nachricht zurückverfolgen. So zum Beispiel bei einem Foto, wer es wo und wann aufgenommen hat. Eine Initiative, die dies vorantreibt, ist die Coalition for Content Provenance and Authenticity (C2PA). Sie arbeitet an technischen Standards, um digitale Signaturen auf Medieninhalte anzuwenden und deren Ursprung zu dokumentieren. Im Gegensatz zu Wasserzeichen sind Signaturen nicht fest im Inhalt integriert und können entfernt werden, ohne dabei das Material zu verändern. In einer idealen Vorstellung würde jeder digitale Signaturen verwenden – fehlende Signaturen würden dann Zweifel an der Vertrauenswürdigkeit des Inhalts wecken.

GenAI-Detektoren: KI gegen KI

GenAI-Detektoren sind eine weitere Option, generierte Inhalte zu erkennen. KI-Modelle sind Algorithmen, die bestimmte Muster hinterlassen. Andere KI-Modelle können diese wiederum erkennen. Solche Muster sind zum Beispiel bestimmte Formulierungen oder Satzstrukturen. Tools wie GPTZero erkennen bereits mit hoher Genauigkeit, ob ein Text von einem generativen KI-Modell wie ChatGPT oder Gemini stammt. Diese Detektoren sind zwar noch nicht perfekt, bieten aber eine erste Orientierung.

Was bedeutet das für Nutzer*innen?

Digitale Signaturen bieten unter allen Optionen den stärksten Schutz, da sie für alle Inhalte verwendbar sind und auf kryptografischen Methoden basieren. Ich bin gespannt, ob mit Projekten wie der C2PA vertrauenswürdige Standards etabliert werden können. Dennoch sind je nach Zweck verschiedene Maßnahmen nötig, um die Vertrauenswürdigkeit digitaler Inhalte zu gewährleisten. Neben den technologischen Lösungen bleibt kritisches Denken immer noch eine der besten Methoden, um im Informationszeitalter sicher zu navigieren. Die Menge an verfügbaren Informationen wächst ständig – daher ist es wichtig, Informationen kritisch zu hinterfragen, zu überprüfen und sich den Fähigkeiten von generativen KI-Modellen bewusst zu sein.

Einen umfangreicheren Beitrag zum Thema finden Sie auch hier auf dem CONTACT Research Blog.

Sind Data Science Plattformen eine gute Idee?

Frei nach Karl Valentin gilt: Plattformen sind schön und schaffen einem jede Menge Arbeit vom Hals. Da kommt die Idee von Plattformen für die automatische Datenanalyse gerade recht. Passend dazu hat Gartner nun einen „Magic Quadrant for Data Science and Machine Learning Platforms“ veröffentlicht. Das Dokument selbst ist nur hinter einer Paywall einsehbar, aber im Netz bieten einige der im Report erwähnten Unternehmen den Zugriff auf das Dokument gegen Angabe der eigenen Adresse an.

Besonders hebt Gartner hervor, dass so eine Plattform alles was man braucht, aus einem Guss bereitstellen sollte; im Unterschied also zu diversen einzelnen Bausteinen, die nicht unmittelbar aufeinander abgestimmt sind.

Hört sich gut an! Allerdings: Data Science ist kein Bereich, in dem man mit einem Tool oder selbst  einer Plattform wie von Zauberhand weiterkommt. Die Entwicklung von Lösungen – etwa für Predictive Maintenance der Maschinen, die ein Unternehmen anbietet – durchläuft verschiedene Phasen, wobei Cleansing/Wrangling und Preprocessing den größten Teil der Arbeit ausmachen. In diesem Bereich sind ETL(Extract, Transform, Load )- und Visualisierungstools wie Tableau einzuordnen. Und jenseits der gedachten Komfortzone von Plattformen, die sich Manager so vorstellen, sind Datenbankabfragen und Skripte für die Transformation und Aggregation etwa in Python oder R schlicht das Mittel der Wahl. Ein Blick auf Data Science Online-Tutorials der top-Anbieter wie Coursera unterstreicht die Bedeutung dieser – nun ja – bodenständigen Werkzeuge. „Statistical analysis, Python programming with NumPy, pandas, matplotlib, and Seaborn, Advanced statistical analysis, Tableau, Machine Learning with stats models and scikit-learn, Deep learning with TensorFlow“ lautet ein Kursprogramm von Udemy.

Hinzu kommt: Oft bleiben die Projekte in diesem Vorfeld stecken oder werden abgebrochen. Das hat viele Gründe:

  • man findet keinen analytischen/statistischen Ansatz
  • die ursprüngliche Idee erweist sich als nicht durchführbar
  • die Daten sind nicht in der Menge oder Qualität, die man braucht, vorhanden
  • einfache Analysen und Visualisierungen reichen schon aus und alles weiter wäre „oversized“

Das ist nicht schlimm, bedeutet es doch nur, dass der automatisierte Einsatz von Machine Learning und KI nicht aus jedem Datensatz gleich einen Datenschatz macht. Zeichnet sich allerdings der produktive Nutzen ab, gilt es, sich für die Production-Pipeline und Zeit- oder Ressourcen-Constraints  zu rüsten. Meist fängt man dafür neu an und bildet alles nochmals z.B. in Tensorflow für Neuronale Netzwerke oder in Custom-Libraries ab.

Das Missverständnis ist, dass man a) ansatzlos Data Science bis zum produktiven Einsatz treiben kann und b) einen one-stop-shop for Data Science (hier „Plattform“) sucht, der alles in einem Aufwasch macht. Das wird es nie geben.

Das ist tatsächlich auch eine gute Nachricht, bedeutet es doch, dass Organisationen – ohne gleich zu großen Plattformen greifen zu müssen – ihre ersten Ziele erreichen können. Die einigermaßen sorgfältige Auswahl passender Werkzeuge (viele davon Open Source) hilft dabei.

Auch interessant:
In meinem Video „KI braucht Strategie“ erläutere ich, welche Schritte Unternehmen konkret gehen können, um KI-Technologie zielführend einzusetzen.

Die digitale Transformation transformiert auch PLM

Die Unternehmen der Automobilindustrie beschäftigen sich intensiv mit der digitalen Transformation, und dabei geht es nicht mehr nur um Industrie 4.0 und die intelligente Vernetzung der Fertigung, sondern um die Umgestaltung der Unternehmensprozesse und Geschäftsmodelle. Wie intensiv, das wurde auf dem diesjährigen ProSTEP iViP-Symposium in Stuttgart deutlich, an den über 660 Besucher aus 19 Ländern teilnahmen. Ein neuer Rekord, und sicher nicht der letzte. Viele Vorträge spiegelten die Sorge wider, dass disruptive Technologien wie das Internet of Things (IoT) zur Verdrängung der alten Platzhirsche durch neue Herausforderer führen könnten. Der Erfolg von Tesla hat die Branche aufgeschreckt und der Name Nokia steht wie ein Menetekel an der Wand. „Die digitale Transformation transformiert auch PLM“ weiterlesen