Digitale Echtheit: So erkennen Sie KI-generierte Inhalte

Im digitalen Zeitalter stellt sich oft die Frage, ob wir Bildern, Videos oder Texten vertrauen können. Die Quelle einer Information herauszufinden, wird immer schwieriger. Generative KI beschleunigt die Möglichkeiten solche Inhalte zu erstellen enorm. Wo früher ein Künstler nötig war, können nun KI-Modelle in Sekundenschnelle Bilder und Audiodateien erzeugen. Modelle wie Sora von OpenAI erzeugen sogar Videos in hoher Qualität!

Diese Technologie bietet Chancen, aber auch Risiken. Einerseits beschleunigt sie kreative Prozesse, andererseits kann sie auch missbraucht werden, um zum Beispiel Phishing-Angriffe durchzuführen oder Deepfakes mit täuschend echt wirkenden Videos zu erstellen. Wie können wir also sicherstellen, dass online geteilte Informationen echt sind?

Digitale Wasserzeichen: unsichtbarer Schutz für Inhalte

Digitale Wasserzeichen sind eine Möglichkeit, die Herkunft von Bildern, Videos oder Audiodaten zu sichern. Diese für das menschliche Auge unsichtbaren Muster sind selbst nach geringfügigen Veränderungen, wie dem Komprimieren oder Beschneiden eines Bildes, durch Algorithmen wiederzuerkennen und lassen sich nur schwer entfernen. Sie kommen vor allem beim Schutz von Urheberrechten zum Einsatz.

Jedoch sind Wasserzeichen in Texten wesentlich schwieriger umzusetzen, da diese unter anderem weniger redundant sind als die Pixel in Bildern. Ein mit dem Wasserzeichen verwandter Ansatz ist es, kleine, aber sichtbare Fehler im Originalinhalt einzufügen. Diese Methode nutzt unter anderem Google Maps mit erfundenen Straßen: Tauchen diese auch in einer Kopie auf, lassen sich so Urheberrechtsverletzungen nachweisen.

Digitale Signaturen: Sicherheit durch Kryptografie

Digitale Signaturen basieren auf asymmetrischer Kryptografie. Das bedeutet, dass der Inhalt eines Werkes mit einem privaten Schlüssel signiert wird, den nur die Person besitzt, die ihn erstellt hat. Jeder andere kann dann mit dem öffentlichen Schlüssel die Echtheit des Inhalts bestätigen. Schon kleinste Änderungen am Inhalt machen die Signatur ungültig, wodurch Fälschungen praktisch unmöglich sind. Digitale Signaturen sorgen bereits in der Online-Kommunikation für Transparenz, etwa durch das https-Protokoll beim Surfen im Internet.

In einer Welt, in der alle digitalen Inhalte durch Signaturen geschützt wären, ließe sich von einem zugesendeten Artikel sofort die Herkunft und die Echtheit überprüfen sowie Absenderin und Quelle der Nachricht zurückverfolgen. So zum Beispiel bei einem Foto, wer es wo und wann aufgenommen hat. Eine Initiative, die dies vorantreibt, ist die Coalition for Content Provenance and Authenticity (C2PA). Sie arbeitet an technischen Standards, um digitale Signaturen auf Medieninhalte anzuwenden und deren Ursprung zu dokumentieren. Im Gegensatz zu Wasserzeichen sind Signaturen nicht fest im Inhalt integriert und können entfernt werden, ohne dabei das Material zu verändern. In einer idealen Vorstellung würde jeder digitale Signaturen verwenden – fehlende Signaturen würden dann Zweifel an der Vertrauenswürdigkeit des Inhalts wecken.

GenAI-Detektoren: KI gegen KI

GenAI-Detektoren sind eine weitere Option, generierte Inhalte zu erkennen. KI-Modelle sind Algorithmen, die bestimmte Muster hinterlassen. Andere KI-Modelle können diese wiederum erkennen. Solche Muster sind zum Beispiel bestimmte Formulierungen oder Satzstrukturen. Tools wie GPTZero erkennen bereits mit hoher Genauigkeit, ob ein Text von einem generativen KI-Modell wie ChatGPT oder Gemini stammt. Diese Detektoren sind zwar noch nicht perfekt, bieten aber eine erste Orientierung.

Was bedeutet das für Nutzer*innen?

Digitale Signaturen bieten unter allen Optionen den stärksten Schutz, da sie für alle Inhalte verwendbar sind und auf kryptografischen Methoden basieren. Ich bin gespannt, ob mit Projekten wie der C2PA vertrauenswürdige Standards etabliert werden können. Dennoch sind je nach Zweck verschiedene Maßnahmen nötig, um die Vertrauenswürdigkeit digitaler Inhalte zu gewährleisten. Neben den technologischen Lösungen bleibt kritisches Denken immer noch eine der besten Methoden, um im Informationszeitalter sicher zu navigieren. Die Menge an verfügbaren Informationen wächst ständig – daher ist es wichtig, Informationen kritisch zu hinterfragen, zu überprüfen und sich den Fähigkeiten von generativen KI-Modellen bewusst zu sein.

Einen umfangreicheren Beitrag zum Thema finden Sie auch hier auf dem CONTACT Research Blog.

Digitalisierung für die hohe See

Die Sonne scheint in Hamburg, die milde Herbstluft ist in Bewegung. Dabei hatte ich mich perfekt für Regenwetter ausgerüstet. In einem Konferenzhotel direkt am Hafen versammeln sich Anfang Oktober Schiffbauer aus aller Welt zum CADMATIC Digital Wave Forum. Das User Meeting lädt ein, CADMATICs CAD-Anwendung für den Schiffbau zu erleben und aus erster Hand von aktuellen Trends, Produkterweiterungen und Neuentwicklungen zu erfahren. Das Highlight: CADMATIC Wave, eine integrierte CAD-PLM-Lösung speziell für den Schiffbau, die CADMATIC zusammen mit CONTACT entwickelt.

Modellvisualisierung vereinfacht Datensuche und Zusammenarbeit

Nach dem ersten Kaffee sortieren wir uns allmählich in den Konferenzsaal, der Vormittag ist gefüllt mit Zahlen und Fakten rund um CADMATICs Digitalisierungsstrategie. Am Nachmittag präsentiert unser Geschäftsführer Maximilian Zachries den rund 200 Teilnehmenden CADMATIC Wave. Wir demonstrieren erste Funktionalitäten des integrierten Produktdatenmanagements (PDM) und sehen einige gezückte Telefone, um schnell ein Foto von der Neuerung zu machen. Ich bin etwas aufgeregt, jetzt ist es offiziell. Jetzt muss auch das Datenmodell her. Und das ist gar nicht so einfach.

Cadmatic's Atte Peltola introduces the audience to Cadmatic Wave

Atte Peltola von CADMATIC präsentiert CADMATIC Wave. (© CADMATIC)

Der Ruf aus allen Ecken nach einem Datenmodell für den Schiffbau trägt mich durch die drei Hamburger Tage. In meinen Gesprächen auf der Konferenz wird deutlich, dass die Informationen, die im Schiffsentstehungsprozess benötigt und erzeugt werden, am Modell verortet werden können müssen. Modellzentriert also: die Schiffsgeometrie wird inklusive Equipment, Ausstattung und Logistik visualisiert. Über die einzelnen Teile des Modells lassen sich Informationen abrufen und hinzufügen. Modellvisualisierungen ermöglichen für alle beteiligten Gewerke eine gemeinsame und intuitive Sicht auf das Schiff und vereinfachen unter anderem die Informationssuche erheblich. So werden Engineering-Tätigkeiten und die Zusammenarbeit, auch mit Partnern, effizienter.

Datenmodell auf Basis der Schiffsgeometrie birgt Herausforderungen

Als ich mich mit einem Mitarbeiter der Technisch-Naturwissenschaftlichen Universität Norwegens (NTNU) unterhalte, stellt sich uns allerdings die Frage: Ist die geometrische Form überhaupt geeignet, um darüber eine generische Produktstruktur für die Datenhaltung im PDM zu generieren? Als Platzhalter in einem Datenmodell gibt es in so einem Schiff immerhin ziemlich viele Orte. Und ich nehme das hier mal vorweg: Datenmodelle organisieren sich normalerweise über die Prozesse in der Produktentstehung und nicht über die Geometrie eines Schiffsmodells. Ich bin gespannt, wie wir diese Herausforderung in CADMATIC Wave lösen werden.

Die Abendveranstaltung findet auf der Cap San Diego statt, einem Museumsschiff im Hamburger Hafen. Das rustikale Flair eines Schiffsbauchs und ein reichlich gedecktes Buffet schaffen eine gemütliche Atmosphäre für angeregte Unterhaltungen. Ich führe Gespräche über das Leben in Finnland und Norwegen und über den Unterschied zwischen Informations- und Datenmanagement. Der Abend endet stürmisch und regnerisch, endlich kommt meine Regenausrüstung zum Einsatz und ich komme trocken und warm ins Hotel zurück.

SEUS hebt europäischen Schiffbau auf die nächste Effizienzstufe

Auf dem CADMATIC Digital Wave Forum treffe ich auch zum ersten Mal meine Konsortialpartner aus dem Projekt Smart European Shipbuilding (SEUS). Darunter neben Vertreter:innen der NTNU und von CADMATIC auch Mitarbeitende von zwei Werften, der norwegischen Ulstein Group und der spanischen Astilleros Gondan SA. SEUS ist ein EU-gefördertes Forschungsprojekt mit dem Ziel, eine integrierte CAD- und PLM-Lösung für den Schiffbau zu entwickeln. Dabei wollen wir noch über die Funktionalitäten hinausgehen, die wir in CADMATIC Wave entwickeln. Beispielsweise mit einem Knowledge Management und der Nutzung von KI für die Suche innerhalb von Produktdaten.

In diesem Zusammenhang spielt uns die breite Aufstellung unserer Forschungsabteilung CONTACT Research in die Hände. Einerseits forschen wir in der Research Area Digital Lifecycle Management an Digitalisierungsstrategien für verschiedene Branchen. Andererseits zählt auch Künstliche Intelligenz zu unseren Forschungsschwerpunkten. Mit der KI-Produktdatensuche, wie wir sie in SEUS implementieren wollen, können wir also unser selbst auferlegtes Credo „Bringing artificial intelligence into the engineering domains“ mit Leben füllen.

Drei Tage in Hamburg gehen zu Ende und es bleiben drei starke Eindrücke:

  1. Es ist notwendig, ein abstraktes Datenmodell für den Schiffbau zu entwerfen. Eines, das im Kern die Module eines Schiffes enthält und dennoch auf die speziellen Bedürfnisse jedes Schiffbauers angepasst werden kann. Dieses Datenmodell muss eng mit dem Entwicklungsprozess verknüpft sein.
  2. Der persönliche Austausch und das persönliche Kennenlernen sind für mich in diesem mir neuen Arbeitsbereich eine bereichernde Erfahrung. Und dieses positive Gefühl motiviert mich weiter in meiner Arbeit im SEUS-Projekt.
  3. Regensachen sind in Hamburg Pflicht.

Groß, größer, gigantisch. Die Folgen der Riesenmodelle in der KI

Die Entwicklung der Sprachmodelle im Bereich NLP (Natural Language Processing) hat vor allem seit 2019 zu gewaltigen Sprüngen in der Genauigkeit dieser Modelle für bestimmte Aufgaben geführt, aber auch in der Anzahl und dem Umfang der Fähigkeiten an sich. Als Beispiel seien die mit viel Medienrummel von OpenAI veröffentlichen Sprachmodelle GPT-2 und GPT-3 genannt, die mittlerweile für den kommerziellen Einsatz verfügbar sind und sowohl in Art, Umfang  und Genauigkeit erstaunliche Fähigkeiten haben, auf die ich in einem anderen Blog-Post eingehen möchte. Dies wurde im Fall von GPT-3 durch Training mittels eines Modells mit 750 Milliarden Parametern auf einem Datensatz von 570 GB erreicht. Das sind Werte, die einem die Sprache verschlagen.

Je größer die Modelle, je höher die Kosten

Gigantisch sind aber auch die Kosten, die das Training dieser Modelle verschlingt: Setzt man nur die angegebenen Compute-Kosten 1 für einen kompletten Trainingslauf an, kommt man auf eine Größenordnung von 10 Millionen USD für das Training von GPT-3 2, 3. Hinzu kommen weitere Kosten für Vorversuche, Storage, Commodity-Kosten für die Bereitstellung etc., die in ähnlicher Größenordnung liegen dürften. In den vergangenen Jahren hat sich der Trend, immer größere Modelle zu bauen, verstetigt und jedes Jahr kommt ungefähr eine Größenordnung hinzu, d.h. die Modelle sind 10x größer als im Jahr davor.

Größe von NLP-Modellen von 2018-2022. Die Parametergrößen sind logarithmisch aufgetragen in Einheiten von Milliarden. Die rote Linie stellt das mittlere Wachstum dar:  ca. 10-20 mal größere Modelle pro Jahr 2.

Das nächste Modell von OpenAI GPT-4 soll ca. 100 Billionen Parameter haben (100 x 1012 ). Zum Vergleich: Das menschliche Gehirn hat ungefähr 100 Milliarden Neuronen (100 x 109) also 1000 mal weniger. Die theoretische Grundlage für diesen Gigantismus liefern Studien, die ein klares Skalenverhalten zwischen Größe des Modells und Performance belegen 4. Danach sinkt der sogenannte Verlust – ein Maß für die Fehlerhaftigkeit der Vorhersagen der Modelle – um 1, wenn das Modell 10mal größer wird. Das funktioniert aber nur wenn Rechenleistung und Trainingsmenge ebenfalls nach oben skaliert werden.

Neben den ungeheuren Mengen Energie, die das Berechnen dieser Modelle verschlingt und dem damit einhergehenden CO2-Footprint, der ein Besorgnis erregendes Ausmaß annimmt, ergeben sich direkte wirtschaftliche Folgen: Offenbar können nicht nur kleinere Unternehmen die Kosten für das Training solcher Modelle nicht stemmen, auch größere Konzerne dürften vor Kosten von 10 Mio. USD bzw. in Zukunft 100 Mio. USD oder mehr zurückschrecken. Ganz abgesehen von der notwendigen Infrastruktur und Personalausstattung für ein solches Unterfangen.

Monopolstellung der großen Player

Das hat direkte Auswirkungen auf die Verfügbarkeit: Während die kleineren Modelle bis Ende 2019 mittlerweile Open Source sind und über spezialisierte Provider frei zugreifbar, gilt das für die großen Modelle ab ca. Ende 2020 (dem Auftauchen von GPT-2) nicht mehr. OpenAI bietet zum Beispiel eine kommerzialisierte API für den Zugriff an und erteilt nur durch einen Genehmigungsprozess einen Zugang. Das ist einerseits für die Entwicklung von Applikationen mit diesen NLP-Modellen bequem, da die Arbeit des Hostings und der Administration entfällt, andererseits ist die Eintrittsbarriere für Wettbewerber in diesen Markt so steil, dass im Wesentlichen die super-großen KI-Firmen dort teilnehmen: Google mit OpenAI, Microsoft mit Deepmind und Alibaba.

Die Konsequenzen dieser Monopolstellungen der führenden KI-Unternehmen sind wie bei jedem Monopol alternativlose Preismodelle und starre Geschäftspraktiken. Die Fähigkeiten der jetzigen Large Language Models wie GPT-3 und Megatron Turing NLG sind allerdings schon so beeindruckend, dass abzusehen ist, dass wahrscheinlich in 10 Jahren jedes Unternehmen für die unterschiedlichsten Anwendungen Zugriff auf die dann aktuellen Modelle braucht. Ein weiteres Problem ist, dass die Herkunft der Modelle aus dem amerikanischen oder chinesischen Raum einen großen Bias in die Modelle bringt, der sich einerseits klarerweise darin ausdrückt, dass Englisch oder Chinesisch die Sprache ist, mit der die Modelle am Besten funktionieren. Andererseits bringen die Trainingsdatensätze, die aus diesen Kulturbereichen stammen, eben kulturellen Tendenzen aus diesen Räumen mit, so dass abzusehen ist, dass andere Regionen der Welt unterrepräsentiert sind und weiter ins Hintertreffen geraten.

Was kann man tun?

Ich glaube es ist wichtig, die Entwicklung sorgfältig im Auge zu behalten und die Entwicklung von KI im europäischen Raum aktiver zu gestalten. Es ist jedenfalls eine größere Anstrengung notwendig, um langfristig eine Abhängigkeit von monopolisierten KI-Providern zu vermeiden. Denkbar ist vielleicht die Einbindung von nationalen Rechenzentren oder Forschungsverbünden, die vereint mit Unternehmen eigene Modelle trainieren und kommerzialisieren und ein Gegengewicht zu amerikanischen oder chinesischen Unternehmen bilden. Die nächsten 10 Jahre werden hier entscheidend sein.

1 s. hier in Abschnitt D sowie Compute-Kosten per GPU z.B. auf Google Cloud ca. 1USD/hour für eine NVIDIA V100
2 Rechenansatz: V100 = 7 TFLOPs = 7 10^12 / s, 3.14 10^23 Flops => 3.14 10^23/7×10^12 / 3600 = 10^7 Stunden = 10 Mio USD, Details der Rechnung sowie Recherche der Parameter hier.
3 s. auch hier zum Vergleich Grafik mit älteren Daten.
4 s. arxiv und Deepmind