Aufbau einer semantischen Suche: Was für den Beginn unserer Reise wichtig war

Forschung auf dem Gebiet der Künstlichen Intelligenz (KI) ist anspruchsvoll, aber auch voller Potenzial – insbesondere für ein neues Team. Mit der Gründung im Jahr 2022 stand für CONTACT Research von Anfang an KI als einer von vier zentralen Forschungsbereichen fest. Wir haben uns hierbei zunächst auf kleinere Projekte – unter anderem im Bereich der klassischen Datenanalyse – konzentriert. Mit der wachsenden Popularität von ChatGPT fokussierten wir uns verstärkt auf Large Language Models (LLM) und haben die Chance ergriffen, mit den neusten Werkzeugen und Technologien dieses zukunftsweisenden Feldes zu arbeiten. Die zentrale Frage für uns als Forschungsteam war dabei: Wie starten wir?

Wir möchten hier einige unserer Erfahrungen teilen, die als Orientierung für den erfolgreichen Weg in die Welt der KI dienen können.

Der Start: Warum Ähnlichkeitssuche unser Ausgangspunkt wurde

Von Anfang an war klar: Wir wollen kein reines Forschungsprojekt, sondern einen echten Anwendungsfall, bestenfalls um ihn direkt in unsere Software zu integrieren. Um den Start zu erleichtern, haben wir bewusst auf kleine Experimente gesetzt und nach einem spezifischen Problem gesucht, das sich schrittweise lösen lässt.

Innerhalb unserer Software liegen viele Informationen ab, von Produktinformationen bis hin zu Projektdetails. Eine leistungsfähige Suche macht dort einen entscheidenden Unterschied. Unsere bestehende Suchfunktion erkennt keine Synonyme, keine natürliche Sprache – und damit manchmal nicht das, was man wirklich sucht. Zusammen mit wertvollem Feedback ergab sich daraus schnell, dass die Ähnlichkeitssuche ein idealer Startpunkt ist und daher unser erstes Forschungsthema sein sollte. Ein LLM kann die Suchfunktion auf ein neues Level heben.

Die Auswahl der Daten macht den Unterschied

Unsere Vision war es, Wissen aus verschiedenen Quellen, wie Handbüchern, Tutorials und Spezifikationen, leicht zugänglich zu machen – durch eine einfache Frage. Im ersten und wichtigsten Schritt mussten wir eine geeignete Datenquelle finden: groß genug, um aussagekräftige Ergebnisse zu liefern, aber nicht so umfangreich, dass Ressourcenprobleme den Fortschritt behindern. Außerdem musste der Datensatz qualitativ hochwertig und leicht verfügbar sein.

Für die Experimente wählten wir die webbasierte Dokumentation unserer Software. Sie enthält keine vertraulichen Informationen und ist für Kunden und Partner zugänglich. Erste Experimente erzielten schnell vielversprechende Ergebnisse, also vertieften wir die Entwicklung einer semantischen Suchanwendung.

Was ist die semantische Suche?

Kurz gesagt, im Gegensatz zur klassischen Stichwortsuche erkennt die semantische Suche auch verwandte Begriffe und erweitert die Anfrage um inhaltlich verwandte Ergebnisse, auch wenn diese anders formuliert sind. Wie funktioniert das? In unserem ersten Versuch mit der semantischen Indizierung wandelt das LLM die Inhalte der Quelltexte in Vektoren um und speichert sie in einer Datenbank. Suchanfragen werden ebenfalls zu Vektoren und per „Nearest-Neighbor“-Suche mit gespeicherten Vektoren verglichen. Die Ergebnisse gibt das LLM als sortierte Liste mit Links zur Dokumentation aus.

Plant die Infrastruktur sorgfältig!

Um unser Projekt umzusetzen, mussten viele technische und strategische Entscheidungen getroffen werden: Für die Pipeline, die die Daten verarbeitet, erfüllte LangChain am besten unsere Anforderungen. Und auch die Hardware bringt Herausforderungen mit sich: Für Textmengen in dem Ausmaß reichen Laptops nicht aus, sodass Server oder Cloudanbieter erforderlich sind. Eine gut durchdachte Struktur der Datenbank ist daher ein wichtiger Schlüssel zur erfolgreichen Umsetzung.

Erfolg durch Teamwork: Daten, Scope und Vision im Fokus

Für den Erfolg zählt nicht nur die Technik, sondern auch wie sich das KI-Team zusammensetzt. Essenziell sind Dateningenieur*innen, die technisches Wissen und strategische Ziele verbinden; Data Scientists, die große Datenmengen analysieren; und KI-Architekt*innen, die die Vision der KI-Nutzung definieren und die Abstimmung im Team koordinieren. KI-Tools halfen uns zwar mit „einfachen“ Routineaufgaben und kreativen Anstößen, sie ersetzen aber trotzdem nicht den konstruktiven Austausch und die enge Zusammenarbeit im Team.

Feedback einholen und besser werden

Zum Abschluss dieser ersten Phase haben wir eine interne Beta-Version der semantischen Suche mit unseren Kolleg*innen geteilt. So konnten wir wertvolles Feedback sammeln, um die nächsten Schritte zu planen. Die Begeisterung für die Weiterentwicklung ist groß, und damit auch unsere Motivation, weiterzumachen.

Was kommt als nächstes?

Unsere Reise in der KI-Forschung hat gerade erst begonnen, aber wir haben bereits wichtige Wegweiser gefunden. Viele spannende Fragen liegen noch vor uns: Welches Modell passt langfristig am besten? Wie machen wir die Ergebnisse für Nutzer*innen zugänglich?

Unser Team wächst weiter – an Expertise, an Mitgliedern und Visionen. Mit jedem Meilenstein kommen wir dem Ziel näher: das volle Potenzial von KI in unsere Arbeit zu integrieren.

Ausführliche Beiträge zur Gründung unseres KI-Teams sowie zur semantischen Suche finden Sie auf dem CONTACT Research Blog.

In Minuten zur Designentscheidung – Wie KI die Produktentwicklung unterstützt

Künstliche Intelligenz (KI) ist in aller Munde und spielt auch in der Produktentwicklung eine immer größere Rolle. Doch wie lässt sich diese Technologie sinnvoll in Entwicklungsprojekte integrieren? Gemeinsam mit unserem Kunden Audi haben wir die Probe aufs Exempel gemacht und die Potenziale und Herausforderungen einer Machine Learning (ML)-Anwendung – als Teilbereich von KI – an einem realen Projekt untersucht. Für den Einsatz wählten wir ein Crash-Management-System (CMS). Es ist einerseits einfach genug, um ein nutzbringendes Ergebnis zu erreichen und gleichzeitig kompliziert genug, um die generelle Anwendbarkeit der der ML-Methode hinreichend zu testen.

Fachwissen als Schlüssel

ML lässt sich nur insoweit sinnvoll nutzen, wie es die zugrundeliegende Datenbasis erlaubt. Deshalb spielt das Know-how der beteiligten Fachleute eine entscheidende Rolle. Zum Beispiel geben Konstrukteurinnen und Konstrukteure ihr Wissen über Fertigungs- und Bauraumbeschränkungen, verwendbare Materialien und Abhängigkeiten in das CAD-Modell. Berechnungsingenieure und -ingenieurinnen teilen ihr Wissen über den Simulationsprozess und die Data Scientists unterstützen beim Sampling und der Auswertung.

Die Erstellung tausender Design- und korrespondierender Simulationsmodelle, wie sie für den Einsatz von Machine Learning (ML) erforderlich ist, stellt ohne Automatisierung eine enorme Herausforderung dar. Die FCM CAT.CAE-Bridge, ein speziell entwickeltes Plug-In für CATIA, ermöglicht eine nahtlose Automatisierung über alle Prozessschritte hinweg. Darüber hinaus verankert sie alle Informationen für die Simulation (Material, Eigenschaften, Solver und viele weitere) bereits im CAD-Modell. Die vollautomatische Übersetzung in ein Simulationsfile erfolgt dann mit Tools wie ANSA oder Hypermesh.

Automatisierter Prozess: Sampling, DoE, Modellerstellung, Simulation, Auswertung mit anschließendem Training der ML-Modelle. (© CONTACT Software)

Präzise Verknüpfung von Parametern und Ergebnissen

Unser Ansatz gewährleistet, dass die Beziehung zwischen dem CAD-Modell und dem Simulationsmodell vollständig erhalten bleibt. Die automatisierte Berechnung und Auswertung der Modelle auf die spezifischen Ergebnisse hin schafft eine sehr gute Datengrundlage für den ML-Prozess. Die Vektoren aus Eingabeparametern mit korrespondierenden Ergebniswerten stellen die Basis für den ML-Ansatz – eindeutig und umfassend.

Basierend auf eingegrenzten Ergebnisvektoren (rot) gefundene Inputparameter (blau), die die Anforderungen erfüllen. (© CONTACT Software)

Auf den damit trainierten Modellen und der darin bekannten Genauigkeit lassen sich dann schnell Parametervariationen durchspielen und die Auswirkung auf das Verhalten ableiten, buchstäblich in Minuten. Sobald die optimalen Parameter identifiziert sind, werden diese automatisch in das CAD-Modell übertragen und der Designprozess kann fortgesetzt werden.

Fazit

Unser Projekt hat gezeigt, dass ML eine valide Methode für das Design-Engineering ist. Die Kombination aus parametrischen CAD-Modellen, Simulation und Machine Learning bietet eine effiziente Herangehensweise, um Designentscheidungen schnell und präzise zu treffen. Voraussetzung dafür liegen in einer robusten Datenbasis und in der Zusammenarbeit der relevanten Know-how-Träger am Modell. Die guten Ergebnisse aus dem Audi-Projekt zeigen das Potenzial unseres datenbasierten Ansatzes für die Produktentwicklung.

Digitale Echtheit: So erkennen Sie KI-generierte Inhalte

Im digitalen Zeitalter stellt sich oft die Frage, ob wir Bildern, Videos oder Texten vertrauen können. Die Quelle einer Information herauszufinden, wird immer schwieriger. Generative KI beschleunigt die Möglichkeiten solche Inhalte zu erstellen enorm. Wo früher ein Künstler nötig war, können nun KI-Modelle in Sekundenschnelle Bilder und Audiodateien erzeugen. Modelle wie Sora von OpenAI erzeugen sogar Videos in hoher Qualität!

Diese Technologie bietet Chancen, aber auch Risiken. Einerseits beschleunigt sie kreative Prozesse, andererseits kann sie auch missbraucht werden, um zum Beispiel Phishing-Angriffe durchzuführen oder Deepfakes mit täuschend echt wirkenden Videos zu erstellen. Wie können wir also sicherstellen, dass online geteilte Informationen echt sind?

Digitale Wasserzeichen: unsichtbarer Schutz für Inhalte

Digitale Wasserzeichen sind eine Möglichkeit, die Herkunft von Bildern, Videos oder Audiodaten zu sichern. Diese für das menschliche Auge unsichtbaren Muster sind selbst nach geringfügigen Veränderungen, wie dem Komprimieren oder Beschneiden eines Bildes, durch Algorithmen wiederzuerkennen und lassen sich nur schwer entfernen. Sie kommen vor allem beim Schutz von Urheberrechten zum Einsatz.

Jedoch sind Wasserzeichen in Texten wesentlich schwieriger umzusetzen, da diese unter anderem weniger redundant sind als die Pixel in Bildern. Ein mit dem Wasserzeichen verwandter Ansatz ist es, kleine, aber sichtbare Fehler im Originalinhalt einzufügen. Diese Methode nutzt unter anderem Google Maps mit erfundenen Straßen: Tauchen diese auch in einer Kopie auf, lassen sich so Urheberrechtsverletzungen nachweisen.

Digitale Signaturen: Sicherheit durch Kryptografie

Digitale Signaturen basieren auf asymmetrischer Kryptografie. Das bedeutet, dass der Inhalt eines Werkes mit einem privaten Schlüssel signiert wird, den nur die Person besitzt, die ihn erstellt hat. Jeder andere kann dann mit dem öffentlichen Schlüssel die Echtheit des Inhalts bestätigen. Schon kleinste Änderungen am Inhalt machen die Signatur ungültig, wodurch Fälschungen praktisch unmöglich sind. Digitale Signaturen sorgen bereits in der Online-Kommunikation für Transparenz, etwa durch das https-Protokoll beim Surfen im Internet.

In einer Welt, in der alle digitalen Inhalte durch Signaturen geschützt wären, ließe sich von einem zugesendeten Artikel sofort die Herkunft und die Echtheit überprüfen sowie Absenderin und Quelle der Nachricht zurückverfolgen. So zum Beispiel bei einem Foto, wer es wo und wann aufgenommen hat. Eine Initiative, die dies vorantreibt, ist die Coalition for Content Provenance and Authenticity (C2PA). Sie arbeitet an technischen Standards, um digitale Signaturen auf Medieninhalte anzuwenden und deren Ursprung zu dokumentieren. Im Gegensatz zu Wasserzeichen sind Signaturen nicht fest im Inhalt integriert und können entfernt werden, ohne dabei das Material zu verändern. In einer idealen Vorstellung würde jeder digitale Signaturen verwenden – fehlende Signaturen würden dann Zweifel an der Vertrauenswürdigkeit des Inhalts wecken.

GenAI-Detektoren: KI gegen KI

GenAI-Detektoren sind eine weitere Option, generierte Inhalte zu erkennen. KI-Modelle sind Algorithmen, die bestimmte Muster hinterlassen. Andere KI-Modelle können diese wiederum erkennen. Solche Muster sind zum Beispiel bestimmte Formulierungen oder Satzstrukturen. Tools wie GPTZero erkennen bereits mit hoher Genauigkeit, ob ein Text von einem generativen KI-Modell wie ChatGPT oder Gemini stammt. Diese Detektoren sind zwar noch nicht perfekt, bieten aber eine erste Orientierung.

Was bedeutet das für Nutzer*innen?

Digitale Signaturen bieten unter allen Optionen den stärksten Schutz, da sie für alle Inhalte verwendbar sind und auf kryptografischen Methoden basieren. Ich bin gespannt, ob mit Projekten wie der C2PA vertrauenswürdige Standards etabliert werden können. Dennoch sind je nach Zweck verschiedene Maßnahmen nötig, um die Vertrauenswürdigkeit digitaler Inhalte zu gewährleisten. Neben den technologischen Lösungen bleibt kritisches Denken immer noch eine der besten Methoden, um im Informationszeitalter sicher zu navigieren. Die Menge an verfügbaren Informationen wächst ständig – daher ist es wichtig, Informationen kritisch zu hinterfragen, zu überprüfen und sich den Fähigkeiten von generativen KI-Modellen bewusst zu sein.

Einen umfangreicheren Beitrag zum Thema finden Sie auch hier auf dem CONTACT Research Blog.