Viele gehen heute davon aus: KI erzeugt Text, ich kopiere ihn, fertig. Das merkt doch niemand.
In der Praxis ist das oft ein Trugschluss. Den langen Bildestrich kennt mittlerweile fast keder, aber Texte können auch unauffällige, manchmal sogar unsichtbare Hinweise tragen: eingebaute Wasserzeichen auf Token-Ebene, Steuerzeichen aus Unicode, Zeichen, die beim Anzeigen umsortieren, oder Daten, die nur wie “komische Buchstabenfolgen” wirken, aber in Wahrheit Tracking oder eingebettete Payloads sind. Manche Spuren entstehen absichtlich, manche unabsichtlich – aber in beiden Fällen können sie dazu führen, dass Text auffällt, technisch anders ist als er aussieht oder sogar Sicherheitsprobleme auslöst.
Dieser Artikel erklärt die wichtigsten Methoden verständlich, mit Beispielen. Danach folgt kurz ein Überblick über ein Scanner-Tool, das genau solche Artefakte sichtbar machen kann.
Wenn von “Wasserzeichen” oder “Markern” die Rede ist, meinen viele ein sichtbares Logo. Bei Text ist es anders. Es gibt grob drei Klassen:
Unsichtbare oder schwer erkennbare Zeichen im Text selbst
Zum Beispiel Zero-Width-Zeichen, BiDi-Steuerzeichen, ungewöhnliche Leerzeichen oder Mischschriften.
Struktur- oder Kodierungsartefakte
Zum Beispiel Base64-Blöcke, Prozentkodierung, Escape-Sequenzen oder komprimierte Daten, die “nur wie Müll” aussehen, aber Inhalt transportieren.
Statistische Wasserzeichen (ohne zusätzliche Sonderzeichen)
Das ist das Feld, an dem viele Anbieter arbeiten: Der Text sieht völlig normal aus, aber die Auswahl von Wörtern und Token folgt subtilen Mustern, die ein Detektor probabilistisch erkennen kann. Ein konkretes, öffentlich dokumentiertes Beispiel dafür ist SynthID Text.
Unicode enthält Zeichen, die man nicht (oder kaum) sieht: Zero-Width Space, Word Joiner, BOM, Non-Breaking Space und viele mehr. Sie sind für bestimmte typografische oder technische Zwecke gedacht – werden aber auch genutzt, um Text zu markieren oder zu verschleiern. Unicode beschreibt solche Kategorien und Eigenschaften sehr detailliert.
Stell dir vor, jemand schreibt:
HalloUliHalloUli (zwischen o und U steckt ein Zero-Width Space U+200B)Im Alltag passiert dann Folgendes:
So macht man es sichtbar (Darstellung mit Markern):
Hallo[U+200B]Uli
Bestimmte Unicode-Steuerzeichen beeinflussen die Schreibrichtung (links-nach-rechts, rechts-nach-links) und können Teile einer Zeile visuell umsortieren. Das ist nicht nur ein Kuriosum, sondern ein ernstes Sicherheitsproblem: Angreifer können Code so darstellen lassen, dass er harmlos wirkt, während der Compiler etwas anderes interpretiert. Genau darauf zielt die bekannte “Trojan Source”-Attacke.
Angenommen, in einer Codezeile verstecken sich Richtungssteuerzeichen wie u202E (RLO) und u202C (PDF). Dann kann eine Zeile beim Lesen anders aussehen als sie logisch aufgebaut ist.
Warum das gefährlich ist:
Das ist ein Beispiel für eine Spur, die nicht “KI-spezifisch” ist, aber sehr gut zeigt, warum ein Artefakt-Scan sinnvoll sein kann.
Unicode erlaubt mehrere Darstellungen desselben sichtbaren Zeichens. Ein klassisches Beispiel:
é als ein Codepoint (U+00E9)e (U+0065) + kombinierender Akzent (U+0301)Optisch identisch, technisch verschieden. Normalisierungsformen wie NFC/NFKC sind standardisiert.
Viele Schriften enthalten Zeichen, die sich extrem ähnlich sehen. Besonders bekannt sind Mischungen aus Latein, Kyrillisch und Griechisch. Unicode behandelt das Thema unter “confusables” und Spoofing-Abwehr sehr ausführlich.
Das lateinische a (U+0061) sieht fast gleich aus wie das kyrillische а (U+0430).
Damit kann man:
In normalem Fließtext ist das oft nur ein Hinweis, im Code ist es deutlich kritischer.
Whitespace ist Information. Schon einfache Dinge können auffallen:
Das kann harmlos sein (schlechte Formatierung) oder bewusst eingesetzt werden, um Bits zu kodieren (Text-Steganografie).
Angenommen, ein Text kodiert “0” als ein Leerzeichen und “1” als Tab am Zeilenende. Visuell kaum zu sehen – technisch eindeutig messbar.
Viele Texte enthalten URLs mit Parametern wie utm_source, gclid, fbclid usw. Das ist kein KI-Wasserzeichen, aber es ist ein starker Provenienz-Hinweis: Woher kommt ein Link, über welche Kampagne wurde er geteilt, welche Plattform war beteiligt?
Beispiel:
https://example.org/artikel?utm_source=newsletter&utm_campaign=mai
In redaktionellen Workflows ist das relevant, weil:
Hier geht es um Textteile, die aussehen wie Zufall, aber oft Daten sind.
In URLs oder Logs sieht man häufig Sequenzen wie %7B%22a%22%3A1%7D. Das ist schlicht eine Darstellung von Bytes. Die Regeln dazu sind im URL-Standard beschrieben.
Beispiel
%7B%22user%22%3A%22Uli%22%7D → {"user":"Uli"}
Base64 ist ein Standard, um Binärdaten in ASCII zu packen.
Beispiel
eyJ1c2VyIjoiVWxpIn0= → {"user":"Uli"}
Spannend wird es, wenn Base64 nach dem Decoding mit Magic Bytes beginnt, z.B. gzip (1F 8B). Dann ist der Inhalt oft komprimiert und erst nach dem Entpacken lesbar.
Sequenzen wie xNN, uNNNN oder sehr lange Hex-Blöcke sind oft ein Hinweis auf eingebettete Daten (Konfiguration, Tracking, Obfuskation, manchmal Malware-Loader in anderen Kontexten).
Das ist die Klasse, an die viele zuerst denken, wenn “KI-Wasserzeichen” gesagt wird.
Ein Modell kann bei der Textgenerierung bestimmte Token minimal bevorzugen, nach einem Schlüssel (Key) und einem Muster. Der Text bleibt gut lesbar, aber die Wahl der Token trägt eine Signatur. Detektion ist dann probabilistisch, nicht absolut.
SynthID Text ist als “logits processor” beschrieben, der nach Top-K/Top-P die Token-Wahrscheinlichkeiten so verändert, dass ein Wasserzeichen codiert wird. Es ist dokumentiert, open-sourced und inklusive Detektor-Ansatz beschrieben – inklusive Grenzen (z.B. starkes Umschreiben oder Übersetzen senkt die Erkennbarkeit).
Wichtig: Solche Watermarks sind kein Allheilmittel. Sie helfen bei Attribution und Plattform-Policies, aber sie sind nicht dafür gedacht, “motivierte Angreifer” sicher zu stoppen.
Zusätzliche wissenschaftliche Perspektive liefert auch die Forschung zu Wasserzeichen für LLM-Ausgaben, z.B. “A Watermark for Large Language Model Outputs”.
Das sind keine “Beweise”, aber nützliche Hinweise vor allem, wenn man nach versteckten Botschaften oder technischen Artefakten sucht.
Ein Akrostichon ist eine Botschaft in den Anfangsbuchstaben, z.B. zeilenweise:
Die Anfangsbuchstaben ergeben HIDE. Das ist Literaturtechnik, kann aber auch für versteckte Signale genutzt werden.
Sehr “zufällige” Zeichenfolgen (hohe Entropie) deuten häufig auf kodierte Daten hin (Tokens, Keys, Hashes, komprimierte Inhalte). Das ist nur ein Hinweis, kein Urteil.
Gleichförmige Muster oder häufige Wiederholungen können auf Templates, Copy-Paste oder maschinelle Produktion hindeuten aber genauso auf ganz normale Formulare, Protokolle oder juristische Texte.
Sehr verbreitet (Alltag, Plattformen, Security):
Im Aufbau, je nach Anbieter und Ökosystem:
Eher “Framework-/Ökosystem-Thema” (nicht nur Text, oft dateibasiert):
https://ulrischa.github.io/AIWatermarkDetector/
Das Tool aus dem Beitrag ist als “AI Markers & Watermark Artifact Scanner” konzipiert. Es arbeitet bewusst mit Evidenzstufen:
Was es konkret prüft (Auszug):
Zusätzlich kann optional eine PHP-API zugeschaltet werden, um serverseitig (z.B. mit ICU/IntlChar und Spoofchecker) robuste Checks zu fahren – besonders praktisch, wenn Browser-APIs (z.B. Dekompression) nicht verfügbar sind.
Den code gibt es auf GitHub
https://github.com/ulrischa/AIWatermarkDetector
Als erster einen Kommentar schreiben.
Schreibe einen Kommentar