Vor ein paar Monaten erzählte mir ein Anwalt, dass er Schriftsätze mit ChatGPT entwirft – inklusive Mandantennamen, Aktenzeichen, Diagnosen. Mir wurde klar: das ist ein §203-Problem mit Ansage.
Wer Berufsgeheimnisträger ist – Anwälte, Ärzte, Steuerberater, Notare – und Mandantendaten an ChatGPT/Claude/Gemini schickt, verletzt §203 StGB. Cloudflares AI Gateway blockt solche Anfragen einfach. Aber „blockieren“ ist keine Lösung für jemanden der die KI braucht. Die richtige Antwort ist „JA, aber sicher“.
Sauber lösbar ist das Problem nur an einer Stelle: im Browser. Bevor die Daten den Rechner verlassen.
Saklam erkennt personenbezogene Daten im Browser und ersetzt sie durch Tokens – [NAME_1], [AZ_2], [ADRESSE_1]. Das LLM sieht nur Tokens. Die Antwort wird im Browser wieder mit den echten Daten zusammengeführt. Auf dem Server fließen keine Klardaten.
Der Stack:
- GLiNER-PII-Modelle, lokal im Browser (~200 MB Modell-Cache)
- ONNX Runtime Web für Inference
- LiteLLM als Proxy (Auth, Routing, Audit-Log)
- Provider-agnostisch – OpenAI, Anthropic, Google
Das Ganze gibt es als Web-Chat, Desktop-App, JavaScript-SDK und Docker für On-Premise. Die Zugriffsstufe folgt der Sensitivität: Web-Chat für Tagesgeschäft, Desktop für vertrauliche Akten, Docker für Kanzleien mit eigenem Server.
