Für Berufsgeheimnisträger

Sie nutzen ChatGPT für Mandantenakten?

Anwälte, Steuerberater, Ärzte und Wirtschaftsprüfer unterliegen § 203 StGB. Wer Mandanten- oder Patientendaten über US-Cloud-Dienste verarbeitet, riskiert Strafverfahren und berufsrechtliche Konsequenzen. Wir hosten LLMs dort, wo Ihre Daten bleiben müssen: in Deutschland.

§ 203 StGB-konform
100% Deutsche Server
On-Prem möglich

Das Risiko

Jede Eingabe in ChatGPT kann
eine Straftat sein.

§ 203 StGB — Verletzung von Privatgeheimnissen

Wer als Berufsgeheimnisträger fremde Geheimnisse an Dritte offenbart, macht sich strafbar. Cloud-LLMs verarbeiten Ihre Eingaben auf US-Servern — das kann eine Offenbarung im Sinne des Gesetzes sein.

Berufsrechtliche Konsequenzen

Die Rechtsanwaltskammer, Steuerberaterkammer oder Ärztekammer kann berufsrechtliche Verfahren einleiten. Im schlimmsten Fall: Widerruf der Zulassung.

Daten auf US-Servern = kein Schutz

OpenAI, Google, Anthropic — alle können Daten in den USA verarbeiten wenn man es falsch konfiguriert. Kein europäischer Datenschutzstandard greift dort.

Mandanten und Patienten vertrauen Ihnen

Ihre Mandanten erwarten absolute Vertraulichkeit. Ein Datenleck oder eine Beschwerde zerstört dieses Vertrauen.

Die Lösung

LLMs, die in Deutschland bleiben.
§ 203-konform ab Tag 1.

Wir deployen leistungsfähige LLMs auf deutscher Infrastruktur oder direkt bei Ihnen vor Ort. Keine Daten verlassen Ihre Kontrolle — und Sie nutzen trotzdem modernste KI.

01

LLMs auf deutschen Servern

Wir betreiben GPT, Llama, Mistral und andere Modelle auf zertifizierten deutschen Rechenzentren. DSGVO-konform. Ihre Daten verlassen nie die deutsche Jurisdiktion.

Deutsche Rechenzentren · DSGVO-konform · Keine US-Server

02

On-Premises für maximale Kontrolle

Für höchste Sicherheitsanforderungen: Das LLM läuft direkt auf Ihrer eigenen Hardware. Kein Internet, kein Cloud-Anbieter, keine Dritten. Nur Sie und Ihre Daten.

Air-Gapped möglich · Ihre Hardware · Volle Datensouveränität

03

Fine-Tuning für Ihre Fachsprache

Juristische Terminologie, steuerrechtliche Fachbegriffe, medizinische Befundsprache — wir trainieren das Modell auf Ihr Fachgebiet. Bessere Ergebnisse als GPT-4 für Ihren spezifischen Anwendungsfall.

Domänenspezifisch · Bessere Qualität · Integration in DMS & E-Mail

Anwendungsfälle

Vier Berufsgruppen. Ein Problem.
Eine Lösung.

Anwälte & Kanzleien

Schriftsätze entwerfen, Rechtsprechung analysieren, Due-Diligence-Dokumente zusammenfassen — ohne dass Mandantengeheimnisse an OpenAI fließen. Integration in beA, DMS und Ihre Kanzleisoftware.

Steuerberater & WP

Steuerbescheide prüfen, Mandantenanfragen automatisiert beantworten, Jahresabschlüsse vorbereiten. DATEV-kompatibel, § 203-konform, ohne Datenabfluss an US-Server.

Ärzte & Kliniken

Befunde diktieren, Arztbriefe generieren, medizinische Literatur durchsuchen — mit einem LLM, das Patientendaten auf Ihrem Server verarbeitet. Kompatibel mit KIS und PVS.

Wirtschaftsprüfer & Berater

Prüfberichte erstellen, Vertragsdokumente analysieren, interne Compliance-Fragen beantworten. Mandantendaten bleiben in Ihrer Infrastruktur — garantiert.

Technologie

Open-Source-Modelle.
Enterprise-Infrastruktur.

Bei Bedarf setzen wir auf bewährte Open-Source-LLMs und betreiben sie auf Infrastruktur, die deutschen Compliance-Anforderungen entspricht.

Llama, Mistral, Mixtral & Co.

Aktuelle Open-Source-Modelle mit bis zu 70B+ Parametern. Leistung auf GPT-4-Niveau für domänenspezifische Aufgaben.

Deutsche Rechenzentren

Hosting ausschließlich in zertifizierten deutschen Rechenzentren. Verschlüsselt im Transit und at Rest.

API-kompatibel

OpenAI-kompatible API. Bestehende Tools und Integrationen funktionieren sofort — nur der Endpunkt ändert sich.

RAG & Wissensdatenbanken

Retrieval-Augmented Generation mit Ihren Dokumenten. Das Modell antwortet auf Basis Ihrer Akten, Verträge und Datenbanken.

Kein Training mit Ihren Daten

Ihre Eingaben werden nie zum Training verwendet. Keine Datenweitergabe, keine Logs bei Drittanbietern. Garantiert.

Managed oder Self-Managed

Wir übernehmen Betrieb, Updates und Monitoring — oder übergeben Ihnen die volle Kontrolle. Sie entscheiden.

Der Ablauf

Von Anforderung zu Live-System.
In 4–8 Wochen.

01

Compliance-Analyse

Wir analysieren Ihre § 203-Anforderungen, bestehende Systeme und Anwendungsfälle. Welche Daten verarbeiten Sie? Was brauchen Sie?

Woche 1
02

Architektur & Modellwahl

Wir definieren die Infrastruktur: Deutsches RZ oder On-Prem? Welches Modell? Welche Integrationen? Sie entscheiden mit.

Woche 1–2
03

Deployment & Fine-Tuning

Das LLM wird aufgesetzt, konfiguriert und auf Ihre Fachsprache trainiert. Sie testen mit echten Anwendungsfällen.

Woche 3–6
04

Go-Live & Support

Die Lösung geht in den Produktivbetrieb. Wir schulen Ihr Team und stehen für Support und Weiterentwicklung bereit.

Woche 6–8

Häufige Fragen

Was Berufsgeheimnisträger uns vor dem Erstgespräch fragen.

Was genau ist das Problem mit ChatGPT und § 203 StGB?

Wenn Sie als Anwalt, Steuerberater oder Arzt Mandanten- oder Patientendaten in ChatGPT eingeben, werden diese Daten an OpenAI-Server potentiell in den USA übermittelt. Das kann rechtlich eine Offenbarung fremder Geheimnisse im Sinne von § 203 StGB darstellen. Selbst wenn OpenAI die Daten nicht aktiv nutzt, ist die Übermittlung selbst das Problem.

Reicht eine Auftragsverarbeitungsvereinbarung (AVV) mit OpenAI nicht aus?

Nein. § 203 StGB geht über die DSGVO hinaus. Eine AVV regelt den Datenschutz, aber § 203 verbietet die Offenbarung von Geheimnissen an Dritte — unabhängig davon, ob eine AVV besteht.

Welche LLM-Modelle setzen Sie ein?

Wir arbeiten mit den besten verfügbaren Open-Source-Modellen: Llama 3, Mistral, Mixtral, Qwen und weitere. Die Modellwahl hängt von Ihrem Anwendungsfall ab — für juristische Texte empfehlen wir andere Modelle als für medizinische Befunde. Wir beraten Sie dazu im Erstgespräch.

Wie gut sind Open-Source-Modelle im Vergleich zu GPT-4?

Für allgemeine Aufgaben ist GPT-4 noch leicht im Vorteil. Für domänenspezifische Aufgaben — also genau das, was Berufsgeheimnisträger brauchen — erreichen abgestimmte Open-Source-Modelle vergleichbare oder bessere Ergebnisse. Entscheidend ist das Fine-Tuning auf Ihre Fachsprache.

Kann ich meine bestehenden Tools weiter nutzen?

Ja. Unser Hosting bietet eine OpenAI-kompatible API. Wenn Sie bereits Tools oder Workflows nutzen, die mit ChatGPT oder der OpenAI API arbeiten, müssen Sie nur den Endpunkt austauschen. Alles andere bleibt gleich.

Was kostet das?

Eine Compliance-Analyse beginnt ab 3.000 €. Das Setup eines selbst gehosteten LLM ab 5.000 €. Laufende Hosting-Kosten hängen von der Modellgröße und Nutzung ab — wir kalkulieren transparent vor Projektstart. Keine versteckten Kosten.

Wie lange dauert die Umsetzung?

Von der Erstanalyse bis zum produktiven System rechnen Sie mit 4–8 Wochen. Ein einfaches Hosting-Setup kann auch in 2 Wochen live sein. Komplexere Projekte mit Fine-Tuning und Integrationen dauern entsprechend länger.

Was, wenn sich die Rechtslage ändert?

Unsere Architektur ist flexibel. Wenn neue Regelungen kommen oder Sie den Anbieter wechseln möchten, sind Sie nicht eingesperrt. Open-Source-Modelle und standardisierte APIs geben Ihnen maximale Flexibilität.

Kostenlos & unverbindlich

30 Minuten, die Ihre Kanzlei
§ 203-sicher machen.

Sie schildern Ihre Situation. Wir sagen ehrlich, ob Self-Hosted LLMs für Sie Sinn ergeben — und wie die Umsetzung aussieht. Kein Sales-Pitch, keine Verpflichtung.

30 Min. kostenloses Erstgespräch
§ 203 StGB-konform
Deutsche Infrastruktur

Oder direkt anrufen:

089 277 801820