Produkt / DSGVO & Compliance
Compliance by Design — nicht by Contract
Die grundlegendste Compliance-Eigenschaft dieser Lösung ist architektonisch: Keine personenbezogenen Daten, keine proprietären Informationen und keine vertraulichen Geschäftsinhalte verlassen jemals Ihre eigene Infrastruktur.
Datensouveränität durch Architektur
Kein Vertrag kann ersetzen, was die Architektur garantiert
Es gibt keinen Auftragsverarbeitungsvertrag mit einem Cloud-KI-Anbieter, keine grenzüberschreitende Datenübertragung und keinen Drittanbieter-Subprozessor für KI-Berechnungen. Das ist Compliance by Design — nicht by Contract.
Cloud-KI (Status Quo)
- Daten auf externen Servern verarbeitet
- DSGVO-Risiko durch Drittlandtransfers
- Unvorhersehbare Per-Token-Kosten
- Vendor Lock-in, Modellwechsel
- Rate Limits, Internetabhängigkeit
- Datenaufbewahrung vertragsabhängig
contboxx Vault (Lokal)
- Alle Daten bleiben on-premises
- Volle DSGVO-Compliance by Design
- Fixe Investition, keine Token-Kosten
- Volle Kontrolle, Modell-Versionierung
- Dedizierte Kapazität, keine Limits
- Datenlebenszyklus unter eigenem DSB
DSGVO-Compliance-Matrix
Artikel für Artikel geprüft
Vollständige Zuordnung der DSGVO-Anforderungen und des EU AI Acts zur contboxx Vault Architektur.
| Kategorie | Anforderung / Maßnahme | Status |
|---|---|---|
| Art. 5 | Personenbezogene Daten werden ausschließlich on-premises verarbeitet, keine externe Übertragung | Erfüllt |
| Art. 5 | Datenminimierung: Nur rollenbasiert autorisierte Dokumente werden abgefragt | Erfüllt |
| Art. 6 | Rechtsgrundlage: Berechtigtes Interesse / Vertrag, keine Einwilligung für interne KI-Tools erforderlich | Erfüllt |
| Art. 13/14 | Mitarbeiter werden via Datenschutzhinweis informiert, dass KI interne Anfragen verarbeitet | Konfiguration |
| Art. 17 | Recht auf Löschung: Dokument aus Atlas löschen entfernt es aus jedem KI-Kontext — keine Cloud-Aufbewahrung | Erfüllt |
| Art. 22 | Keine vollautomatisierten Entscheidungen, die Personen betreffen — KI ist ausschließlich Beratungswerkzeug | Erfüllt |
| Art. 25 | Privacy by Design: Kein externer Subprozessor, lokale Architektur erzwingt Datenschutz | Erfüllt |
| Art. 28 | Kein Auftragsverarbeitungsvertrag mit KI-Anbieter erforderlich (kein externer Auftragsverarbeiter) | Erfüllt |
| Art. 32 | Technische Sicherheit: mTLS zwischen Atlas und LLM-API, JWT-Authentifizierung, verschlüsselter Speicher | Konfiguration |
| Art. 35 | DSFA empfohlen für KI-gestützte HR-/Compliance-Anwendungsfälle; einfacherer Umfang als bei Cloud-KI | Konfiguration |
| Art. 44–49 | Keinerlei Drittlandtransfer (EU-Standardklauseln nicht erforderlich) | Erfüllt |
| EU AI Act Art. 9 | Risikomanagement: KI als internes Wissenswerkzeug ist Niedrigrisiko-Kategorie | Erfüllt |
| EU AI Act Art. 13 | Transparenz: Atlas-Oberfläche kennzeichnet KI-generierte Inhalte | Konfiguration |
„Erfüllt" = architektonisch garantiert. „Konfiguration" = wird im Rahmen der Installation projektspezifisch umgesetzt.
Technische Sicherheitsmaßnahmen
Enterprise-Security ab Tag 1
Die folgenden Sicherheitskontrollen sind Bestandteil jeder Standard-Installation:
Netzwerkisolation
DGX Spark Cluster und contboxx Atlas Server befinden sich in einem isolierten VLAN ohne direkten Internetzugang. KI-API-Aufrufe erfolgen ausschließlich über das interne Netzwerk.
Mutual TLS (mTLS)
Jede API-Kommunikation zwischen Atlas und dem Inference Server ist mit zertifikatsbasierter gegenseitiger Authentifizierung verschlüsselt.
JWT-basierte Autorisierung
Jede API-Anfrage enthält ein signiertes Token mit der Atlas-Identität und Rolle des anfragenden Nutzers — für lückenlose Auditierung aller KI-Abfragen.
Audit-Logging
Alle LLM-Anfragen werden protokolliert (Query-Hash, Nutzer-ID, Modell-Tier, Zeitstempel, Antwortlatenz) — ohne den vollständigen Abfragetext zu speichern. Balance zwischen Nachvollziehbarkeit und Datenschutz.
Rollenisolation
Die Inference-Schicht stellt sicher, dass der an die KI übergebene Dokumentkontext nur Dokumente enthält, für die der anfragende Nutzer Atlas-Leseberechtigungen hat.
Verschlüsselung at Rest
DGX Spark NVMe-Speicher ist verschlüsselt. Modellgewichte und Dokumentindizes werden auf verschlüsselten Volumes gespeichert.
Kein Training auf Kundendaten
Die eingesetzten Open-Weight-Modelle werden ausschließlich für Inferenz verwendet. Keine Nutzeranfragen werden für Fine-Tuning verwendet, es sei denn, dies wird explizit von der Organisation initiiert.
Patch-Management
NVIDIA DGX OS (Ubuntu-basiert) erhält Sicherheitsupdates. Der KI-Stack (SGLang, CUDA-Bibliotheken) wird in einem definierten Patch-Zyklus gepflegt.
Physische Sicherheit
Hardware befindet sich im eigenen Rechenzentrum der Organisation unter bestehenden physischen Zugangskontrollen.
Restrisiken & Mitigationen
Transparenter Umgang mit Restrisiken
| Restrisiko | Wahrscheinlichkeit | Mitigation |
|---|---|---|
| Modell-Halluzination in Dokumentzusammenfassungen | Niedrig–Mittel | RAG-Grounding, immer Quellenangaben; menschliche Prüfung für kritische Dokumente |
| Unbefugter interner Zugriff auf KI-Audit-Logs | Niedrig | Log-Zugriff auf DSB und Sicherheitsteam beschränken |
| Modellgewichte-Exfiltration über kompromittierten Node | Sehr niedrig | Verschlüsselter Speicher, kein externer NIC im Compute-VLAN |
| Supply-Chain-Risiko bei Open-Weight-Modell | Niedrig | Prüfsummenverifizierung beim Modell-Download; Air-Gap nach Installation |
Compliance-Fragen? Wir haben Antworten.
Sprechen Sie mit unserem Team über DSGVO, EU AI Act und Ihre spezifischen Compliance-Anforderungen.
Gespräch vereinbaren