Start Grundlagen Vereinfachung Angebote Knowledge Base Prompt-Bibliothek Blog Kontakt
Datenschutz · AI Compliance

Die Komplexität des Datenschutzes bei KI-Modellen

Datenschutzgesetze wurden für eine Welt gebaut, in der Daten in Datenbanken liegen – abrufbar, löschbar, kategorisierbar. Large Language Models funktionieren nach einem grundlegend anderen Prinzip: Sie absorbieren Daten beim Training und verteilen das Wissen über Millionen von Parametern, ohne dass einzelne Informationseinheiten danach noch isoliert auffindbar wären. Dieser strukturelle Widerspruch zwischen Rechtsnorm und technischer Realität ist kein Randproblem – er ist das Kernproblem jeder KI-Compliance-Strategie in der Schweiz und im DACH-Raum.

Rechtlicher Kontext: Das revidierte Schweizer Datenschutzgesetz (nDSG) ist seit dem 1. September 2023 in Kraft und orientiert sich stark an der europäischen DSGVO. Schweizer Unternehmen, die KI-Systeme einsetzen, stehen damit vor einem doppelten Regelwerk.
01

Das „Recht auf Vergessenwerden" vs. Unumkehrbarkeit

Artikel 17 DSGVO und das nDSG-Äquivalent garantieren betroffenen Personen das Recht auf Löschung. In einer klassischen SQL-Datenbank ist das ein DELETE – operativ trivial. Bei einem trainierten neuronalen Netz existiert kein solcher Befehl. Daten werden in die Gewichtungsmatrix eingearbeitet, ohne isoliert lokalisierbar zu sein.

Machine Unlearning: der aktuelle Stand

Die Forschungsrichtung Machine Unlearning versucht gezielte Anpassungen, um den Einfluss spezifischer Trainingsdaten zu minimieren. Ansätze wie SISA Training (Sharded, Isolated, Sliced, and Aggregated) existieren, sind aber für grosse Modelle derzeit weder skalierbar noch zuverlässig genug für den Rechtsbeweis. In der Praxis müssen Unternehmen Modelle oft neu trainieren oder nachweisen, dass Daten nicht reproduzierbar sind.

Praxishinweis für Schweizer KMU: Kritisch wird es primär, wenn eigene Daten für Fine-Tuning, RAG-Systeme oder eigene Modelle verwendet werden.
02

Mangelnde Transparenz – Das Blackbox-Problem

DSGVO und nDSG verpflichten zur Auskunft über automatisierte Entscheidungen. Transformer-Modelle bieten jedoch keine direkte kausale Erklärung für Ausgaben. Es gibt keinen isolierbaren „Entscheidungspfad", der sich einem Menschen einfach erklären liesse.

Explainable AI (XAI): Werkzeuge mit Grenzen

Methoden wie SHAP-Werte oder LIME liefern nur post-hoc Näherungserklärungen. Für hochregulierte Bereiche wie Kreditvergabe oder medizinische Diagnosen reichen sie als Rechtsgrundlage allein nicht aus.

Unterschied Schweiz/EU: Der EU AI Act klassifiziert KI-Systeme in Risikoklassen. Hochrisiko-KI (HR, Kredit, Bildung) unterliegt expliziten Transparenzpflichten. Schweizer Unternehmen, die EU-Daten verarbeiten, fallen darunter.
03

Datenminimierung vs. „Data Hunger" der KI

Datenminimierung (Art. 5 DSGVO) verlangt Sparsamkeit. LLMs benötigen Billionen von Tokens für ihre Leistungsfähigkeit. Die Masse macht die Generalisierung erst möglich.

Öffentlich zugänglich ≠ rechtlich unbedenklich

Ein LinkedIn-Profil von 2015 gilt nicht automatisch als frei für KI-Training verwertbar, da Nutzer nicht damit rechnen mussten. KI-Verfahren gegen OpenAI und Meta laufen in mehreren EU-Ländern bereits.

04

Zweckbindung vs. General Purpose AI

Zweckbindung (Art. 5 DSGVO) verlangt, dass Daten nur für den erhobenen Zweck genutzt werden. Generalist-LLMs sind per Definition zweckoffen. Der EU AI Act adressiert dies mit der Kategorie General Purpose AI Models (GPAI), was Anbieter zu technischer Dokumentation und Urheberrechtsrichtlinien verpflichtet.

Empfehlung: Dokumentieren Sie den Einsatzzweck präzise im System Prompt – das hilft rechtlich und verbessert die KI-Verlässlichkeit.
05

Das Risiko der Re-Identifizierung

KI-Systeme können Muster erkennen, die für Menschen unsichtbar bleiben, und so anonymisierte Daten „re-identifizieren" (Inferenzangriff).

Konkrete Angriffsszenarien

  • Membership Inference Attack: Erschliesst, ob ein Datenpunkt im Training enthalten war.
  • Model Inversion: Rekonstruiert Trainingsdaten (z.B. Gesichtszüge) aus Modellausgaben.
  • Attribute Inference: Sagt unbekannte sensible Attribute (Gesundheit, Gesinnung) statistisch genau voraus.
Kritischer Punkt: Klassische Anonymisierung, die vor dem KI-Zeitalter als sicher galt, muss unter dem Aspekt moderner Inferenzfähigkeiten re-evaluiert werden.

Was Schweizer Unternehmen konkret tun können

Massnahme Adressiert Konflikt Aufwand
Kein Modelltraining auf Kundendaten ohne DSFA01, 03Gering
Einsatzzweck im System Prompt präzise definieren02, 04Gering
Vertragsklauseln mit LLM-Anbietern prüfen (Logging)01, 03Mittel
Scope Limitation im System Prompt umsetzen02, 04Gering
Anonymisierungskonzepte re-evaluieren05Hoch
Datenschutz-Folgenabschätzung (nDSG Art. 22)01-05Mittel
Klarer Vorteil kleiner Teams: Schweizer KMU, die KI primär über externe APIs und mit System Prompts nutzen, haben ein deutlich überschaubareres Risiko als Unternehmen mit eigenem Training.

Nächste Schritte

Die regulatorische Landschaft ist in Bewegung. Wer heute die fünf Konfliktfelder dokumentiert, ist morgen besser aufgestellt. CuonzTech ThinkLab begleitet Sie hierbei mit massgeschneiderten Workshops.