08 – DSGVO, AI Act & Co.: Wie du LLMs rechtskonform und verantwortungsvoll einsetzt

Teil 8 der Serie: Die Mathematik hinter großen Sprachmodellen verständlich erklärt

22 Juli 2025
Wolf galetzki datista speaker

Wolf Galetzki

Datista® – Growth through Data & AI

Mathematik der sprachmodelle
Teil 8 von 20 der Serie: Die Mathematik hinter LLMs

In Teil 7 der Serie hast du erfahren, wie Unternehmen eigene LLM-Lösungen technisch umsetzen können – von Modellwahl bis Hosting.

Jetzt wird es ernst: Was ist rechtlich erlaubt? Was ist riskant? Und was kommt noch auf dich zu?

In diesem Teil erhältst du:

  • Einen Überblick über die wichtigsten Rechtsrahmen (DSGVO, AI Act)
  • Konkrete Kriterien für die Nutzung von Sprachmodellen im Unternehmen
  • Tipps zur technischen und organisatorischen Umsetzung
  • Eine Einordnung typischer Irrtümer und Grauzonen

🔐 Datenschutz-Grundverordnung (DSGVO)

Die DSGVO regelt den Umgang mit personenbezogenen Daten – also allen Informationen, die sich auf eine identifizierbare Person beziehen.

🔹 Was du prüfen musst

PrüffrageBedeutung für LLMs
Werden personenbezogene Daten verarbeitet?Schon bei Kundenanfragen, E-Mails, HR-Daten relevant
Wird der Zweck klar benannt?Reine Neugier ist kein zulässiger Verarbeitungsgrund
Ist die Verarbeitung erforderlich?LLMs dürfen nicht „auf Vorrat“ Daten verarbeiten
Gibt es eine Rechtsgrundlage?z. B. Einwilligung, Vertrag, berechtigtes Interesse
Können Betroffene ihre Rechte wahrnehmen?Auskunft, Berichtigung, Löschung muss möglich sein

📌 Typische Fehlerquellen

  • Blindes Einfügen von Klardaten in externe Chatbots
  • Verwendung von API-Modellen ohne EU-Hosting
  • Speicherung von Logs ohne Anonymisierung
  • Kein Verfahren zur Löschung von Prompt-Daten

Tipp: Tools wie GPT-4 via Azure oder Aleph Alpha bieten technisch DSGVO-konforme Umgebungen – rechtlich verantwortlich bleibst aber du als Betreiber.


🧑‍⚖️ Der EU AI Act: Was jetzt kommt

Der EU AI Act ist das erste umfassende KI-Gesetz weltweit.
Er wurde 2024 final verabschiedet und gilt ab 2025 stufenweise, abhängig vom Risiko deiner Anwendung.

🔸 Risikoklassen nach dem AI Act

RisikoklasseBeispielhafte AnwendungenAnforderungen
UnakzeptabelSocial Scoring, heimliche ÜberwachungVerboten
HochrisikoMedizin, Justiz, kritische InfrastrukturRegistrierung, Audit, Doku
Begrenzt riskantChatbots, HR-Tools, Customer SupportTransparenz, Nutzungskennzeichnung
Geringes RisikoSpiele, IdeengeneratorenKeine expliziten Anforderungen

→ Sprachmodelle gelten in vielen Fällen als „begrenztes Risiko“, können aber bei sensibler Nutzung (z. B. Personalentscheidungen) in „Hochrisiko“ fallen.


📜 Pflichten für Unternehmen

Je nach Risikoklasse gelten unterschiedliche Vorgaben:

🔹 Transparenzpflichten (fast immer)

  • Nutzer:innen müssen erkennen, dass sie mit einer KI sprechen
  • Bei Deepfakes, synthetischer Sprache, Text oder Bild: Kennzeichnungspflicht
  • Bei Assistenzsystemen: Hinweis auf Automatisierung

🔹 Dokumentationspflichten (Hochrisiko)

  • Beschreibung des Modells, der Trainingsdaten und der Funktion
  • Nachvollziehbare Tests und Qualitätssicherung
  • Maßnahmen gegen Diskriminierung und Fehler
  • Logging von Entscheidungen und Eingaben

🛠️ Technische Maßnahmen für Compliance

Schon mit einfachen Mitteln kannst du viel erreichen:

✅ Mindestmaßnahmen

MaßnahmeBeispiel-Tools / Methoden
Anonymisierung der EingabenPre-Processing mit Named Entity Removal (NER)
Logging ohne personenbezogene DatenHashing, Pseudonymisierung
Zugriffsmanagement & RollenrechteSSO, LDAP, API-Tokens mit ACL
Prompt-Filter / InhaltsregelnPromptGuard, Regex-Filter, Moderation APIs
Löschkonzepte für Daten & LogsZeitgesteuerte Rotation, User-Verwaltung

🌍 Anbieter-Check: DSGVO-kompatibel?

AnbieterOrtDSGVO-konform nutzbar?Bemerkung
Azure OpenAIEU (wählbar)✅ (bei korrekter Konfiguration)Verträge, Protokollierung notwendig
Aleph AlphaDeutschlandFokus auf EU-Konformität
MistralFrankreich✅ (Selfhosted)Kompakt & Open Source
OpenAI.comUSA⚠️ nicht ohne zusätzliche MaßnahmenKein EU-Datenschutz von Haus aus
AnthropicUSA⚠️ ähnlich wie OpenAIDatenfluss nicht kontrollierbar
OpenGPT-XEU✅ (selbst gehostet)EU-Forschungsprojekt

Grundregel: Je näher am EU-Rechtsraum und je selbstbetriebener das System – desto einfacher wird der rechtssichere Einsatz.


🧩 Strategie für Unternehmen: Technisch stark, rechtlich abgesichert

1. Use Cases kategorisieren

→ Welche Anwendungen fallen in welche Risikoklasse?

2. Rollen und Verantwortungen klären

→ Wer ist Betreiber, wer kontrolliert, wer dokumentiert?

3. Modellwahl mit Compliance-Fokus

→ Kannst du das Modell erklären, auditieren, kontrollieren?

4. Technische Schutzmaßnahmen implementieren

→ Logging, Promptfilter, Rechtevergabe etc.

5. Prozess für Änderungen und Updates definieren

→ Versionierung, Nachschulung, neue Risiken prüfen


📌 Fazit & Ausblick

Die LLM-Welt ist nicht nur technisch spannend – sie ist auch rechtlich in Bewegung.
Mit der DSGVO und dem AI Act gibt es klare Leitplanken – und immer mehr Tools, die dir helfen, dich innerhalb dieser Regeln sicher zu bewegen.

Wer frühzeitig auf Kontrolle, Transparenz und Dokumentation setzt, hat später nicht nur weniger Risiko – sondern auch einen Wettbewerbsvorteil.

In Teil 9 der Serie schauen wir uns an:
Wie funktioniert ein Retrieval-Augmented Generation System (RAG)?
Also: Wie bringst du dein eigenes Wissen in ein LLM – ganz ohne fehleranfälliges Finetuning?


❓ FAQ – Häufige Fragen

Darf ich GPT-4 in meinem Unternehmen einfach so nutzen?
Nur über DSGVO-konforme Anbieter (z. B. Azure) und mit geeigneten Schutzmaßnahmen.

Was ist, wenn ich ein Open-Source-Modell selbst betreibe?
Dann bist du allein verantwortlich – aber hast volle Kontrolle über Daten und Sicherheit.

Brauche ich jetzt schon AI Act-Dokumentation?
Je nach Anwendung ja – spätestens aber, wenn deine Lösung als Hochrisiko-KI gilt.

Kann ich mit RAG die Datenschutzprobleme lösen?
Teilweise – weil du keine Daten ins Modell selbst einbaust. Aber auch RAG braucht Schutzmaßnahmen.

Wolf Galetzki

Berät Unternehmen bei der Einführung von KI und Automatisierung. Als Gründer von Datista liegt sein Fokus auf datensouveränen, anpassbaren Lösungen.

Wolf galetzki datista speaker

Alle Artikel der Serie:

Die Artikelserie "Die Mathematik hinter LLMs" umfasst insgesammt 20 Artikel. Folgende Artikel sind bereits veröffentlicht: