11 – Wenn das Modell lügt, ohne zu wissen, dass es lügt: Halluzinationen erkennen und vermeiden

Teil 11 der Serie: Die Mathematik hinter großen Sprachmodellen verständlich erklärt

25 Juli 2025
Wolf galetzki datista speaker

Wolf Galetzki

Datista® – Growth through Data & AI

Mathematik der sprachmodelle
Teil 11 von 20 der Serie: Die Mathematik hinter LLMs

Sprachmodelle wie GPT-4, Claude oder Gemini beeindrucken mit flüssiger Sprache, scheinbarer Kompetenz – und gelegentlicher Dreistigkeit.

Denn:

LLMs haben kein Weltwissen. Sie simulieren Plausibilität.
Und das führt zu einem bekannten Phänomen: Halluzinationen.

In diesem Teil erfährst du:

  • Was Halluzinationen sind – und warum sie entstehen
  • Wie du sie erkennst – auch systematisch
  • Welche Strategien helfen, sie zu minimieren
  • Was du technisch tun kannst (Prompt-Design, RAG, Modellwahl)

Was sind Halluzinationen?

Eine Halluzination liegt vor, wenn ein Modell etwas Falsches behauptet – aber es selbst nicht weiß.
Typisch: erfundene Quellen, Fakten, Zitate, Produkte, Ereignisse.

Beispiele:

EingabeHalluzinierte Antwort
„Was sagt das Bundesdatenschutzgesetz §47?“„§47 regelt die Verwendung biometrischer Daten…“ (gibt es nicht)
„Welche Quellen nutzt die Studie von Prof. Mayer 2021?“Das Modell erfindet Quellen, die plausibel klingen.
„Was kostet ChatGPT Enterprise im August 2023?“Modell schätzt, aber gibt keinen wahren Wert an.

Warum halluzinieren LLMs?

Sprachmodelle sind Wahrscheinlichkeitsmaschinen.
Sie erzeugen nicht die Wahrheit, sondern die wahrscheinlichste nächste Token-Sequenz.

Das führt zu:

  1. Kohärenten, aber erfundenen Aussagen
  2. Unbegründeter Sicherheit im Tonfall
  3. Fehlender Selbstkorrektur bei Unsicherheit

LLMs kennen keine Wahrheit – sie kennen nur Wahrscheinlichkeitsverteilungen.

Warum ist das ein Problem?

Halluzinationen sind kein Schönheitsfehler – sie gefährden:

  • Vertrauen (besonders bei Kundenkontakt)
  • Rechtssicherheit (z. B. erfundene Normen)
  • Effizienz (falsche Infos führen zu Mehraufwand)
  • Markenimage (wenn KI öffentlich Falsches sagt)

Wie erkennst du Halluzinationen?

Manuell: durch Faktencheck

  • Fachlich fragwürdige Aussagen prüfen
  • Quellenverweise testen: Gibt es die wirklich?
  • Ungewöhnliche Begriffe / Konzepte hinterfragen

Automatisch: durch Tools & Muster

MethodeBeschreibung
Named Entity VerificationSind Orte, Gesetze, Personen erfunden?
Linkchecker für URLsExistieren die zitierten Seiten?
Internal Factbase QueryStimmt Aussage mit eigener Datenbasis überein?
LLM-zu-LLM ValidationZwei Modelle prüfen sich gegenseitig
Confidence Estimation ModelsMetamodel schätzt Zuverlässigkeit

Wie vermeidest du Halluzinationen?

1. Kontexteinschränkung via RAG

→ RAG zwingt das Modell, sich auf bereitgestellte Inhalte zu stützen.

Prompt-Beispiel:

„Antworte nur mit Informationen aus dem folgenden Text. Wenn dir etwas fehlt, erkläre, dass du es nicht weißt.“

→ Zusätzlich: Quellenangabe verlangen!

2. Promptdesign mit „Unsicherheits-Erlaubnis“

Viele Halluzinationen entstehen, weil das Modell denkt, es müsse unbedingt antworten.

Prompt-Taktik:

„Wenn du nicht sicher bist, formuliere eine ehrliche Rückfrage oder sage, dass du es nicht weißt.“

→ So reduzierst du falsche Sicherheit im Tonfall.

3. Modellwahl & Temperature

ModelltypTendenz zur Halluzination
Große Closed-Source-Modelle (GPT-4, Claude 3 Opus)relativ gering, aber nicht null
Open-Source-Modelle (Mixtral, Yi, LLaMA 3)stark promptabhängig
Ältere Modelle (GPT-3.5, LLaMA 2, BERT)hohe Rate, v. a. bei Fakten

Zusätzlich:

  • Nutze Temperature ≤ 0.7, um „kreative“ Ausschläge zu minimieren
  • Verwende systematische Prompt-Tests mit Benchmark-Fragen

4. Feedback-Loop und Logging

Wie in Teil 10 beschrieben:

  • Nutzerfeedback einholen (z. B. „Diese Antwort war falsch“)
  • Antwortverlauf analysieren
  • Chunk- oder Promptanpassung vornehmen

5. Optional: Externe Validierung (Human-in-the-Loop)

→ Besonders in sensiblen Kontexten (HR, Recht, Medizin)

  • Antworten werden moderiert
  • Falschinformationen werden „geflaggt“
  • Quellenpflicht wird durchgesetzt

Fazit & Ausblick

Halluzinationen sind kein Softwarefehler – sie sind ein grundlegendes Verhalten von LLMs.
Aber: Du kannst sie steuern, begrenzen und sichtbar machen.

Wer Halluzinationen ernst nimmt, schafft Vertrauen – intern wie extern.

In Teil 12 der Serie vergleichen wir gängige Modelle im Unternehmenskontext:
Open Source vs. Closed Source – wo lohnt sich welche Lösung?


FAQ – Häufige Fragen

Sind Halluzinationen vermeidbar?
Nicht vollständig. Aber du kannst sie stark reduzieren – durch RAG, gutes Promptdesign und Feedbackmechanismen.

Hilft ein größeres Modell?
Teilweise. GPT-4 und Claude 3 sind tendenziell stabiler. Aber auch sie halluzinieren – nur schöner.

Wie erkenne ich eine halluzinierte Quelle?
Teste die URL. Recherchiere das Zitat. Nutze ein Linkchecker-Tool oder eine Datenbankabfrage.

Was ist „Chain of Thought“ – hilft das gegen Halluzinationen?
Es kann helfen, weil es zu strukturierterem Denken führt – aber es ersetzt keine Faktensicherheit.

Wolf Galetzki

Berät Unternehmen bei der Einführung von KI und Automatisierung. Als Gründer von Datista liegt sein Fokus auf datensouveränen, anpassbaren Lösungen.

Wolf galetzki datista speaker

Alle Artikel der Serie:

Die Artikelserie "Die Mathematik hinter LLMs" umfasst insgesammt 20 Artikel. Folgende Artikel sind bereits veröffentlicht: