Sprachmodelle wie GPT-4, Claude oder Gemini beeindrucken mit flüssiger Sprache, scheinbarer Kompetenz – und gelegentlicher Dreistigkeit.
Denn:
LLMs haben kein Weltwissen. Sie simulieren Plausibilität.
Und das führt zu einem bekannten Phänomen: Halluzinationen.
In diesem Teil erfährst du:
- Was Halluzinationen sind – und warum sie entstehen
- Wie du sie erkennst – auch systematisch
- Welche Strategien helfen, sie zu minimieren
- Was du technisch tun kannst (Prompt-Design, RAG, Modellwahl)
Was sind Halluzinationen?
Eine Halluzination liegt vor, wenn ein Modell etwas Falsches behauptet – aber es selbst nicht weiß.
Typisch: erfundene Quellen, Fakten, Zitate, Produkte, Ereignisse.
Beispiele:
Eingabe | Halluzinierte Antwort |
---|---|
„Was sagt das Bundesdatenschutzgesetz §47?“ | „§47 regelt die Verwendung biometrischer Daten…“ (gibt es nicht) |
„Welche Quellen nutzt die Studie von Prof. Mayer 2021?“ | Das Modell erfindet Quellen, die plausibel klingen. |
„Was kostet ChatGPT Enterprise im August 2023?“ | Modell schätzt, aber gibt keinen wahren Wert an. |
Warum halluzinieren LLMs?
Sprachmodelle sind Wahrscheinlichkeitsmaschinen.
Sie erzeugen nicht die Wahrheit, sondern die wahrscheinlichste nächste Token-Sequenz.
Das führt zu:
- Kohärenten, aber erfundenen Aussagen
- Unbegründeter Sicherheit im Tonfall
- Fehlender Selbstkorrektur bei Unsicherheit
LLMs kennen keine Wahrheit – sie kennen nur Wahrscheinlichkeitsverteilungen.
Warum ist das ein Problem?
Halluzinationen sind kein Schönheitsfehler – sie gefährden:
- Vertrauen (besonders bei Kundenkontakt)
- Rechtssicherheit (z. B. erfundene Normen)
- Effizienz (falsche Infos führen zu Mehraufwand)
- Markenimage (wenn KI öffentlich Falsches sagt)
Wie erkennst du Halluzinationen?
Manuell: durch Faktencheck
- Fachlich fragwürdige Aussagen prüfen
- Quellenverweise testen: Gibt es die wirklich?
- Ungewöhnliche Begriffe / Konzepte hinterfragen
Automatisch: durch Tools & Muster
Methode | Beschreibung |
---|---|
Named Entity Verification | Sind Orte, Gesetze, Personen erfunden? |
Linkchecker für URLs | Existieren die zitierten Seiten? |
Internal Factbase Query | Stimmt Aussage mit eigener Datenbasis überein? |
LLM-zu-LLM Validation | Zwei Modelle prüfen sich gegenseitig |
Confidence Estimation Models | Metamodel schätzt Zuverlässigkeit |
Wie vermeidest du Halluzinationen?
1. Kontexteinschränkung via RAG
→ RAG zwingt das Modell, sich auf bereitgestellte Inhalte zu stützen.
Prompt-Beispiel:
„Antworte nur mit Informationen aus dem folgenden Text. Wenn dir etwas fehlt, erkläre, dass du es nicht weißt.“
→ Zusätzlich: Quellenangabe verlangen!
2. Promptdesign mit „Unsicherheits-Erlaubnis“
Viele Halluzinationen entstehen, weil das Modell denkt, es müsse unbedingt antworten.
Prompt-Taktik:
„Wenn du nicht sicher bist, formuliere eine ehrliche Rückfrage oder sage, dass du es nicht weißt.“
→ So reduzierst du falsche Sicherheit im Tonfall.
3. Modellwahl & Temperature
Modelltyp | Tendenz zur Halluzination |
---|---|
Große Closed-Source-Modelle (GPT-4, Claude 3 Opus) | relativ gering, aber nicht null |
Open-Source-Modelle (Mixtral, Yi, LLaMA 3) | stark promptabhängig |
Ältere Modelle (GPT-3.5, LLaMA 2, BERT) | hohe Rate, v. a. bei Fakten |
Zusätzlich:
- Nutze Temperature ≤ 0.7, um „kreative“ Ausschläge zu minimieren
- Verwende systematische Prompt-Tests mit Benchmark-Fragen
4. Feedback-Loop und Logging
Wie in Teil 10 beschrieben:
- Nutzerfeedback einholen (z. B. „Diese Antwort war falsch“)
- Antwortverlauf analysieren
- Chunk- oder Promptanpassung vornehmen
5. Optional: Externe Validierung (Human-in-the-Loop)
→ Besonders in sensiblen Kontexten (HR, Recht, Medizin)
- Antworten werden moderiert
- Falschinformationen werden „geflaggt“
- Quellenpflicht wird durchgesetzt
Fazit & Ausblick
Halluzinationen sind kein Softwarefehler – sie sind ein grundlegendes Verhalten von LLMs.
Aber: Du kannst sie steuern, begrenzen und sichtbar machen.
Wer Halluzinationen ernst nimmt, schafft Vertrauen – intern wie extern.
In Teil 12 der Serie vergleichen wir gängige Modelle im Unternehmenskontext:
Open Source vs. Closed Source – wo lohnt sich welche Lösung?
FAQ – Häufige Fragen
Sind Halluzinationen vermeidbar?
Nicht vollständig. Aber du kannst sie stark reduzieren – durch RAG, gutes Promptdesign und Feedbackmechanismen.
Hilft ein größeres Modell?
Teilweise. GPT-4 und Claude 3 sind tendenziell stabiler. Aber auch sie halluzinieren – nur schöner.
Wie erkenne ich eine halluzinierte Quelle?
Teste die URL. Recherchiere das Zitat. Nutze ein Linkchecker-Tool oder eine Datenbankabfrage.
Was ist „Chain of Thought“ – hilft das gegen Halluzinationen?
Es kann helfen, weil es zu strukturierterem Denken führt – aber es ersetzt keine Faktensicherheit.