06 – Sprachmodell ist nicht gleich Sprachmodell: Wofür LLMs wirklich trainiert werden

Teil 6 der Serie: Die Mathematik hinter großen Sprachmodellen verständlich erklärt

18 Juli 2025
Wolf galetzki datista speaker

Wolf Galetzki

Datista® – Growth through Data & AI

Mathematik der sprachmodelle
Teil 7 von 20 der Serie: Die Mathematik hinter LLMs

In Teil 5 der Serie haben wir das Innenleben eines Transformers kennengelernt.
Heute wechseln wir die Perspektive: Was passiert nach dem Training – wenn LLMs „in die Welt kommen“?

Denn nicht jedes Sprachmodell funktioniert gleich:
Einige sind Alleskönner, andere spezialisierte Werkzeuge. Einige verstehen Sprache, andere sehen, hören oder programmieren.

In diesem Teil schauen wir auf:

  • Die verschiedenen Typen von LLMs
  • Ihre Zielsetzungen und Spezialisierungen
  • Den Einfluss von Multimodalität und API-Anbindung
  • Die Bedeutung von Sicherheit, Steuerbarkeit und Energieeffizienz

LLM-Typen im Überblick: Vom Generalisten zum Spezialisten

LLMs lassen sich grob in drei Anwendungsgruppen einteilen:

TypZielsetzungBeispielmodelle
General PurposeBreite SprachverarbeitungGPT-4, Claude 3 Sonnet, Gemini Pro
FachmodellDomänenspezifische AnwendungenMed-PaLM, BloombergGPT, LawGPT
WerkzeugmodellKlar umrissene AufgabenDeepSeek-Coder, Claude 3 Opus, Devin

Generalisten verstehen viel, aber oft oberflächlich. Spezialisten liefern bessere Ergebnisse in ihrem Bereich – sind aber weniger flexibel.

Spezialisierung: Wie sich LLMs auf Aufgaben trimmen lassen

Viele Modelle entstehen heute durch Finetuning oder Instruction Tuning auf bestimmte Themenbereiche.

Beispiele:

  • Medizinische Modelle wie Med-PaLM oder BioGPT sind auf Fachvokabular, Klassifikationen und klinische Entscheidungslogik trainiert.
  • Finanzmodelle wie BloombergGPT analysieren Marktnachrichten, Berichte und Börsenzahlen.
  • Juristische Modelle wie LawGPT wurden mit Gesetzestexten, Urteilen und Kommentaren trainiert – oft auch mit Argumentationsdaten.

Diese Spezialisierungen führen zu höherer Genauigkeit, aber auch zu einem schmaleren Anwendungsbereich.

Multimodalität: Wenn Modelle mehr als Text verstehen

Moderne Modelle können zunehmend auch Bilder, Audio oder Video verarbeiten.

ModusBeispieleGenutzte Modelle
Text → BildPrompt zu Illustration (DALL·E, Midjourney)DALL·E, Stable Diffusion, Ideogram
Bild → TextBildbeschreibung, OCRGemini 1.5, GPT-4V, Claude 3
Audio → TextSpracherkennungWhisper, Gemini, OpenVoice
Video → AnalyseBewegungs- und SzenenerkennungRunway, Pika Labs, DeepMind RT-2

Diese multimodalen Systeme bestehen meist aus Kombinationen mehrerer Modelle – oder bauen auf Transformer-Varianten mit speziellen Eingabeschichten auf.

Beispiel: Claude vs. GPT vs. Gemini im Vergleich

MerkmalGPT-4 (OpenAI)Claude 3 Opus (Anthropic)Gemini 1.5 Pro (Google)
Kontextfensterbis zu 128kbis zu 200kbis zu 1 Mio+ (Streaming)
MultimodalitätBildverarbeitungText + Bild (stark)Text, Bild, Audio
API-ZugriffJaTeilweise (über Partner)Ja
„Persönlichkeit“Sachlich, präziseHilfsbereit, vorsichtigKonstruktiv, analytisch
SpezialisierungAllgemein & PluginsConstitutional AI, CodeRecherche, Tools, Planung

→ Trotz ähnlicher Grundarchitektur unterscheiden sich die Modelle im Verhalten, Zugriff und Zielpublikum.

Weitere Differenzierungsmerkmale

LLMs lassen sich nicht nur durch ihre Inhalte unterscheiden, sondern auch durch technische und strategische Eigenschaften:

Zugriffstyp

  • Open-Source (z. B. LLaMA 3, Mistral, DeepSeek): lokal nutzbar, voll kontrollierbar
  • API-only (z. B. GPT-4, Claude): cloudbasiert, aber wartungsfrei
  • Hybridmodelle: lokale Basismodelle + API-Erweiterung (z. B. RAG mit ChatGPT)

Sicherheitsmodell

  • Manche Modelle setzen auf RLHF + Moderation, andere auf konstitutionelle Prinzipien (z. B. Claude)
  • Die Transparenz beim Training ist bei Open-Source-Modellen höher

Steuerbarkeit

  • Modelle wie GPT-4 lassen sich via System-Prompts feinjustieren
  • Andere wie Claude interpretieren implizite soziale Regeln stärker (z. B. Harm Reduction)

Rechenaufwand & Energieverbrauch

  • Große Modelle mit 100 + Billionen Parametern sind energieintensiv
  • Kompakte Modelle (Phi-3, Mistral) bieten vergleichbare Leistung mit weniger Ressourcen

Anwendungstypen im Überblick

AnwendungBeispielmodell(e)Typ
ChatbotsGPT-4, Claude, GeminiGeneral Purpose
MedizintechnikMed-PaLM, BioGPTFachmodell
RechtsauskünfteLawGPT, JuriGPTFachmodell
CodegenerierungDeepSeek-Coder, GPT-4, CodeLLaMAWerkzeugmodell
DokumentenextraktionDonut, LayoutLMv3Spezialarchitektur
VideoanalyseRunway, DeepMind RT-2Multimodal
WissensdatenbankenPerplexity AI, You.com, RAG-SystemeRecherche + Retrieval

Fazit & Ausblick

Große Sprachmodelle sind nicht nur statistische Textergänzer, sondern lassen sich heute präzise auf ihre Rolle abstimmen:

  • Ob Generalist oder Spezialist
  • Ob Text, Bild oder Audio
  • Ob API-Dienst oder On-Premises-Modell

Der Schlüssel liegt in der Kombination aus Architektur, Training und Anwendung – und darin, wie sinnvoll diese zusammengefügt werden.

In Teil 7 der Serie gehen wir noch einen Schritt weiter:
Wie können Unternehmen eigene, sichere LLM-Lösungen aufbauen – lokal oder hybrid – und welche Open-Source-Modelle eignen sich dafür wirklich?


FAQ – Häufige Fragen

Was ist ein Fachmodell?
Ein Modell, das auf bestimmte Themenbereiche (z. B. Medizin oder Recht) spezialisiert wurde – meist durch Finetuning.

Was bedeutet multimodal?
Das Modell kann mit mehreren Arten von Daten umgehen – z. B. Text und Bilder gleichzeitig.

Sind Open-Source-Modelle schlechter als GPT-4?
Nicht zwangsläufig – viele Open-Source-Modelle erreichen heute GPT-3.5-Niveau oder besser, sind aber flexibler einsetzbar.

Welches Modell ist das „beste“?
Kommt darauf an: GPT-4 ist sehr stark im allgemeinen Sprachgebrauch, Claude punktet bei Sicherheit und Empathie, Gemini bei Kontextumfang und Tools.

Wolf Galetzki

Berät Unternehmen bei der Einführung von KI und Automatisierung. Als Gründer von Datista liegt sein Fokus auf datensouveränen, anpassbaren Lösungen.

Wolf galetzki datista speaker

Alle Artikel der Serie:

Die Artikelserie "Die Mathematik hinter LLMs" umfasst insgesammt 20 Artikel. Folgende Artikel sind bereits veröffentlicht: