Provider-Abstraktion
Die AI-Schicht basiert auf dem Vercel AI SDK v4.3 und kapselt Provider-Unterschiede hinter einer einheitlichen Schnittstelle. Der Wechsel zwischen OpenAI, Anthropic, Google und xAI erfordert nur das Ändern einer einzigen Umgebungsvariable — der Rest der Anwendung bleibt unberührt.
# Switch providers without code changes
AI_PROVIDER=openai # GPT-5, GPT-4.1, o3, o4-mini
AI_PROVIDER=anthropic # Claude Opus 4.5, Claude Sonnet 4.5, Claude Haiku 4.5
AI_PROVIDER=google # Gemini 2.5 Pro, Gemini 2.5 Flash, Gemini 3 Flash Preview
AI_PROVIDER=xai # Grok 4.1 Fast Reasoning
Unterstützung für Reasoning-Modelle
Reasoning-Modelle wie GPT-5 und die o-Serie benötigen eine andere Parameterbehandlung als Standardmodelle. Das System erkennt Reasoning-Modelle automatisch und passt sich entsprechend an — temperature wird übersprungen (diese Modelle ignorieren es) und maxTokens wird auf 16384 erhöht, um sowohl internes Reasoning als auch sichtbare Ausgabe zu ermöglichen. Ohne diese Anpassung verbrauchen Reasoning-Tokens das gesamte Budget und die Antwort kommt leer zurück.
Feature-Flags
Jede AI-Funktion — LLM-Chat, RAG-Chat, Vision, PDF-Analyse — wird durch ein unabhängiges Feature-Flag gesteuert. Das ermöglicht schrittweise Rollouts, A/B-Tests oder das Deaktivieren einzelner Funktionen, ohne andere zu beeinträchtigen. Flags werden sowohl auf UI- als auch auf API-Ebene geprüft, um unautorisierten Zugriff auf deaktivierte Funktionen zu verhindern.