v0.3.2

AI Multi-Provider-Integration

Wechsle zwischen OpenAI, Anthropic, Google und xAI mit einer einzigen Umgebungsvariable — ohne Codeänderungen.

Provider-Abstraktion

Die AI-Schicht basiert auf dem Vercel AI SDK v4.3 und kapselt Provider-Unterschiede hinter einer einheitlichen Schnittstelle. Der Wechsel zwischen OpenAI, Anthropic, Google und xAI erfordert nur das Ändern einer einzigen Umgebungsvariable — der Rest der Anwendung bleibt unberührt.

# Switch providers without code changes
AI_PROVIDER=openai    # GPT-5, GPT-4.1, o3, o4-mini
AI_PROVIDER=anthropic # Claude Opus 4.5, Claude Sonnet 4.5, Claude Haiku 4.5
AI_PROVIDER=google    # Gemini 2.5 Pro, Gemini 2.5 Flash, Gemini 3 Flash Preview
AI_PROVIDER=xai       # Grok 4.1 Fast Reasoning

Unterstützung für Reasoning-Modelle

Reasoning-Modelle wie GPT-5 und die o-Serie benötigen eine andere Parameterbehandlung als Standardmodelle. Das System erkennt Reasoning-Modelle automatisch und passt sich entsprechend an — temperature wird übersprungen (diese Modelle ignorieren es) und maxTokens wird auf 16384 erhöht, um sowohl internes Reasoning als auch sichtbare Ausgabe zu ermöglichen. Ohne diese Anpassung verbrauchen Reasoning-Tokens das gesamte Budget und die Antwort kommt leer zurück.

Feature-Flags

Jede AI-Funktion — LLM-Chat, RAG-Chat, Vision, PDF-Analyse — wird durch ein unabhängiges Feature-Flag gesteuert. Das ermöglicht schrittweise Rollouts, A/B-Tests oder das Deaktivieren einzelner Funktionen, ohne andere zu beeinträchtigen. Flags werden sowohl auf UI- als auch auf API-Ebene geprüft, um unautorisierten Zugriff auf deaktivierte Funktionen zu verhindern.

Contributors

Sascha RahnSascha Rahn