Intelligence · Baseline ab MVP
KI-Optimierungslayer
Die Meta-Schicht. Liest den ganzen Twin, denkt mit, schreibt nur Empfehlungen. Anbieter-agnostisch (Claude · OpenAI · Mistral), pro Tenant Budget-cap.
Was es kann
Konkret nutzbar.
- 01
Drei Output-Stufen
Insight (mit Evidenz) → Empfehlung (mit erwartetem Nutzen) → Modul-Vorschlag (mit ROI).
- 02
Evidence-Pflicht
Jede Aussage trägt Referenz auf echte Events oder Twin-Records. Ohne Evidenz kein Output ans UI.
- 03
LLM-Router
taskType-basiert: lange Summaries → Claude, strukturierte Extraktion → JSON-Mode. Caching reduziert Kosten.
Wie es läuft
Drei Schritte.
- 01
Event-Log → Feature-Store
Materialized Views auf Postgres. KI liest nie die Live-Tabellen.
- 02
Jobs laufen
Anomaly + Forecast + Mining + Clustering + Summarization — jeweils nach Plan.
- 03
Recommendation Service
Empfehlungen bekommen `evidence[]` und gehen an UI / Slack / E-Mail.
Output
Was bei dir landet.
- Insights-Feed im Dashboard
- Wöchentlicher Executive-Report
- Modul-Vorschläge mit ROI-Schätzung