G|AI Works G|AI Works

Referenz-Engagement

Automatisierte Finanzbericht-Erstellung

Ein Asset Manager reduzierte den monatlichen Berichtsaufwand um rund 70 %, indem er eine validierte LLM-Pipeline einsetzte, die Abweichungskommentare direkt aus ERP-Daten generiert.

financial-services Finance Engineering

Ähnliches Engagement scopen

// Delivery-Muster

Diese Seite beschreibt ein repräsentatives Engagement dieses Formats — wie das System gescoped, gebaut und übergeben wird. Angegebene Zahlen stehen für typische Ergebnisse des Musters, wenn es mit der operativen Disziplin umgesetzt wird, die auf der Über-Seite beschrieben ist. Namentliche Kundenengagements werden auf Anfrage unter NDA geteilt.

Engagement-Form

Typische Ergebnisse

  • Rund 70 % weniger Analysten-Zeit pro Berichtszyklus
  • Keine Datenfehler in generierten Outputs über sechs Betriebsmonate protokolliert
  • Konsistente Terminologie über alle Berichtsperioden

Stack

  • Python + SQLAlchemy (ERP-Extraktion)
  • Claude mit strukturiertem Output (Anthropic)
  • Pydantic (Input- und Output-Validierung)
  • Astro + Server Actions (Human-Review-Interface)

Typischer Zeitrahmen

3–4 Wochen

Kick-off bis Übergabe

Risiken & Guardrails

  • Modell-Drift zwischen Perioden — Modell-Version pinnen und Updates mit Golden-Test-Set gaten
  • Compliance-Freigabe verzögert — Compliance-Team in Sprint 1 einbeziehen, nicht Sprint 3

Ausgangslage

Ein mittelgroßer Asset Manager erstellte monatliche Investorenberichte manuell. Analysten verbrachten drei bis vier Tage im Monat damit, Kennzahlen aus dem ERP zu extrahieren, Abweichungskommentare zu schreiben und die Ausgabe für den Versand zu formatieren. Der Prozess hing an einem einzigen Analysten und schuf so ein Lieferrisiko.

Vorgehen

G|AI Works entwarf eine dreistufige Pipeline:

  1. Datenextraktions-Schicht: Ein geplanter Job überführte Portfolio-Performance-Kennzahlen, Benchmark-Vergleiche und Attributionsdaten in ein validiertes JSON-Schema. Validierungsregeln erzwangen Vollständigkeit und Wertebereiche, bevor ein LLM-Aufruf stattfand.

  2. Narrativ-Generierung: Ein versioniertes Prompt-Template – geprüft und freigegeben vom Compliance-Team des Kunden – injizierte die validierten Daten in eine strukturierte Generierungsanfrage. Der Output war auf spezifische Narrative-Abschnitte begrenzt: Performance-Zusammenfassung, Attributionskommentar und Risikoindikatoren.

  3. Menschliche Review-Oberfläche: Eine schlanke Web-Oberfläche präsentierte Entwurfsberichte nebeneinander mit den Quelldaten. Der prüfende Analyst konnte einzelne Abschnitte vor der finalen Zusammenstellung genehmigen, bearbeiten oder ablehnen.

Ergebnisse

  • Rund 70 % weniger Analysten-Zeit pro Berichtszykus (von 3,5 Tagen auf unter 1 Tag)
  • Keine Datenfehler protokolliert in generierten Berichten in den ersten sechs Betriebsmonaten (Grounding-Validierung erkennt Abweichungen vor dem Output)
  • Konsistente Terminologie über alle Berichtsperioden hinweg, was manuelle Stil-Reviews überflüssig macht

Technischer Stack

  • Datenextraktion: Python + SQLAlchemy gegen bestehendes ERP
  • LLM: claude-sonnet-4-6 mit strukturiertem Output
  • Validierung: Pydantic-Schema-Durchsetzung auf Input und Output
  • Review-Oberfläche: schlankes Astro + Server Actions

Ähnliches Engagement scopen

Passt dieses Muster zu eurer Situation?

Erzähl mir, welches System ihr integrieren wollt und auf welches Ergebnis ihr gemessen werdet. Du bekommst einen klaren nächsten Schritt zurück — ein Readiness Audit, einen Prototyp-Plan oder ein Delivery-Angebot.