Zum Inhalt springen
Lean FS Logo

Wie portfoliochat.ai tatsächlich funktioniert.

Eine Führung durch portfoliochat.ai: die Schichten, die Agenten und das, was Portfolio-KI im Produktivbetrieb verlässlich macht. Für technische Entscheider.

01 · Überblick

Drei Schichten, ein Stack.

portfoliochat.ai sitzt als drei Schichten über deinem Portfolio-Management-System: Datenintegration, eine Portfolio-Intelligence-Schicht, die rohe Positionen in den strukturierten Kontext verwandelt, mit dem ein KI-Modell tatsächlich arbeiten kann, und eine Agenten-Orchestrierungsschicht, in der spezialisierte Agenten die Arbeit machen. Jede Schicht ist separabel, sodass Quellsysteme, Kontext und Agentenlogik sich unabhängig weiterentwickeln können.

02 · Lebenszyklus

Eine Anfrage, end-to-end.

Jede Anfrage folgt demselben Pfad. Scoping bestimmt Mandant und Portfolios, Preprocessing lädt den Kontext, den nachgelagerte Agenten brauchen, und ein Orchestrator wählt die Route: eine direkte Antwort bei einfachen Runden oder ein Workflow-Lauf, in dem ein Planer Spezialisten beauftragt und ein Synthese-Agent die finale Antwort schreibt. Jeder Agent arbeitet innerhalb klarer Grenzen, die die Runtime erzwingt, sodass der Planer beim Planen bleibt und Spezialisten bei ihrer Aufgabe.

03 · Agenten

Die Agenten im Überblick.

Zwei Rollen von Agenten laufen in portfoliochat.ai. Orchestrator-Agenten planen, welche spezialisierten Agenten gerufen werden, und sehen nur die Prozessinformationen, die sie zum Steuern brauchen, nicht die vollen Antworten. Spezialisierte Agenten übernehmen die eigentlichen Aufgaben, produzieren Output und liefern dem Orchestrator einen kompakten Prozessbericht zurück.

Orchestrator-Agenten
  • PlanerPlant, welche spezialisierten Agenten als Nächstes gerufen werden. Sieht Task-Reports, nicht die vollen Antworten.
Spezialisierte Agenten für deine Workflows
  • Single-Asset-AnalystProfiliert ein einzelnes Asset: Fundamentaldaten, Contribution und News.
  • Portfolio- & Collection-AnalystPositionen, P&L und Komposition für ein Portfolio oder eine Asset-Collection. Kann Charts rendern.
  • News-Research-AgentFührt News-Queries parallel über die Assets im Scope aus.
  • Recommendation-AgentMacht aus einem Investmentthema eine Peer-Liste passender Anlagen.
  • Exposure-AgentThemenbasierte Exposure-Analyse für ein Portfolio.
  • Compliance-AgentFührt Restriktions- und Trace-Checks aus, wenn Assets zu einem Portfolio hinzugefügt werden.
04 · Innenleben

Wie ein Agent gebaut ist.

Jeder Agent wird aus denselben Bausteinen gebaut: einem Basis-Vertrag, der definiert, wie eine Runde aussieht, versionierten Prompts aus einem externen Prompt-Store, einer konfigurierbaren Modellklasse und einer Tool-Registry, mit der die Runtime jedem Agenten nur die richtige Oberfläche freigibt. Prompts und Modellwahl sind Konfiguration, sodass Änderungen reviewbar und rückrollbar sind, ohne Code anzufassen.

Memory funktioniert auf zwei Zeitebenen. Eine langlebige Konversations-Zusammenfassung gibt dem Assistenten Kontinuität über Runden hinweg, und ein kurzlebiger Arbeitsspeicher pro Runde lässt Agenten Zwischenergebnisse teilen. Prompts bleiben kompakt, und Kontext trägt sich weiter, wo es nötig ist.

05 · Nachvollziehbarkeit

Audit-fähige Nachvollziehbarkeit, powered by Langfuse.

Jede Runde wird end-to-end in Langfuse protokolliert: Prompts, Tool-Calls, Datenquellen, Modell-Outputs und menschliche Freigaben. Ein Reviewer kann jeden historischen Lauf mit den exakten Inputs und der finalen Antwort replayen, die der Nutzer gesehen hat. Der Trace ist der Audit-Record, nicht nur ein Debug-Hilfsmittel.

Langfuse-Trace einer portfoliochat.ai-Anfrage: Planer, Synthese-Agent und Tool-Calls mit Latenzen, plus Input- und Antwortpanels.

Langfuse Trace-Ansicht: vollständiger Agent-Run mit Prompts, Tool-Calls und Outputs.

06 · Evals

Kontinuierliche Evals, ebenfalls in Langfuse.

Jeder Agent und jeder End-to-End-Flow hat messbare Benchmarks in Langfuse: Faktentreue, Restriktionseinhaltung, Tonalität, Latenz, Citations. Die Pipeline läuft gegen fixe Inputs, sodass Prompt- oder Modelländerungen gescored werden, bevor sie produktiv gehen. So bleiben auch Modell-Upgrades sicher.

Langfuse Eval-Dashboard mit Score-Verteilungen und Regressionserkennung pro Agent.

Langfuse Eval-Dashboard: Score-Verteilung und Regressionserkennung pro Agent.

07 · Modelle

Modell- und Provider-Orchestrierung.

Modellwahl ist Konfiguration, keine Code-Abhängigkeit. Ein Agent deklariert die Modellklasse, die er braucht, und ein Resolver wählt den passenden Provider für das Deployment: Frontier-Hosted-Modelle, kleinere Spezialmodelle oder lokale Modelle in der Infrastruktur des Kunden. Kein Vendor-Lock-in, kein Rewrite, wenn sich die Landschaft verschiebt.

08 · Deployment

Integrationen, Deployment und Sicherheit.

portfoliochat.ai bindet sich über API an Portfolio-Management-Systeme an, liest CSV und JSON ein und zieht portfolio-bewusste Marktabdeckung von RavenPack. Internes Research und CIO-Content lässt sich als Dokument hinzufügen. Die Integrationsschicht normalisiert alles auf dasselbe Datenmodell.

Deploy, wie du willst

Drei Deployment-Stufen, dasselbe Produkt darunter. Wähle, was zu deinen Datenresidenz- und Risikoanforderungen passt.

01

SaaS

Von uns gehostet. Schnellster Start, Multi-Tenant, mit Schweizer Datenresidenz auf Wunsch.

02

Virtual Private Cloud

Deployment in deinen eigenen AWS-, Azure- oder GCP-Account. Du besitzt die Datenebene, wir liefern portfoliochat.ai.

03

On-Premises

Läuft in deinem Rechenzentrum oder deiner Sovereign Cloud. Sensible Flows verlassen deinen Perimeter nicht.

Multi-Tenant-Scoping wird ab der ersten Millisekunde jeder Anfrage erzwungen. Sensible Flows können bei Bedarf über lokale Modelle geroutet werden, und Outputs gehen nie ohne menschliche Freigabe an Kunden.

Möchtest du eine vertiefte Sicht auf eine dieser Schichten?