Wie portfoliochat.ai tatsächlich funktioniert.
Eine Führung durch portfoliochat.ai: die Schichten, die Agenten und das, was Portfolio-KI im Produktivbetrieb verlässlich macht. Für technische Entscheider.
Drei Schichten, ein Stack.
portfoliochat.ai sitzt als drei Schichten über deinem Portfolio-Management-System: Datenintegration, eine Portfolio-Intelligence-Schicht, die rohe Positionen in den strukturierten Kontext verwandelt, mit dem ein KI-Modell tatsächlich arbeiten kann, und eine Agenten-Orchestrierungsschicht, in der spezialisierte Agenten die Arbeit machen. Jede Schicht ist separabel, sodass Quellsysteme, Kontext und Agentenlogik sich unabhängig weiterentwickeln können.
Eine Anfrage, end-to-end.
Jede Anfrage folgt demselben Pfad. Scoping bestimmt Mandant und Portfolios, Preprocessing lädt den Kontext, den nachgelagerte Agenten brauchen, und ein Orchestrator wählt die Route: eine direkte Antwort bei einfachen Runden oder ein Workflow-Lauf, in dem ein Planer Spezialisten beauftragt und ein Synthese-Agent die finale Antwort schreibt. Jeder Agent arbeitet innerhalb klarer Grenzen, die die Runtime erzwingt, sodass der Planer beim Planen bleibt und Spezialisten bei ihrer Aufgabe.
Die Agenten im Überblick.
Zwei Rollen von Agenten laufen in portfoliochat.ai. Orchestrator-Agenten planen, welche spezialisierten Agenten gerufen werden, und sehen nur die Prozessinformationen, die sie zum Steuern brauchen, nicht die vollen Antworten. Spezialisierte Agenten übernehmen die eigentlichen Aufgaben, produzieren Output und liefern dem Orchestrator einen kompakten Prozessbericht zurück.
- PlanerPlant, welche spezialisierten Agenten als Nächstes gerufen werden. Sieht Task-Reports, nicht die vollen Antworten.
- Single-Asset-AnalystProfiliert ein einzelnes Asset: Fundamentaldaten, Contribution und News.
- Portfolio- & Collection-AnalystPositionen, P&L und Komposition für ein Portfolio oder eine Asset-Collection. Kann Charts rendern.
- News-Research-AgentFührt News-Queries parallel über die Assets im Scope aus.
- Recommendation-AgentMacht aus einem Investmentthema eine Peer-Liste passender Anlagen.
- Exposure-AgentThemenbasierte Exposure-Analyse für ein Portfolio.
- Compliance-AgentFührt Restriktions- und Trace-Checks aus, wenn Assets zu einem Portfolio hinzugefügt werden.
Wie ein Agent gebaut ist.
Jeder Agent wird aus denselben Bausteinen gebaut: einem Basis-Vertrag, der definiert, wie eine Runde aussieht, versionierten Prompts aus einem externen Prompt-Store, einer konfigurierbaren Modellklasse und einer Tool-Registry, mit der die Runtime jedem Agenten nur die richtige Oberfläche freigibt. Prompts und Modellwahl sind Konfiguration, sodass Änderungen reviewbar und rückrollbar sind, ohne Code anzufassen.
Memory funktioniert auf zwei Zeitebenen. Eine langlebige Konversations-Zusammenfassung gibt dem Assistenten Kontinuität über Runden hinweg, und ein kurzlebiger Arbeitsspeicher pro Runde lässt Agenten Zwischenergebnisse teilen. Prompts bleiben kompakt, und Kontext trägt sich weiter, wo es nötig ist.
Audit-fähige Nachvollziehbarkeit, powered by Langfuse.
Jede Runde wird end-to-end in Langfuse protokolliert: Prompts, Tool-Calls, Datenquellen, Modell-Outputs und menschliche Freigaben. Ein Reviewer kann jeden historischen Lauf mit den exakten Inputs und der finalen Antwort replayen, die der Nutzer gesehen hat. Der Trace ist der Audit-Record, nicht nur ein Debug-Hilfsmittel.

Langfuse Trace-Ansicht: vollständiger Agent-Run mit Prompts, Tool-Calls und Outputs.
Kontinuierliche Evals, ebenfalls in Langfuse.
Jeder Agent und jeder End-to-End-Flow hat messbare Benchmarks in Langfuse: Faktentreue, Restriktionseinhaltung, Tonalität, Latenz, Citations. Die Pipeline läuft gegen fixe Inputs, sodass Prompt- oder Modelländerungen gescored werden, bevor sie produktiv gehen. So bleiben auch Modell-Upgrades sicher.

Langfuse Eval-Dashboard: Score-Verteilung und Regressionserkennung pro Agent.
Modell- und Provider-Orchestrierung.
Modellwahl ist Konfiguration, keine Code-Abhängigkeit. Ein Agent deklariert die Modellklasse, die er braucht, und ein Resolver wählt den passenden Provider für das Deployment: Frontier-Hosted-Modelle, kleinere Spezialmodelle oder lokale Modelle in der Infrastruktur des Kunden. Kein Vendor-Lock-in, kein Rewrite, wenn sich die Landschaft verschiebt.
Integrationen, Deployment und Sicherheit.
portfoliochat.ai bindet sich über API an Portfolio-Management-Systeme an, liest CSV und JSON ein und zieht portfolio-bewusste Marktabdeckung von RavenPack. Internes Research und CIO-Content lässt sich als Dokument hinzufügen. Die Integrationsschicht normalisiert alles auf dasselbe Datenmodell.
Drei Deployment-Stufen, dasselbe Produkt darunter. Wähle, was zu deinen Datenresidenz- und Risikoanforderungen passt.
SaaS
Von uns gehostet. Schnellster Start, Multi-Tenant, mit Schweizer Datenresidenz auf Wunsch.
Virtual Private Cloud
Deployment in deinen eigenen AWS-, Azure- oder GCP-Account. Du besitzt die Datenebene, wir liefern portfoliochat.ai.
On-Premises
Läuft in deinem Rechenzentrum oder deiner Sovereign Cloud. Sensible Flows verlassen deinen Perimeter nicht.
Multi-Tenant-Scoping wird ab der ersten Millisekunde jeder Anfrage erzwungen. Sensible Flows können bei Bedarf über lokale Modelle geroutet werden, und Outputs gehen nie ohne menschliche Freigabe an Kunden.

