Nachdem OpenClaw installiert ist, verbinden Sie Ihre AI Agents. OpenClaw nutzt ein Trace-basiertes Modell — jede Agent-Aktion wird als Span innerhalb eines Trace erfasst, ähnlich wie bei Distributed Tracing in Microservices.
Für unterstützte Frameworks genügt ein Einzeiler:
from openclaw import OpenClaw, auto_instrument
oc = OpenClaw(api_key="oc_live_...")
auto_instrument(oc, framework="langchain") # oder "crewai", "autogen", "agentos"
Auto-Instrumentierung erfasst automatisch:
Für Custom Agents oder feinere Kontrolle:
with oc.trace("customer-support-agent") as trace:
trace.set_metadata({"customer_id": "12345", "channel": "chat"})
with trace.span("intent-classification") as span:
span.set_input(user_message)
intent = classify_intent(user_message)
span.set_output(intent)
with trace.span("response-generation") as span:
span.set_model("gpt-4o")
response = generate_response(intent, context)
span.set_output(response)
span.set_tokens(input=245, output=189)
Ein OpenClaw Trace bildet den vollständigen Lebenszyklus einer Agent-Interaktion ab:
Trace: customer-support-agent (ID: tr_abc123)
├── Span: intent-classification (12ms)
├── Span: knowledge-retrieval (145ms)
│ ├── Span: vector-search (89ms)
│ └── Span: reranking (52ms)
├── Span: response-generation (1,340ms)
│ ├── Span: llm-call (1,200ms)
│ └── Span: guardrail-check (140ms)
└── Span: response-delivery (8ms)
Tags ermöglichen präzises Filtern und Gruppieren:
| Tag-Kategorie | Beispiele | Nutzen |
|---|---|---|
| Environment | production, staging, dev | Umgebungstrennung |
| Team | support, sales, ops | Kostenzuordnung |
| Agent-Version | v2.1.0, v2.2.0-beta | Versionsvergleich |
| Customer | customer_id, tenant_id | Mandantenfähigkeit |
| Compliance | risk_level, pii_detected | Governance-Tracking |
Sobald Traces einfließen, zeigt das Live-Dashboard:
Tipp: Beginnen Sie mit Auto-Instrumentierung und wechseln Sie zu manuellen Spans nur dort, wo Sie tiefere Einblicke benötigen. Übermäßiges Tracing erzeugt Rauschen und erhöht Speicherkosten.