Venice AI (Venice Highlight)

Venice ist unser Highlight-Setup für Privacy-First-Inferenz mit optionalem anonymisiertem Zugriff auf proprietäre Modelle.

Venice AI bietet Privacy-fokussierte KI-Inferenz mit Support für unzensierte Modelle und Zugriff auf große proprietäre Modelle über ihren anonymisierten Proxy. Alle Inferenzen sind standardmäßig privat – kein Training mit deinen Daten, kein Logging.

Warum Venice in OpenClaw

  • Private Inferenz für Open-Source-Modelle (kein Logging)
  • Unzensierte Modelle, wenn du sie brauchst
  • Anonymisierter Zugriff auf proprietäre Modelle (Opus/GPT/Gemini), wenn Qualität zählt
  • OpenAI-kompatible /v1 Endpoints

Privacy-Modi

Venice bietet zwei Privacy-Level – das zu verstehen ist wichtig für die Modellwahl:

ModusBeschreibungModelle
PrivateVollständig privat. Prompts/Antworten werden niemals gespeichert oder geloggt. Ephemeral.Llama, Qwen, DeepSeek, Venice Uncensored, etc.
AnonymizedÜber Venice proxied mit entfernten Metadaten. Der zugrundeliegende Provider (OpenAI, Anthropic) sieht anonymisierte Requests.Claude, GPT, Gemini, Grok, Kimi, MiniMax

Features

  • Privacy-fokussiert: Wähle zwischen “private” (vollständig privat) und “anonymized” (proxied) Modi
  • Unzensierte Modelle: Zugriff auf Modelle ohne Content-Einschränkungen
  • Zugriff auf große Modelle: Nutze Claude, GPT-5.2, Gemini, Grok über Venice’s anonymisierten Proxy
  • OpenAI-kompatible API: Standard /v1 Endpoints für einfache Integration
  • Streaming: ✅ Unterstützt auf allen Modellen
  • Function Calling: ✅ Unterstützt auf ausgewählten Modellen (prüfe Model-Capabilities)
  • Vision: ✅ Unterstützt auf Modellen mit Vision-Fähigkeit
  • Keine harten Rate Limits: Fair-Use-Throttling kann bei extremer Nutzung greifen

Setup

1. API Key besorgen

  1. Registriere dich auf venice.ai
  2. Gehe zu Settings → API Keys → Create new key
  3. Kopiere deinen API Key (Format: vapi_xxxxxxxxxxxx)

2. OpenClaw konfigurieren

Option A: Environment Variable

export VENICE_API_KEY="vapi_xxxxxxxxxxxx"

Option B: Interaktives Setup (Empfohlen)

openclaw onboard --auth-choice venice-api-key

Das macht Folgendes:

  1. Fragt nach deinem API Key (oder nutzt vorhandenen VENICE_API_KEY)
  2. Zeigt alle verfügbaren Venice-Modelle
  3. Lässt dich dein Standard-Modell wählen
  4. Konfiguriert den Provider automatisch

Option C: Nicht-interaktiv

openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

3. Setup verifizieren

openclaw chat --model venice/llama-3.3-70b "Hello, are you working?"

Modellauswahl

Nach dem Setup zeigt OpenClaw alle verfügbaren Venice-Modelle. Wähle basierend auf deinen Anforderungen:

  • Standard (unsere Wahl): venice/llama-3.3-70b für private, ausgewogene Performance
  • Beste Gesamtqualität: venice/claude-opus-45 für schwierige Aufgaben (Opus bleibt das stärkste)
  • Privacy: Wähle “private” Modelle für vollständig private Inferenz
  • Capability: Wähle “anonymized” Modelle für Zugriff auf Claude, GPT, Gemini über Venice’s Proxy

Ändere dein Standard-Modell jederzeit:

openclaw models set venice/claude-opus-45
openclaw models set venice/llama-3.3-70b

Liste alle verfügbaren Modelle:

openclaw models list | grep venice

Konfiguration über openclaw configure

  1. Führe openclaw configure aus
  2. Wähle Model/auth
  3. Wähle Venice AI

Welches Modell soll ich nutzen?

Use CaseEmpfohlenes ModellWarum
Allgemeiner Chatllama-3.3-70bGuter Allrounder, vollständig privat
Beste Gesamtqualitätclaude-opus-45Opus bleibt das stärkste für schwere Aufgaben
Privacy + Claude-Qualitätclaude-opus-45Bestes Reasoning über anonymisierten Proxy
Codingqwen3-coder-480b-a35b-instructCode-optimiert, 262k Context
Vision-Aufgabenqwen3-vl-235b-a22bBestes privates Vision-Modell
Unzensiertvenice-uncensoredKeine Content-Einschränkungen
Schnell + günstigqwen3-4bLeichtgewichtig, trotzdem fähig
Komplexes Reasoningdeepseek-v3.2Starkes Reasoning, privat

Verfügbare Modelle (25 insgesamt)

Private Modelle (15) — Vollständig privat, kein Logging

Model IDNameContext (Tokens)Features
llama-3.3-70bLlama 3.3 70B131kGeneral
llama-3.2-3bLlama 3.2 3B131kFast, lightweight
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B131kComplex tasks
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking131kReasoning
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct131kGeneral
qwen3-coder-480b-a35b-instructQwen3 Coder 480B262kCode
qwen3-next-80bQwen3 Next 80B262kGeneral
qwen3-vl-235b-a22bQwen3 VL 235B262kVision
qwen3-4bVenice Small (Qwen3 4B)32kFast, reasoning
deepseek-v3.2DeepSeek V3.2163kReasoning
venice-uncensoredVenice Uncensored32kUncensored
mistral-31-24bVenice Medium (Mistral)131kVision
google-gemma-3-27b-itGemma 3 27B Instruct202kVision
openai-gpt-oss-120bOpenAI GPT OSS 120B131kGeneral
zai-org-glm-4.7GLM 4.7202kReasoning, multilingual

Anonymized Modelle (10) — Über Venice Proxy

Model IDOriginalContext (Tokens)Features
claude-opus-45Claude Opus 4.5202kReasoning, vision
claude-sonnet-45Claude Sonnet 4.5202kReasoning, vision
openai-gpt-52GPT-5.2262kReasoning
openai-gpt-52-codexGPT-5.2 Codex262kReasoning, vision
gemini-3-pro-previewGemini 3 Pro202kReasoning, vision
gemini-3-flash-previewGemini 3 Flash262kReasoning, vision
grok-41-fastGrok 4.1 Fast262kReasoning, vision
grok-code-fast-1Grok Code Fast 1262kReasoning, code
kimi-k2-thinkingKimi K2 Thinking262kReasoning
minimax-m21MiniMax M2.1202kReasoning

Model Discovery

OpenClaw erkennt Modelle automatisch von der Venice API, wenn VENICE_API_KEY gesetzt ist. Falls die API nicht erreichbar ist, wird auf einen statischen Katalog zurückgegriffen.

Der /models Endpoint ist öffentlich (keine Auth für Listing nötig), aber Inferenz benötigt einen gültigen API Key.

Streaming & Tool Support

FeatureSupport
Streaming✅ Alle Modelle
Function Calling✅ Die meisten Modelle (prüfe supportsFunctionCalling in API)
Vision/Images✅ Modelle mit “Vision” Feature
JSON Mode✅ Unterstützt über response_format

Preise

Venice nutzt ein Credit-basiertes System. Aktuelle Preise findest du auf venice.ai/pricing:

  • Private Modelle: Generell niedrigere Kosten
  • Anonymized Modelle: Ähnlich wie direkte API-Preise + kleine Venice-Gebühr

Vergleich: Venice vs Direct API

AspektVenice (Anonymized)Direct API
PrivacyMetadaten entfernt, anonymisiertDein Account verknüpft
Latency+10-50ms (Proxy)Direkt
FeaturesDie meisten Features unterstütztAlle Features
BillingVenice CreditsProvider-Abrechnung

Verwendungsbeispiele

# Standard-Private-Modell nutzen
openclaw chat --model venice/llama-3.3-70b

# Claude über Venice nutzen (anonymized)
openclaw chat --model venice/claude-opus-45

# Unzensiertes Modell nutzen
openclaw chat --model venice/venice-uncensored

# Vision-Modell mit Bild nutzen
openclaw chat --model venice/qwen3-vl-235b-a22b

# Coding-Modell nutzen
openclaw chat --model venice/qwen3-coder-480b-a35b-instruct

Troubleshooting

API Key nicht erkannt

echo $VENICE_API_KEY
openclaw models list | grep venice

Stelle sicher, dass der Key mit vapi_ beginnt.

Modell nicht verfügbar

Der Venice-Modellkatalog wird dynamisch aktualisiert. Führe openclaw models list aus, um aktuell verfügbare Modelle zu sehen. Manche Modelle können temporär offline sein.

Verbindungsprobleme

Die Venice API ist unter https://api.venice.ai/api/v1 erreichbar. Stelle sicher, dass dein Netzwerk HTTPS-Verbindungen erlaubt.

Config-Datei-Beispiel

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/llama-3.3-70b" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "llama-3.3-70b",
            name: "Llama 3.3 70B",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 131072,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}