Venice AI (Venice Highlight)
Venice ist unser Highlight-Setup für Privacy-First-Inferenz mit optionalem anonymisiertem Zugriff auf proprietäre Modelle.
Venice AI bietet Privacy-fokussierte KI-Inferenz mit Support für unzensierte Modelle und Zugriff auf große proprietäre Modelle über ihren anonymisierten Proxy. Alle Inferenzen sind standardmäßig privat – kein Training mit deinen Daten, kein Logging.
Warum Venice in OpenClaw
- Private Inferenz für Open-Source-Modelle (kein Logging)
- Unzensierte Modelle, wenn du sie brauchst
- Anonymisierter Zugriff auf proprietäre Modelle (Opus/GPT/Gemini), wenn Qualität zählt
- OpenAI-kompatible
/v1Endpoints
Privacy-Modi
Venice bietet zwei Privacy-Level – das zu verstehen ist wichtig für die Modellwahl:
| Modus | Beschreibung | Modelle |
|---|---|---|
| Private | Vollständig privat. Prompts/Antworten werden niemals gespeichert oder geloggt. Ephemeral. | Llama, Qwen, DeepSeek, Venice Uncensored, etc. |
| Anonymized | Über Venice proxied mit entfernten Metadaten. Der zugrundeliegende Provider (OpenAI, Anthropic) sieht anonymisierte Requests. | Claude, GPT, Gemini, Grok, Kimi, MiniMax |
Features
- Privacy-fokussiert: Wähle zwischen “private” (vollständig privat) und “anonymized” (proxied) Modi
- Unzensierte Modelle: Zugriff auf Modelle ohne Content-Einschränkungen
- Zugriff auf große Modelle: Nutze Claude, GPT-5.2, Gemini, Grok über Venice’s anonymisierten Proxy
- OpenAI-kompatible API: Standard
/v1Endpoints für einfache Integration - Streaming: ✅ Unterstützt auf allen Modellen
- Function Calling: ✅ Unterstützt auf ausgewählten Modellen (prüfe Model-Capabilities)
- Vision: ✅ Unterstützt auf Modellen mit Vision-Fähigkeit
- Keine harten Rate Limits: Fair-Use-Throttling kann bei extremer Nutzung greifen
Setup
1. API Key besorgen
- Registriere dich auf venice.ai
- Gehe zu Settings → API Keys → Create new key
- Kopiere deinen API Key (Format:
vapi_xxxxxxxxxxxx)
2. OpenClaw konfigurieren
Option A: Environment Variable
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
Option B: Interaktives Setup (Empfohlen)
openclaw onboard --auth-choice venice-api-key
Das macht Folgendes:
- Fragt nach deinem API Key (oder nutzt vorhandenen
VENICE_API_KEY) - Zeigt alle verfügbaren Venice-Modelle
- Lässt dich dein Standard-Modell wählen
- Konfiguriert den Provider automatisch
Option C: Nicht-interaktiv
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
3. Setup verifizieren
openclaw chat --model venice/llama-3.3-70b "Hello, are you working?"
Modellauswahl
Nach dem Setup zeigt OpenClaw alle verfügbaren Venice-Modelle. Wähle basierend auf deinen Anforderungen:
- Standard (unsere Wahl):
venice/llama-3.3-70bfür private, ausgewogene Performance - Beste Gesamtqualität:
venice/claude-opus-45für schwierige Aufgaben (Opus bleibt das stärkste) - Privacy: Wähle “private” Modelle für vollständig private Inferenz
- Capability: Wähle “anonymized” Modelle für Zugriff auf Claude, GPT, Gemini über Venice’s Proxy
Ändere dein Standard-Modell jederzeit:
openclaw models set venice/claude-opus-45
openclaw models set venice/llama-3.3-70b
Liste alle verfügbaren Modelle:
openclaw models list | grep venice
Konfiguration über openclaw configure
- Führe
openclaw configureaus - Wähle Model/auth
- Wähle Venice AI
Welches Modell soll ich nutzen?
| Use Case | Empfohlenes Modell | Warum |
|---|---|---|
| Allgemeiner Chat | llama-3.3-70b | Guter Allrounder, vollständig privat |
| Beste Gesamtqualität | claude-opus-45 | Opus bleibt das stärkste für schwere Aufgaben |
| Privacy + Claude-Qualität | claude-opus-45 | Bestes Reasoning über anonymisierten Proxy |
| Coding | qwen3-coder-480b-a35b-instruct | Code-optimiert, 262k Context |
| Vision-Aufgaben | qwen3-vl-235b-a22b | Bestes privates Vision-Modell |
| Unzensiert | venice-uncensored | Keine Content-Einschränkungen |
| Schnell + günstig | qwen3-4b | Leichtgewichtig, trotzdem fähig |
| Komplexes Reasoning | deepseek-v3.2 | Starkes Reasoning, privat |
Verfügbare Modelle (25 insgesamt)
Private Modelle (15) — Vollständig privat, kein Logging
| Model ID | Name | Context (Tokens) | Features |
|---|---|---|---|
llama-3.3-70b | Llama 3.3 70B | 131k | General |
llama-3.2-3b | Llama 3.2 3B | 131k | Fast, lightweight |
hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 131k | Complex tasks |
qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 131k | Reasoning |
qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 131k | General |
qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 262k | Code |
qwen3-next-80b | Qwen3 Next 80B | 262k | General |
qwen3-vl-235b-a22b | Qwen3 VL 235B | 262k | Vision |
qwen3-4b | Venice Small (Qwen3 4B) | 32k | Fast, reasoning |
deepseek-v3.2 | DeepSeek V3.2 | 163k | Reasoning |
venice-uncensored | Venice Uncensored | 32k | Uncensored |
mistral-31-24b | Venice Medium (Mistral) | 131k | Vision |
google-gemma-3-27b-it | Gemma 3 27B Instruct | 202k | Vision |
openai-gpt-oss-120b | OpenAI GPT OSS 120B | 131k | General |
zai-org-glm-4.7 | GLM 4.7 | 202k | Reasoning, multilingual |
Anonymized Modelle (10) — Über Venice Proxy
| Model ID | Original | Context (Tokens) | Features |
|---|---|---|---|
claude-opus-45 | Claude Opus 4.5 | 202k | Reasoning, vision |
claude-sonnet-45 | Claude Sonnet 4.5 | 202k | Reasoning, vision |
openai-gpt-52 | GPT-5.2 | 262k | Reasoning |
openai-gpt-52-codex | GPT-5.2 Codex | 262k | Reasoning, vision |
gemini-3-pro-preview | Gemini 3 Pro | 202k | Reasoning, vision |
gemini-3-flash-preview | Gemini 3 Flash | 262k | Reasoning, vision |
grok-41-fast | Grok 4.1 Fast | 262k | Reasoning, vision |
grok-code-fast-1 | Grok Code Fast 1 | 262k | Reasoning, code |
kimi-k2-thinking | Kimi K2 Thinking | 262k | Reasoning |
minimax-m21 | MiniMax M2.1 | 202k | Reasoning |
Model Discovery
OpenClaw erkennt Modelle automatisch von der Venice API, wenn VENICE_API_KEY gesetzt ist. Falls die API nicht erreichbar ist, wird auf einen statischen Katalog zurückgegriffen.
Der /models Endpoint ist öffentlich (keine Auth für Listing nötig), aber Inferenz benötigt einen gültigen API Key.
Streaming & Tool Support
| Feature | Support |
|---|---|
| Streaming | ✅ Alle Modelle |
| Function Calling | ✅ Die meisten Modelle (prüfe supportsFunctionCalling in API) |
| Vision/Images | ✅ Modelle mit “Vision” Feature |
| JSON Mode | ✅ Unterstützt über response_format |
Preise
Venice nutzt ein Credit-basiertes System. Aktuelle Preise findest du auf venice.ai/pricing:
- Private Modelle: Generell niedrigere Kosten
- Anonymized Modelle: Ähnlich wie direkte API-Preise + kleine Venice-Gebühr
Vergleich: Venice vs Direct API
| Aspekt | Venice (Anonymized) | Direct API |
|---|---|---|
| Privacy | Metadaten entfernt, anonymisiert | Dein Account verknüpft |
| Latency | +10-50ms (Proxy) | Direkt |
| Features | Die meisten Features unterstützt | Alle Features |
| Billing | Venice Credits | Provider-Abrechnung |
Verwendungsbeispiele
# Standard-Private-Modell nutzen
openclaw chat --model venice/llama-3.3-70b
# Claude über Venice nutzen (anonymized)
openclaw chat --model venice/claude-opus-45
# Unzensiertes Modell nutzen
openclaw chat --model venice/venice-uncensored
# Vision-Modell mit Bild nutzen
openclaw chat --model venice/qwen3-vl-235b-a22b
# Coding-Modell nutzen
openclaw chat --model venice/qwen3-coder-480b-a35b-instruct
Troubleshooting
API Key nicht erkannt
echo $VENICE_API_KEY
openclaw models list | grep venice
Stelle sicher, dass der Key mit vapi_ beginnt.
Modell nicht verfügbar
Der Venice-Modellkatalog wird dynamisch aktualisiert. Führe openclaw models list aus, um aktuell verfügbare Modelle zu sehen. Manche Modelle können temporär offline sein.
Verbindungsprobleme
Die Venice API ist unter https://api.venice.ai/api/v1 erreichbar. Stelle sicher, dass dein Netzwerk HTTPS-Verbindungen erlaubt.
Config-Datei-Beispiel
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/llama-3.3-70b" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "llama-3.3-70b",
name: "Llama 3.3 70B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 131072,
maxTokens: 8192,
},
],
},
},
},
}