Venice AI (Venice highlight)
Venice là lựa chọn nổi bật của mình cho inference ưu tiên quyền riêng tư với khả năng truy cập ẩn danh vào các model độc quyền.
Venice AI cung cấp AI inference tập trung vào quyền riêng tư với hỗ trợ các model không kiểm duyệt và truy cập vào các model độc quyền lớn thông qua proxy ẩn danh của họ. Tất cả inference đều riêng tư theo mặc định—không training trên dữ liệu của các bạn, không ghi log.
Tại sao dùng Venice trong OpenClaw
- Inference riêng tư cho các model mã nguồn mở (không ghi log).
- Model không kiểm duyệt khi các bạn cần.
- Truy cập ẩn danh vào các model độc quyền (Opus/GPT/Gemini) khi chất lượng quan trọng.
- Endpoint
/v1tương thích với OpenAI.
Chế độ riêng tư
Venice cung cấp hai cấp độ riêng tư — hiểu rõ điều này là chìa khóa để chọn model phù hợp:
| Chế độ | Mô tả | Model |
|---|---|---|
| Private | Hoàn toàn riêng tư. Prompt/response không bao giờ được lưu trữ hoặc ghi log. Tạm thời. | Llama, Qwen, DeepSeek, Venice Uncensored, v.v. |
| Anonymized | Được proxy qua Venice với metadata bị loại bỏ. Provider bên dưới (OpenAI, Anthropic) chỉ thấy các request đã ẩn danh hóa. | Claude, GPT, Gemini, Grok, Kimi, MiniMax |
Tính năng
- Tập trung vào quyền riêng tư: Chọn giữa chế độ “private” (hoàn toàn riêng tư) và “anonymized” (proxy)
- Model không kiểm duyệt: Truy cập vào các model không có hạn chế nội dung
- Truy cập model lớn: Sử dụng Claude, GPT-5.2, Gemini, Grok qua proxy ẩn danh của Venice
- API tương thích OpenAI: Endpoint
/v1chuẩn để tích hợp dễ dàng - Streaming: ✅ Hỗ trợ trên tất cả model
- Function calling: ✅ Hỗ trợ trên các model được chọn (kiểm tra khả năng của model)
- Vision: ✅ Hỗ trợ trên các model có khả năng vision
- Không có giới hạn tốc độ cứng: Có thể áp dụng điều chỉnh fair-use cho việc sử dụng cực đoan
Cài đặt
1. Lấy API Key
- Đăng ký tại venice.ai
- Vào Settings → API Keys → Create new key
- Copy API key của các bạn (định dạng:
vapi_xxxxxxxxxxxx)
2. Cấu hình OpenClaw
Tùy chọn A: Biến môi trường
export VENICE_API_KEY="vapi_xxxxxxxxxxxx"
Tùy chọn B: Cài đặt tương tác (Khuyên dùng)
openclaw onboard --auth-choice venice-api-key
Lệnh này sẽ:
- Nhắc nhập API key của các bạn (hoặc dùng
VENICE_API_KEYhiện có) - Hiển thị tất cả các model Venice có sẵn
- Cho các bạn chọn model mặc định
- Tự động cấu hình provider
Tùy chọn C: Không tương tác
openclaw onboard --non-interactive \
--auth-choice venice-api-key \
--venice-api-key "vapi_xxxxxxxxxxxx"
3. Xác minh cài đặt
openclaw chat --model venice/llama-3.3-70b "Hello, are you working?"
Chọn model
Sau khi cài đặt, OpenClaw hiển thị tất cả các model Venice có sẵn. Chọn dựa trên nhu cầu của các bạn:
- Mặc định (lựa chọn của mình):
venice/llama-3.3-70bcho hiệu suất cân bằng, riêng tư. - Chất lượng tổng thể tốt nhất:
venice/claude-opus-45cho các công việc khó (Opus vẫn mạnh nhất). - Quyền riêng tư: Chọn các model “private” cho inference hoàn toàn riêng tư.
- Khả năng: Chọn các model “anonymized” để truy cập Claude, GPT, Gemini qua proxy của Venice.
Thay đổi model mặc định bất cứ lúc nào:
openclaw models set venice/claude-opus-45
openclaw models set venice/llama-3.3-70b
Liệt kê tất cả các model có sẵn:
openclaw models list | grep venice
Cấu hình qua openclaw configure
- Chạy
openclaw configure - Chọn Model/auth
- Chọn Venice AI
Nên dùng model nào?
| Trường hợp sử dụng | Model khuyên dùng | Tại sao |
|---|---|---|
| Chat chung | llama-3.3-70b | Tốt toàn diện, hoàn toàn riêng tư |
| Chất lượng tổng thể tốt nhất | claude-opus-45 | Opus vẫn mạnh nhất cho các tác vụ khó |
| Quyền riêng tư + chất lượng Claude | claude-opus-45 | Lý luận tốt nhất qua proxy ẩn danh |
| Coding | qwen3-coder-480b-a35b-instruct | Tối ưu cho code, context 262k |
| Tác vụ vision | qwen3-vl-235b-a22b | Model vision riêng tư tốt nhất |
| Không kiểm duyệt | venice-uncensored | Không có hạn chế nội dung |
| Nhanh + rẻ | qwen3-4b | Nhẹ, vẫn có khả năng |
| Lý luận phức tạp | deepseek-v3.2 | Lý luận mạnh, riêng tư |
Các model có sẵn (Tổng cộng 25)
Model Private (15) — Hoàn toàn riêng tư, không ghi log
| Model ID | Tên | Context (token) | Tính năng |
|---|---|---|---|
llama-3.3-70b | Llama 3.3 70B | 131k | Chung |
llama-3.2-3b | Llama 3.2 3B | 131k | Nhanh, nhẹ |
hermes-3-llama-3.1-405b | Hermes 3 Llama 3.1 405B | 131k | Tác vụ phức tạp |
qwen3-235b-a22b-thinking-2507 | Qwen3 235B Thinking | 131k | Lý luận |
qwen3-235b-a22b-instruct-2507 | Qwen3 235B Instruct | 131k | Chung |
qwen3-coder-480b-a35b-instruct | Qwen3 Coder 480B | 262k | Code |
qwen3-next-80b | Qwen3 Next 80B | 262k | Chung |
qwen3-vl-235b-a22b | Qwen3 VL 235B | 262k | Vision |
qwen3-4b | Venice Small (Qwen3 4B) | 32k | Nhanh, lý luận |
deepseek-v3.2 | DeepSeek V3.2 | 163k | Lý luận |
venice-uncensored | Venice Uncensored | 32k | Không kiểm duyệt |
mistral-31-24b | Venice Medium (Mistral) | 131k | Vision |
google-gemma-3-27b-it | Gemma 3 27B Instruct | 202k | Vision |
openai-gpt-oss-120b | OpenAI GPT OSS 120B | 131k | Chung |
zai-org-glm-4.7 | GLM 4.7 | 202k | Lý luận, đa ngôn ngữ |
Model Anonymized (10) — Qua Venice Proxy
| Model ID | Gốc | Context (token) | Tính năng |
|---|---|---|---|
claude-opus-45 | Claude Opus 4.5 | 202k | Lý luận, vision |
claude-sonnet-45 | Claude Sonnet 4.5 | 202k | Lý luận, vision |
openai-gpt-52 | GPT-5.2 | 262k | Lý luận |
openai-gpt-52-codex | GPT-5.2 Codex | 262k | Lý luận, vision |
gemini-3-pro-preview | Gemini 3 Pro | 202k | Lý luận, vision |
gemini-3-flash-preview | Gemini 3 Flash | 262k | Lý luận, vision |
grok-41-fast | Grok 4.1 Fast | 262k | Lý luận, vision |
grok-code-fast-1 | Grok Code Fast 1 | 262k | Lý luận, code |
kimi-k2-thinking | Kimi K2 Thinking | 262k | Lý luận |
minimax-m21 | MiniMax M2.1 | 202k | Lý luận |
Khám phá model
OpenClaw tự động khám phá các model từ Venice API khi VENICE_API_KEY được đặt. Nếu API không thể truy cập, nó sẽ quay lại catalog tĩnh.
Endpoint /models là công khai (không cần xác thực để liệt kê), nhưng inference yêu cầu API key hợp lệ.
Hỗ trợ Streaming & Tool
| Tính năng | Hỗ trợ |
|---|---|
| Streaming | ✅ Tất cả model |
| Function calling | ✅ Hầu hết các model (kiểm tra supportsFunctionCalling trong API) |
| Vision/Images | ✅ Các model được đánh dấu có tính năng “Vision” |
| JSON mode | ✅ Hỗ trợ qua response_format |
Giá cả
Venice sử dụng hệ thống dựa trên credit. Kiểm tra venice.ai/pricing để biết giá hiện tại:
- Model private: Thường chi phí thấp hơn
- Model anonymized: Tương tự giá API trực tiếp + phí Venice nhỏ
So sánh: Venice vs API trực tiếp
| Khía cạnh | Venice (Anonymized) | API trực tiếp |
|---|---|---|
| Quyền riêng tư | Metadata bị loại bỏ, ẩn danh | Tài khoản của bạn được liên kết |
| Độ trễ | +10-50ms (proxy) | Trực tiếp |
| Tính năng | Hầu hết tính năng được hỗ trợ | Đầy đủ tính năng |
| Thanh toán | Credit Venice | Thanh toán provider |
Ví dụ sử dụng
# Dùng model private mặc định
openclaw chat --model venice/llama-3.3-70b
# Dùng Claude qua Venice (anonymized)
openclaw chat --model venice/claude-opus-45
# Dùng model không kiểm duyệt
openclaw chat --model venice/venice-uncensored
# Dùng model vision với hình ảnh
openclaw chat --model venice/qwen3-vl-235b-a22b
# Dùng model coding
openclaw chat --model venice/qwen3-coder-480b-a35b-instruct
Troubleshooting
API key không được nhận dạng
echo $VENICE_API_KEY
openclaw models list | grep venice
Đảm bảo key bắt đầu bằng vapi_.
Model không có sẵn
Catalog model Venice cập nhật động. Chạy openclaw models list để xem các model hiện có sẵn. Một số model có thể tạm thời offline.
Vấn đề kết nối
Venice API ở https://api.venice.ai/api/v1. Đảm bảo mạng của các bạn cho phép kết nối HTTPS.
Ví dụ file config
{
env: { VENICE_API_KEY: "vapi_..." },
agents: { defaults: { model: { primary: "venice/llama-3.3-70b" } } },
models: {
mode: "merge",
providers: {
venice: {
baseUrl: "https://api.venice.ai/api/v1",
apiKey: "${VENICE_API_KEY}",
api: "openai-completions",
models: [
{
id: "llama-3.3-70b",
name: "Llama 3.3 70B",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 131072,
maxTokens: 8192,
},
],
},
},
},
}