Proxy Endpoints
Endpoints do API Proxy: /v1/chat/completions e /v1/messages.
Base URL
O API Proxy roda em cada VPS e esta disponivel apenas internamente:
http://localhost:3100Essa URL e acessivel apenas de dentro dos containers na mesma VPS. O OpenClaw e configurado automaticamente para usar esse endereco — voce nao precisa configura-lo manualmente.
Autenticacao
Todas as requisicoes devem incluir o header de autorizacao com o token unico do agente:
Authorization: Bearer qc_bot_a1b2c3d4e5f6...O token e injetado automaticamente no container via variavel de ambiente. O proxy valida o token contra o banco de dados e identifica qual bot esta fazendo a requisicao, incluindo seu tier, modelo e saldo de creditos.
Anthropic - POST /v1/messages
Endpoint para modelos da Anthropic (Claude Opus 4.6, Sonnet 4.5, Haiku 4.5). Usa o formato nativo da Messages API:
{
"model": "claude-sonnet-4-5-20241022",
"max_tokens": 1024,
"messages": [
{
"role": "user",
"content": "Ola, como voce pode me ajudar?"
}
]
}{
"id": "msg_01XFDUDYJgAACzvnptvVoYEL",
"type": "message",
"role": "assistant",
"content": [
{
"type": "text",
"text": "Ola! Posso ajudar com diversas tarefas..."
}
],
"model": "claude-sonnet-4-5-20241022",
"usage": {
"input_tokens": 12,
"output_tokens": 45,
"cache_creation_input_tokens": 0,
"cache_read_input_tokens": 0
}
}Stream desabilitado
O OpenClaw envia stream: true por padrao. O proxy automaticamente remove esse parametro e forca stream: falsepara receber a resposta completa de uma vez. Isso permite extrair a contagem exata de tokens para contabilizacao precisa.
OpenAI - POST /v1/chat/completions
Endpoint para modelos da OpenAI (GPT-4.1, GPT-4.1 mini, GPT-4o, o3-mini). Usa o formato Chat Completions:
{
"model": "gpt-4.1",
"messages": [
{
"role": "user",
"content": "Ola, como voce pode me ajudar?"
}
]
}{
"id": "chatcmpl-abc123",
"object": "chat.completion",
"model": "gpt-4.1",
"choices": [
{
"index": 0,
"message": {
"role": "assistant",
"content": "Ola! Posso ajudar com diversas tarefas..."
},
"finish_reason": "stop"
}
],
"usage": {
"prompt_tokens": 12,
"completion_tokens": 45,
"total_tokens": 57
}
}OpenRouter usa o mesmo path
O OpenRouter tambem usa /v1/chat/completions com formato 100% compativel com a OpenAI. O proxy diferencia os dois pelo campo ai_provider do agente no banco de dados, nao pelo path da requisicao. O OpenRouter esta disponivel em todos os planos.
Google - Gemini
Para modelos Google (Gemini 2.5 Pro, Gemini 2.0 Flash), o roteamento e feito automaticamente pelo proxy. O OpenClaw envia no formato OpenAI (Chat Completions) e o proxy converte internamente para o formato nativo da Gemini API (GenerateContent).
Do ponto de vista do container, a experiencia e identica a usar a OpenAI — o mesmo formato de entrada e saida. A conversao e transparente.
Transparente para o agente
Voce nao precisa se preocupar com o formato da API do Google. O proxy cuida de toda a conversao. Basta selecionar um modelo Gemini no dashboard e o agente funciona automaticamente.
Respostas de erro
O API Proxy retorna codigos HTTP padrao para indicar problemas. Abaixo os mais comuns:
| Codigo | Significado | Causa |
|---|---|---|
401 | Nao autorizado | Token invalido, ausente ou bot desativado |
402 | Creditos insuficientes | Saldo de creditos (assinatura + topup) zerado |
429 | Rate limit | Muitas requisicoes em pouco tempo |
500 | Erro interno | Falha inesperada no proxy ou no metering |
502 | Provedor offline | O provedor de IA (Anthropic, OpenAI, etc.) esta fora do ar |
Acesso interno apenas
O API Proxy so e acessivel de dentro do container. Nao e possivel chamar esses endpoints de fora da VPS. Toda comunicacao e feita internamente pelo OpenClaw.