OpenRouter
Passo a passo para obter sua API key do OpenRouter e acessar 400+ modelos de IA.
Sobre o OpenRouter
O OpenRouter e um agregador de modelos de IA que oferece acesso a 400+ modelos de multiplos provedores com uma unica API key. Sua API e 100% compativel com o formato OpenAI, o que facilita a integracao.
O OpenRouter esta disponivel em todos os planos do QuickClaw. No plano Flex (BYOK), voce usa sua propria chave. Nos planos Starter e Pro, o QuickClaw fornece acesso via chave master da plataforma.
Passo a passo
Crie sua conta no OpenRouter
Acesse openrouter.ai e crie uma conta. Voce pode usar email, Google ou GitHub.
Acesse a secao de chaves
Va em Settings > Keys (ou acesse diretamente openrouter.ai/settings/keys).
Crie uma nova chave
Clique em "Create Key" e de um nome descritivo (ex: "quickclaw").
Copie e cole no QuickClaw
Copie a chave gerada (formato sk-or-v1-...) e cole no QuickClaw, na tab "Secrets & API Keys" do seu agente.
Formato da chave
A API key do OpenRouter segue este formato:
sk-or-v1-xxxxxxxxxxxxxxxxxxxxModelos disponiveis no QuickClaw
Com o OpenRouter no QuickClaw, voce tem acesso a modelos de multiplos provedores (Anthropic, OpenAI, Google, Meta, DeepSeek e mais):
- Anthropic: Claude Opus 4.6 — O mais inteligente da Anthropic. Via OpenRouter.(1M contexto)
- Anthropic: Claude Sonnet 4.6 — Anthropic via OpenRouter — modelo mais recente(1M contexto)
- Anthropic: Claude Sonnet 4.5 — Equilíbrio entre inteligência e velocidade. Via OpenRouter.(1M contexto)
- Anthropic: Claude Haiku 4.5 — Anthropic via OpenRouter — rápido e econômico(200K contexto)
- OpenAI: GPT-4.1 — Contexto de 1M tokens. Ótimo para documentos longos. Via OpenRouter.(1.0M contexto)
- Anthropic: Claude Opus 4.6 (Fast) — Anthropic Claude Opus 4.6 versão Fast — mesmo modelo, latência menor, 1M contexto(1M contexto)
- OpenAI: GPT-5.4 — Modelo flagship mais recente da OpenAI via OpenRouter(1.1M contexto)
- OpenAI: GPT-5.4 Mini — Versão compacta do GPT-5.4 via OpenRouter(400K contexto)
- OpenAI: GPT-5.2 — OpenAI frontier — mais capaz da família GPT-5(400K contexto)
- OpenAI: GPT-5.1 — OpenAI via OpenRouter — upgrade do GPT-5(400K contexto)
- OpenAI: GPT-5 — GPT-5 via OpenRouter(400K contexto)
- OpenAI: GPT-5 Mini — GPT-5 Mini via OpenRouter(400K contexto)
- OpenAI: GPT-5 Nano — OpenAI via OpenRouter — ultra-rápido e barato(400K contexto)
- OpenAI: GPT-4o — Multimodal (texto+visão+áudio). Via OpenRouter.(128K contexto)
- OpenAI: o4 Mini — OpenAI reasoning compacto via OpenRouter(200K contexto)
- OpenAI: GPT-4o-mini — OpenAI via OpenRouter — compacto e eficiente(128K contexto)
- Google: Gemini 3.1 Pro Preview — Google via OpenRouter — modelo mais recente(1.0M contexto)
- Google: Gemma 4 31B (free) — Google Gemma 4 31B Instruct — modelo gratuito de propósito geral, 262K contexto(262K contexto)
- Google: Gemini 2.5 Pro — Modelo avançado do Google. Via OpenRouter.(1.0M contexto)
- Google: Gemma 4 26B A4B (free) — Google Gemma 4 26B A4B Instruct — modelo gratuito menor, 262K contexto(262K contexto)
- NVIDIA: Nemotron 3 Nano 30B A3B (free) — NVIDIA Nemotron 3 Nano 30B — modelo gratuito leve, 256K contexto(256K contexto)
- MiniMax: MiniMax M2.5 (free) — MiniMax M2.5 versão gratuita, 196K contexto(197K contexto)
- Arcee AI: Trinity Large Preview (free) — Arcee AI Trinity Large preview gratuito, 131K contexto(131K contexto)
- Google: Gemini 3 Flash Preview — Google via OpenRouter — Gemini 3 Flash(1.0M contexto)
- Google: Gemini 2.5 Flash — Rápido e econômico do Google. Via OpenRouter.(1.0M contexto)
- OpenAI: GPT-5.4 Nano — OpenAI GPT-5.4 Nano — versão ultra-leve da família 5.4, 400K contexto(400K contexto)
- OpenAI: GPT-5.4 Pro — OpenAI GPT-5.4 Pro — versão top da família 5.4, 1.05M contexto(1.1M contexto)
- OpenAI: GPT-5.3 Chat — OpenAI GPT-5.3 Chat — variante conversacional, 128K contexto(128K contexto)
- Google: Gemini 2.5 Flash Lite — Google via OpenRouter — ultra-baixo custo(1.0M contexto)
- OpenAI: GPT-5.3-Codex — OpenAI GPT-5.3 Codex — especializado em código, 400K contexto(400K contexto)
- OpenAI: GPT-5.2-Codex — OpenAI GPT-5.2 Codex — código, geração anterior, 400K contexto(400K contexto)
- OpenAI: GPT-5.2 Pro — OpenAI GPT-5.2 Pro — versão top da família 5.2, 400K contexto(400K contexto)
- OpenAI: GPT-5.2 Chat — OpenAI GPT-5.2 Chat — conversacional, 128K contexto(128K contexto)
- xAI: Grok 4.20 — xAI Grok 4.20 — geração mais recente, 2M contexto, raciocínio avançado(2M contexto)
- Meta: Llama 4 Maverick — Open source da Meta. Excelente custo-benefício. Via OpenRouter.(1.0M contexto)
- xAI: Grok 4.20 Multi-Agent — xAI Grok 4.20 Multi-Agent — orquestração de agentes, 2M contexto(2M contexto)
- Z.ai: GLM 5.1 — Z.ai GLM 5.1 — geração mais recente, 202K contexto, custo baixo(203K contexto)
- Google: Gemini 3.1 Flash Lite Preview — Google Gemini 3.1 Flash Lite Preview — versão paga (substitui o gemini-3-flash-lite-preview que era gratuito), 1M contexto(1.0M contexto)
- Mistral: Mistral Small 4 — Mistral Small 4 (2603) — modelo compacto top da Mistral, 262K contexto(262K contexto)
- Mistral: Devstral 2 2512 — Mistral Devstral 2 (2512) — especializado em código/dev, 262K contexto(262K contexto)
- Qwen: Qwen3.5-Flash — Qwen 3.5 Flash — variante rápida, 1M contexto, custo extremamente baixo(1M contexto)
- Qwen: Qwen3 Max Thinking — Qwen 3 Max com modo thinking — raciocínio extendido, 262K contexto(262K contexto)
- Qwen: Qwen3 Coder Next — Qwen 3 Coder Next — especializado em código, 262K contexto(262K contexto)
- Qwen: Qwen3.5-122B-A10B — Qwen 3.5 122B A10B — modelo grande, 262K contexto(262K contexto)
- ByteDance Seed: Seed 1.6 — ByteDance Seed 1.6 — modelo de propósito geral, 262K contexto(262K contexto)
- DeepSeek: R1 — Reasoning avançado. Muito econômico. Via OpenRouter.(64K contexto)
- Xiaomi: MiMo-V2-Flash — Xiaomi MiMo-V2 Flash — variante rápida da família MiMo-V2, 262K contexto(262K contexto)
- DeepSeek: DeepSeek V3.2 — Open-source chinês, ultra-barato — coding e raciocínio(131K contexto)
- MoonshotAI: Kimi K2.5 — Multimodal nativo com visual coding e agent swarm. Via OpenRouter.(262K contexto)
- MiniMax: MiniMax M2.5 — Produtividade real: coding, Word, Excel, PowerPoint. Via OpenRouter.(197K contexto)
- xAI: Grok 4.1 Fast — xAI — contexto 2M tokens, agent tool calling(2M contexto)
- Mistral: Mistral Large 3 2512 — Mistral AI — 675B MoE, Apache 2.0(262K contexto)
- Qwen: Qwen3.5 Plus 2026-02-15 — Alibaba — MoE, visão nativa, contexto 1M(1M contexto)
- Xiaomi: MiMo-V2-Pro — Modelo MoE da Xiaomi com forte desempenho em raciocínio e código. 1M de contexto.(1.0M contexto)
- MiniMax: MiniMax M2.7 — Evolução do M2.5 da MiniMax com melhorias em raciocínio e geração. 204K de contexto.(197K contexto)
- Z.ai: GLM 5 Turbo — Modelo otimizado para velocidade da Z-AI (Zhipu). Forte em chinês e inglês. 202K de contexto.(203K contexto)
- NVIDIA: Nemotron 3 Super (free) — Modelo MoE 120B da NVIDIA (12B ativos). Gratuito, forte em raciocínio e código. 262K de contexto.(262K contexto)
- OpenAI: gpt-oss-120b — Modelo open-weight 117B MoE da OpenAI. 5.1B parâmetros ativos. Quantização MXFP4 nativa. Raciocínio configurável.(131K contexto)
- Xiaomi: MiMo-V2-Omni — Modelo multimodal da Xiaomi. Suporta texto, imagem e áudio. 262K de contexto.(262K contexto)
- Z.ai: GLM 5 — Modelo principal da Z-AI (Zhipu). Forte em raciocínio, matemática e chinês/inglês. 80K de contexto.(203K contexto)
- Qwen: Qwen3.5-35B-A3B — The Qwen3.5 Series 35B-A3B is a native vision-language model designed with a hybrid architecture that integrates linear attention mechanisms and a sparse mixture-of-experts model, achieving higher inference efficiency. Its overall...(262K contexto)
- OpenAI: gpt-oss-20b (free) — gpt-oss-20b is an open-weight 21B parameter model released by OpenAI under the Apache 2.0 license. It uses a Mixture-of-Experts (MoE) architecture with 3.6B active parameters per forward pass, optimized for...(131K contexto)
- Google: Gemma 4 31B — Gemma 4 31B Instruct is Google DeepMind's 30.7B dense multimodal model supporting text and image input with text output. Features a 256K token context window, configurable thinking/reasoning mode, native function...(262K contexto)
- Google: Gemma 4 26B A4B — Gemma 4 26B A4B IT is an instruction-tuned Mixture-of-Experts (MoE) model from Google DeepMind. Despite 25.2B total parameters, only 3.8B activate per token during inference — delivering near-31B quality at...(262K contexto)
- Google: Gemini 3.1 Pro Preview Custom Tools — Gemini 3.1 Pro Preview Custom Tools is a variant of Gemini 3.1 Pro that improves tool selection behavior by preventing overuse of a general bash tool when more efficient third-party...(1.0M contexto)
- OpenAI: GPT-5.4 Image 2 — [GPT-5.4](https://openrouter.ai/openai/gpt-5.4) Image 2 combines OpenAI's GPT-5.4 model with state-of-the-art image generation capabilities from GPT Image 2. It enables rich multimodal workflows, allowing users to seamlessly move between reasoning, coding, and...(272K contexto)
- Google: Nano Banana 2 (Gemini 3.1 Flash Image Preview) — Gemini 3.1 Flash Image Preview, a.k.a. "Nano Banana 2," is Google’s latest state of the art image generation and editing model, delivering Pro-level visual quality at Flash speed. It combines...(66K contexto)
- Meta: Llama 3.2 3B Instruct (free) — Llama 3.2 3B is a 3-billion-parameter multilingual large language model, optimized for advanced natural language processing tasks like dialogue generation, reasoning, and summarization. Designed with the latest transformer architecture, it...(131K contexto)
- Qwen: Qwen3.5 397B A17B — The Qwen3.5 series 397B-A17B native vision-language model is built on a hybrid architecture that integrates a linear attention mechanism with a sparse mixture-of-experts model, achieving higher inference efficiency. It delivers...(262K contexto)
- Z.ai: GLM 5V Turbo — GLM-5V-Turbo is Z.ai’s first native multimodal agent foundation model, built for vision-based coding and agent-driven tasks. It natively handles image, video, and text inputs, excels at long-horizon planning, complex coding,...(203K contexto)
- Anthropic: Claude Opus 4.7 — Opus 4.7 is the next generation of Anthropic's Opus family, built for long-running, asynchronous agents. Building on the coding and agentic strengths of Opus 4.6, it delivers stronger performance on...(1M contexto)
- Qwen: Qwen3.5-9B — Qwen3.5-9B is a multimodal foundation model from the Qwen3.5 family, designed to deliver strong reasoning, coding, and visual understanding in an efficient 9B-parameter architecture. It uses a unified vision-language design...(262K contexto)
- Qwen: Qwen3.5-27B — The Qwen3.5 27B native vision-language Dense model incorporates a linear attention mechanism, delivering fast response times while balancing inference speed and performance. Its overall capabilities are comparable to those of...(262K contexto)
- MoonshotAI: Kimi K2.6 — Kimi K2.6 is Moonshot AI's next-generation multimodal model, designed for long-horizon coding, coding-driven UI/UX generation, and multi-agent orchestration. It handles complex end-to-end coding tasks across Python, Rust, and Go, and...(262K contexto)
Por que OpenRouter?
Uma chave, multiplos provedores
Com o OpenRouter, voce tem uma unica chave que da acesso a modelos de diferentes provedores. Se um provedor cai ou fica lento, o OpenRouter pode rotear automaticamente para outro. Isso traz resiliencia e flexibilidade para seu agente.
Disponibilidade
Disponivel em todos os planos
O OpenRouter esta disponivel em todos os planos do QuickClaw. No plano Flex (BYOK), voce configura sua propria chave do OpenRouter. Nos planos Starter e Pro, o acesso ao OpenRouter e fornecido automaticamente pela plataforma — os custos sao debitados dos seus creditos de IA.