myQuickClaw

OpenRouter

Passo a passo para obter sua API key do OpenRouter e acessar 400+ modelos de IA.

Sobre o OpenRouter

O OpenRouter e um agregador de modelos de IA que oferece acesso a 400+ modelos de multiplos provedores com uma unica API key. Sua API e 100% compativel com o formato OpenAI, o que facilita a integracao.

O OpenRouter esta disponivel em todos os planos do QuickClaw. No plano Flex (BYOK), voce usa sua propria chave. Nos planos Starter e Pro, o QuickClaw fornece acesso via chave master da plataforma.

Passo a passo

1

Crie sua conta no OpenRouter

Acesse openrouter.ai e crie uma conta. Voce pode usar email, Google ou GitHub.

2

Acesse a secao de chaves

Va em Settings > Keys (ou acesse diretamente openrouter.ai/settings/keys).

3

Crie uma nova chave

Clique em "Create Key" e de um nome descritivo (ex: "quickclaw").

4

Copie e cole no QuickClaw

Copie a chave gerada (formato sk-or-v1-...) e cole no QuickClaw, na tab "Secrets & API Keys" do seu agente.

Formato da chave

A API key do OpenRouter segue este formato:

text
sk-or-v1-xxxxxxxxxxxxxxxxxxxx

Modelos disponiveis no QuickClaw

Com o OpenRouter no QuickClaw, voce tem acesso a modelos de multiplos provedores (Anthropic, OpenAI, Google, Meta, DeepSeek e mais):

  • Anthropic: Claude Opus 4.6O mais inteligente da Anthropic. Via OpenRouter.(1M contexto)
  • Anthropic: Claude Sonnet 4.6Anthropic via OpenRouter — modelo mais recente(1M contexto)
  • Anthropic: Claude Sonnet 4.5Equilíbrio entre inteligência e velocidade. Via OpenRouter.(1M contexto)
  • Anthropic: Claude Haiku 4.5Anthropic via OpenRouter — rápido e econômico(200K contexto)
  • OpenAI: GPT-4.1Contexto de 1M tokens. Ótimo para documentos longos. Via OpenRouter.(1.0M contexto)
  • Anthropic: Claude Opus 4.6 (Fast)Anthropic Claude Opus 4.6 versão Fast — mesmo modelo, latência menor, 1M contexto(1M contexto)
  • OpenAI: GPT-5.4Modelo flagship mais recente da OpenAI via OpenRouter(1.1M contexto)
  • OpenAI: GPT-5.4 MiniVersão compacta do GPT-5.4 via OpenRouter(400K contexto)
  • OpenAI: GPT-5.2OpenAI frontier — mais capaz da família GPT-5(400K contexto)
  • OpenAI: GPT-5.1OpenAI via OpenRouter — upgrade do GPT-5(400K contexto)
  • OpenAI: GPT-5GPT-5 via OpenRouter(400K contexto)
  • OpenAI: GPT-5 MiniGPT-5 Mini via OpenRouter(400K contexto)
  • OpenAI: GPT-5 NanoOpenAI via OpenRouter — ultra-rápido e barato(400K contexto)
  • OpenAI: GPT-4oMultimodal (texto+visão+áudio). Via OpenRouter.(128K contexto)
  • OpenAI: o4 MiniOpenAI reasoning compacto via OpenRouter(200K contexto)
  • OpenAI: GPT-4o-miniOpenAI via OpenRouter — compacto e eficiente(128K contexto)
  • Google: Gemini 3.1 Pro PreviewGoogle via OpenRouter — modelo mais recente(1.0M contexto)
  • Google: Gemma 4 31B (free)Google Gemma 4 31B Instruct — modelo gratuito de propósito geral, 262K contexto(262K contexto)
  • Google: Gemini 2.5 ProModelo avançado do Google. Via OpenRouter.(1.0M contexto)
  • Google: Gemma 4 26B A4B (free)Google Gemma 4 26B A4B Instruct — modelo gratuito menor, 262K contexto(262K contexto)
  • NVIDIA: Nemotron 3 Nano 30B A3B (free)NVIDIA Nemotron 3 Nano 30B — modelo gratuito leve, 256K contexto(256K contexto)
  • MiniMax: MiniMax M2.5 (free)MiniMax M2.5 versão gratuita, 196K contexto(197K contexto)
  • Arcee AI: Trinity Large Preview (free)Arcee AI Trinity Large preview gratuito, 131K contexto(131K contexto)
  • Google: Gemini 3 Flash PreviewGoogle via OpenRouter — Gemini 3 Flash(1.0M contexto)
  • Google: Gemini 2.5 FlashRápido e econômico do Google. Via OpenRouter.(1.0M contexto)
  • OpenAI: GPT-5.4 NanoOpenAI GPT-5.4 Nano — versão ultra-leve da família 5.4, 400K contexto(400K contexto)
  • OpenAI: GPT-5.4 ProOpenAI GPT-5.4 Pro — versão top da família 5.4, 1.05M contexto(1.1M contexto)
  • OpenAI: GPT-5.3 ChatOpenAI GPT-5.3 Chat — variante conversacional, 128K contexto(128K contexto)
  • Google: Gemini 2.5 Flash LiteGoogle via OpenRouter — ultra-baixo custo(1.0M contexto)
  • OpenAI: GPT-5.3-CodexOpenAI GPT-5.3 Codex — especializado em código, 400K contexto(400K contexto)
  • OpenAI: GPT-5.2-CodexOpenAI GPT-5.2 Codex — código, geração anterior, 400K contexto(400K contexto)
  • OpenAI: GPT-5.2 ProOpenAI GPT-5.2 Pro — versão top da família 5.2, 400K contexto(400K contexto)
  • OpenAI: GPT-5.2 ChatOpenAI GPT-5.2 Chat — conversacional, 128K contexto(128K contexto)
  • xAI: Grok 4.20xAI Grok 4.20 — geração mais recente, 2M contexto, raciocínio avançado(2M contexto)
  • Meta: Llama 4 MaverickOpen source da Meta. Excelente custo-benefício. Via OpenRouter.(1.0M contexto)
  • xAI: Grok 4.20 Multi-AgentxAI Grok 4.20 Multi-Agent — orquestração de agentes, 2M contexto(2M contexto)
  • Z.ai: GLM 5.1Z.ai GLM 5.1 — geração mais recente, 202K contexto, custo baixo(203K contexto)
  • Google: Gemini 3.1 Flash Lite PreviewGoogle Gemini 3.1 Flash Lite Preview — versão paga (substitui o gemini-3-flash-lite-preview que era gratuito), 1M contexto(1.0M contexto)
  • Mistral: Mistral Small 4Mistral Small 4 (2603) — modelo compacto top da Mistral, 262K contexto(262K contexto)
  • Mistral: Devstral 2 2512Mistral Devstral 2 (2512) — especializado em código/dev, 262K contexto(262K contexto)
  • Qwen: Qwen3.5-FlashQwen 3.5 Flash — variante rápida, 1M contexto, custo extremamente baixo(1M contexto)
  • Qwen: Qwen3 Max ThinkingQwen 3 Max com modo thinking — raciocínio extendido, 262K contexto(262K contexto)
  • Qwen: Qwen3 Coder NextQwen 3 Coder Next — especializado em código, 262K contexto(262K contexto)
  • Qwen: Qwen3.5-122B-A10BQwen 3.5 122B A10B — modelo grande, 262K contexto(262K contexto)
  • ByteDance Seed: Seed 1.6ByteDance Seed 1.6 — modelo de propósito geral, 262K contexto(262K contexto)
  • DeepSeek: R1Reasoning avançado. Muito econômico. Via OpenRouter.(64K contexto)
  • Xiaomi: MiMo-V2-FlashXiaomi MiMo-V2 Flash — variante rápida da família MiMo-V2, 262K contexto(262K contexto)
  • DeepSeek: DeepSeek V3.2Open-source chinês, ultra-barato — coding e raciocínio(131K contexto)
  • MoonshotAI: Kimi K2.5Multimodal nativo com visual coding e agent swarm. Via OpenRouter.(262K contexto)
  • MiniMax: MiniMax M2.5Produtividade real: coding, Word, Excel, PowerPoint. Via OpenRouter.(197K contexto)
  • xAI: Grok 4.1 FastxAI — contexto 2M tokens, agent tool calling(2M contexto)
  • Mistral: Mistral Large 3 2512Mistral AI — 675B MoE, Apache 2.0(262K contexto)
  • Qwen: Qwen3.5 Plus 2026-02-15Alibaba — MoE, visão nativa, contexto 1M(1M contexto)
  • Xiaomi: MiMo-V2-ProModelo MoE da Xiaomi com forte desempenho em raciocínio e código. 1M de contexto.(1.0M contexto)
  • MiniMax: MiniMax M2.7Evolução do M2.5 da MiniMax com melhorias em raciocínio e geração. 204K de contexto.(197K contexto)
  • Z.ai: GLM 5 TurboModelo otimizado para velocidade da Z-AI (Zhipu). Forte em chinês e inglês. 202K de contexto.(203K contexto)
  • NVIDIA: Nemotron 3 Super (free)Modelo MoE 120B da NVIDIA (12B ativos). Gratuito, forte em raciocínio e código. 262K de contexto.(262K contexto)
  • OpenAI: gpt-oss-120bModelo open-weight 117B MoE da OpenAI. 5.1B parâmetros ativos. Quantização MXFP4 nativa. Raciocínio configurável.(131K contexto)
  • Xiaomi: MiMo-V2-OmniModelo multimodal da Xiaomi. Suporta texto, imagem e áudio. 262K de contexto.(262K contexto)
  • Z.ai: GLM 5Modelo principal da Z-AI (Zhipu). Forte em raciocínio, matemática e chinês/inglês. 80K de contexto.(203K contexto)
  • Qwen: Qwen3.5-35B-A3BThe Qwen3.5 Series 35B-A3B is a native vision-language model designed with a hybrid architecture that integrates linear attention mechanisms and a sparse mixture-of-experts model, achieving higher inference efficiency. Its overall...(262K contexto)
  • OpenAI: gpt-oss-20b (free)gpt-oss-20b is an open-weight 21B parameter model released by OpenAI under the Apache 2.0 license. It uses a Mixture-of-Experts (MoE) architecture with 3.6B active parameters per forward pass, optimized for...(131K contexto)
  • Google: Gemma 4 31BGemma 4 31B Instruct is Google DeepMind's 30.7B dense multimodal model supporting text and image input with text output. Features a 256K token context window, configurable thinking/reasoning mode, native function...(262K contexto)
  • Google: Gemma 4 26B A4B Gemma 4 26B A4B IT is an instruction-tuned Mixture-of-Experts (MoE) model from Google DeepMind. Despite 25.2B total parameters, only 3.8B activate per token during inference — delivering near-31B quality at...(262K contexto)
  • Google: Gemini 3.1 Pro Preview Custom ToolsGemini 3.1 Pro Preview Custom Tools is a variant of Gemini 3.1 Pro that improves tool selection behavior by preventing overuse of a general bash tool when more efficient third-party...(1.0M contexto)
  • OpenAI: GPT-5.4 Image 2[GPT-5.4](https://openrouter.ai/openai/gpt-5.4) Image 2 combines OpenAI's GPT-5.4 model with state-of-the-art image generation capabilities from GPT Image 2. It enables rich multimodal workflows, allowing users to seamlessly move between reasoning, coding, and...(272K contexto)
  • Google: Nano Banana 2 (Gemini 3.1 Flash Image Preview)Gemini 3.1 Flash Image Preview, a.k.a. "Nano Banana 2," is Google’s latest state of the art image generation and editing model, delivering Pro-level visual quality at Flash speed. It combines...(66K contexto)
  • Meta: Llama 3.2 3B Instruct (free)Llama 3.2 3B is a 3-billion-parameter multilingual large language model, optimized for advanced natural language processing tasks like dialogue generation, reasoning, and summarization. Designed with the latest transformer architecture, it...(131K contexto)
  • Qwen: Qwen3.5 397B A17BThe Qwen3.5 series 397B-A17B native vision-language model is built on a hybrid architecture that integrates a linear attention mechanism with a sparse mixture-of-experts model, achieving higher inference efficiency. It delivers...(262K contexto)
  • Z.ai: GLM 5V TurboGLM-5V-Turbo is Z.ai’s first native multimodal agent foundation model, built for vision-based coding and agent-driven tasks. It natively handles image, video, and text inputs, excels at long-horizon planning, complex coding,...(203K contexto)
  • Anthropic: Claude Opus 4.7Opus 4.7 is the next generation of Anthropic's Opus family, built for long-running, asynchronous agents. Building on the coding and agentic strengths of Opus 4.6, it delivers stronger performance on...(1M contexto)
  • Qwen: Qwen3.5-9BQwen3.5-9B is a multimodal foundation model from the Qwen3.5 family, designed to deliver strong reasoning, coding, and visual understanding in an efficient 9B-parameter architecture. It uses a unified vision-language design...(262K contexto)
  • Qwen: Qwen3.5-27BThe Qwen3.5 27B native vision-language Dense model incorporates a linear attention mechanism, delivering fast response times while balancing inference speed and performance. Its overall capabilities are comparable to those of...(262K contexto)
  • MoonshotAI: Kimi K2.6Kimi K2.6 is Moonshot AI's next-generation multimodal model, designed for long-horizon coding, coding-driven UI/UX generation, and multi-agent orchestration. It handles complex end-to-end coding tasks across Python, Rust, and Go, and...(262K contexto)

Por que OpenRouter?

Uma chave, multiplos provedores

Com o OpenRouter, voce tem uma unica chave que da acesso a modelos de diferentes provedores. Se um provedor cai ou fica lento, o OpenRouter pode rotear automaticamente para outro. Isso traz resiliencia e flexibilidade para seu agente.

Disponibilidade

Disponivel em todos os planos

O OpenRouter esta disponivel em todos os planos do QuickClaw. No plano Flex (BYOK), voce configura sua propria chave do OpenRouter. Nos planos Starter e Pro, o acesso ao OpenRouter e fornecido automaticamente pela plataforma — os custos sao debitados dos seus creditos de IA.

myQuickClaw
Suporte QuickClawEscolha uma opcao para comecar

Ola! Sou o agente do QuickClaw. Escolha uma opcao abaixo para que eu possa te ajudar:

Powered by QuickClaw