ferramentas

O que é o OpenRouter — gateway único pra acessar qualquer modelo de IA

OpenRouter unifica mais de 500 modelos de IA numa API só, com fallback automático, roteamento por custo e sem markup no preço dos tokens

O que é o OpenRouter — gateway único pra acessar qualquer modelo de IA

O problema que o OpenRouter resolve

Quem trabalha com modelos de linguagem no dia a dia conhece a dor: cada provedor tem sua API, seu formato de autenticação, seu sistema de billing, seus limites de uso. Quer usar Claude da Anthropic, GPT da OpenAI, Gemini do Google e Llama da Meta? São quatro contas, quatro chaves, quatro dashboards de cobrança e quatro formatos de requisição pra gerenciar.

O OpenRouter resolve isso com uma camada de abstração. Uma chave, um endpoint, um formato de requisição — e acesso a mais de 500 modelos de mais de 60 provedores. A plataforma processa mais de 20 trilhões de tokens por semana e já é avaliada em US$ 1,3 bilhão.

Não é um provedor de modelos. É um roteador. Ele recebe sua requisição, encaminha pro provedor certo e devolve a resposta no mesmo formato padronizado. Pense nele como um load balancer inteligente pra LLMs.

Como funciona na prática

A API do OpenRouter é compatível com o formato da OpenAI. Se sua aplicação já usa o SDK da OpenAI, migrar é trocar a URL base e a chave:

from openai import OpenAI

client = OpenAI(
    base_url="https://openrouter.ai/api/v1",
    api_key="sua-chave-openrouter"
)

response = client.chat.completions.create(
    model="anthropic/claude-sonnet-4-20250514",
    messages=[
        {"role": "user", "content": "Explique o que é crawl budget."}
    ]
)

O modelo é identificado pelo padrão provedor/nome-do-modelo. Exemplos: openai/gpt-4o, google/gemini-2.5-pro-preview, meta-llama/llama-4-maverick.

Todos os parâmetros que você já conhece funcionam: temperature, max_tokens, top_p, stop, stream, tools (function calling), response_format pra JSON mode. A documentação completa fica em openrouter.ai/docs.

Roteamento inteligente de provedores

Essa é a funcionalidade que diferencia o OpenRouter de um simples proxy. Quando você faz uma requisição, a plataforma decide pra qual provedor encaminhar com base em três critérios:

  1. Estabilidade — provedores com falhas nos últimos 30 segundos são despriorizados
  2. Preço — entre provedores estáveis, os mais baratos recebem mais tráfego (peso inversamente proporcional ao quadrado do preço)
  3. Fallback — os restantes ficam como reserva

Você pode controlar esse comportamento com o objeto provider na requisição:

{
    "model": "anthropic/claude-sonnet-4-20250514",
    "provider": {
        "sort": "latency",
        "order": ["anthropic", "google-vertex"],
        "data_collection": "deny",
        "quantizations": ["fp16", "bf16"]
    },
    "messages": [...]
}

Alguns parâmetros úteis:

  • sort — prioriza por price, throughput ou latency
  • order — define sequência explícita de provedores
  • only / ignore — whitelist ou blacklist de provedores
  • data_collection: "deny" — exclui provedores que podem usar seus dados pra treino
  • quantizations — filtra por precisão do modelo (int4, int8, fp16, etc.)

Existem também atalhos rápidos: adicione :nitro ao nome do modelo pra priorizar throughput, ou :floor pra pegar o preço mais baixo disponível.

Fallback entre modelos

Além de fallback entre provedores do mesmo modelo, o OpenRouter permite fallback entre modelos diferentes. Se o Claude estiver fora do ar, a requisição pode cair automaticamente pro GPT ou pro Gemini:

{
    "model": "anthropic/claude-sonnet-4-20250514",
    "models": [
        "anthropic/claude-sonnet-4-20250514",
        "openai/gpt-4o",
        "google/gemini-2.5-pro"
    ],
    "messages": [...]
}

A cobrança é feita pelo modelo que efetivamente respondeu. Pra aplicações em produção, isso é a diferença entre uptime de 99.9% e ficar à mercê de uma indisponibilidade.

Model Fusion

Model Fusion é um recurso experimental no labs do OpenRouter (openrouter.ai/labs/fusion). A ideia: em vez de confiar na resposta de um único modelo, ele roda o mesmo prompt em vários modelos simultaneamente e depois funde as melhores partes de cada resposta.

O processo tem três etapas:

  1. Execução paralela — o prompt vai pra múltiplos modelos ao mesmo tempo
  2. Análise — as respostas são avaliadas por eixos configuráveis (precisão, completude, etc.)
  3. Síntese — um modelo "juiz" combina os melhores trechos numa resposta final coesa

Dá pra misturar modelos open source e proprietários na mesma fusão. É útil pra pesquisa técnica, análise estratégica e casos onde a qualidade da resposta importa mais que a velocidade. O tempo total de resposta fica na faixa de 15 a 45 segundos pra um pool de 4 modelos.

O recurso está em fase de labs — pode mudar ou ser removido. Mas já funciona e não exige assinatura adicional.

Rankings

O OpenRouter mantém rankings próprios em openrouter.ai/rankings, baseados em dados reais de uso — não em benchmarks sintéticos. As métricas incluem:

  • Volume semanal de tokens por modelo
  • Market share por autor do modelo
  • Distribuição por caso de uso (programação vs. chat)
  • Frequência de uso de function calling
  • Distribuição de tamanho de contexto

Esses números contam uma história diferente dos benchmarks tradicionais. Benchmark mede capacidade teórica; ranking de uso mede o que as pessoas realmente escolhem quando estão pagando por token. Um dado interessante: modelos de origem chinesa (Qwen, DeepSeek, MiMo, MiniMax) já representam mais de 45% de todo o tráfego da plataforma.

Além dos rankings próprios, as páginas de cada modelo no OpenRouter também exibem scores do LMSYS Chatbot Arena (ranking baseado em votação da comunidade com sistema Elo).

Preço e billing

O modelo de negócio do OpenRouter é transparente: não há markup no preço por token. Você paga o mesmo que pagaria direto ao provedor. A receita da plataforma vem da taxa de compra de créditos.

Na prática:

  • Créditos são em dólar, pré-pagos
  • Taxa de compra: 5,5% (mínimo de US$ 0,80) via Stripe
  • Auto-recarga disponível quando o saldo cai abaixo de um limiar
  • Desconto de 1% se você optar por permitir logging dos prompts

Existe a opção BYOK (Bring Your Own Key) — você cadastra sua própria chave de um provedor e usa o OpenRouter só como roteador. As primeiras requisições do mês são grátis; depois, uma taxa percentual é descontada dos seus créditos OpenRouter.

Modelos gratuitos

Mais de 25 modelos estão disponíveis a custo zero, identificados pelo sufixo :free no ID. Incluem opções do Google, Meta, Mistral e NVIDIA. Limites dependem de você ter comprado créditos ou não:

Situação Requisições por minuto Limite diário
Sem créditos comprados 20 50
Com 10+ créditos comprados 20 1.000

Pra modelos pagos, o rate limit escala com o saldo: US$ 1 de saldo libera 1 requisição por segundo, até o máximo de 500 RPS.

Prompt caching

O OpenRouter suporta prompt caching em vários provedores — uma funcionalidade que pode reduzir custos drasticamente em aplicações que enviam contexto repetitivo.

O comportamento varia por provedor:

  • OpenAI — automático, sem configuração. Leituras de cache custam 25-50% do preço de input
  • Anthropic — manual (marcação cache_control) ou automático. TTL de 5 minutos (escrita a 1,25x) ou 1 hora (escrita a 2x)
  • Google Gemini — implícito (automático) ou com breakpoints explícitos. Sem custo adicional de escrita

Depois de uma requisição cacheada, o OpenRouter faz sticky routing — manda as próximas requisições pro mesmo endpoint pra manter o cache quente.

Plugins

O OpenRouter oferece plugins que estendem as capacidades dos modelos:

  • Web search — adiciona capacidade de busca em tempo real a qualquer modelo
  • File parser — processamento de PDFs e outros documentos
  • Context compression — compressão middle-out de prompts longos pra reduzir custo sem perder qualidade relevante

Quando usar o OpenRouter

Cenários onde faz sentido:

  • Aplicações multi-modelo — testar ou rotear entre modelos sem gerenciar 10+ contas de provedores
  • Produção com alta disponibilidade — fallback automático garante uptime mesmo quando um provedor cai
  • Otimização de custo — roteamento :floor encontra automaticamente o provedor mais barato
  • Conformidade e privacidade — filtro por Zero Data Retention e exclusão de provedores que treinam com dados do usuário
  • Prototipagem rápida — uma chave pra testar qualquer modelo imediatamente
  • Frameworks de agentes — funciona nativamente com LangChain, LlamaIndex e ferramentas similares

Quando não usar

  • Se você já fechou contrato enterprise direto com um provedor e tem SLA dedicado, o OpenRouter adiciona uma camada desnecessária
  • Se latência de menos de 15ms a mais faz diferença real no seu caso de uso (o OpenRouter adiciona ~15ms de overhead)
  • Se sua organização proíbe intermediários no fluxo de dados por política de compliance

O que levar daqui

O OpenRouter não reinventou a roda. Ele padronizou o acesso a uma infraestrutura que era fragmentada. Pra quem trabalha com IA em produção — ou quer experimentar sem criar conta em 10 provedores diferentes — é a solução mais prática que existe hoje.

A API é compatível com o que você já usa, o preço é transparente e o roteamento inteligente resolve problemas reais de disponibilidade e custo. Vale testar.

openrouteriaapillminteligencia-artificial