Saltar para o conteúdo principal
POST
/
v1
/
messages
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! I'm doing well, thank you for asking. How can I help you today?"
    }
  ],
  "model": "anthropic/claude-sonnet-4-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 19
  }
}
Cria uma mensagem usando o formato da API Anthropic Messages. Suporta texto, imagens, PDFs, ferramentas e pensamento estendido.

Autenticação

Authorization
string
obrigatório
Token Bearer. Use sua chave de API como token Bearer no cabeçalho Authorization.Formato: Bearer <SUNRA_KEY>

Requisição

Este endpoint espera um objeto.
model
string
obrigatório
O modelo que completará seu prompt. Navegue pelos modelos disponíveis em sunra.ai/models.
messages
object[]
obrigatório
Mensagens de entrada. Cada mensagem de entrada tem um role e content.
max_tokens
integer
obrigatório
O número máximo de tokens a gerar antes de parar. Note que o modelo pode parar antes de atingir este máximo.
system
string | object[]
Prompt do sistema. Um prompt do sistema é uma forma de fornecer contexto e instruções ao modelo. Pode ser uma string ou um array de blocos de conteúdo.
stream
boolean
padrão:false
Indica se a resposta deve ser transmitida de forma incremental usando eventos server-sent (SSE).
temperature
number
padrão:1
Quantidade de aleatoriedade injetada na resposta. Varia de 0.0 a 1.0. Use temperature mais próxima de 0.0 para tarefas analíticas/de múltipla escolha, e mais próxima de 1.0 para tarefas criativas e generativas.
top_p
number
Usa amostragem por núcleo. Na amostragem por núcleo, calculamos a distribuição cumulativa sobre todas as opções para cada token seguinte em ordem decrescente de probabilidade e a cortamos quando atinge uma probabilidade particular especificada por top_p.
top_k
integer
Amostra apenas entre as K melhores opções para cada token seguinte. Usado para remover respostas de baixa probabilidade da “cauda longa”. Recomendado apenas para casos de uso avançados.
stop_sequences
string[]
Sequências de texto personalizadas que farão o modelo parar de gerar. O texto retornado não conterá a sequência de parada.
tools
object[]
Definições de ferramentas que o modelo pode usar.
tool_choice
object
Como o modelo deve usar as ferramentas fornecidas.
metadata
object
Um objeto descrevendo os metadados da requisição.
thinking
object
Configuração para o pensamento estendido. Quando habilitado, o modelo pensará antes de responder.

Resposta

Resposta de mensagem bem-sucedida.
id
string
Identificador único da mensagem, por exemplo msg_01XFDUDYJgAACzvnptvVoYEL.
type
string
Tipo de objeto. Sempre message.
role
string
Papel conversacional da mensagem gerada. Sempre assistant.
content
object[]
Conteúdo gerado pelo modelo. Este é um array de blocos de conteúdo.
model
string
O modelo que processou a requisição.
stop_reason
string | null
A razão pela qual o modelo parou de gerar. Pode ser end_turn (o modelo atingiu um ponto de parada natural), max_tokens (excedeu max_tokens ou o máximo do modelo), stop_sequence (uma de suas sequências de parada personalizadas foi gerada) ou tool_use (o modelo invocou uma ou mais ferramentas).
stop_sequence
string | null
Qual sequência de parada personalizada foi gerada, se alguma.
usage
object
Uso para faturamento e limites de taxa.
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! I'm doing well, thank you for asking. How can I help you today?"
    }
  ],
  "model": "anthropic/claude-sonnet-4-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 19
  }
}