Saltar para o conteúdo principal
POST
/
v1
/
responses
curl -X POST https://api-llm.sunra.ai/v1/responses \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "input": [
      {
        "type": "message",
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "resp-abc123",
  "object": "response",
  "created_at": 1704067200,
  "status": "completed",
  "model": "openai/gpt-4o",
  "output": [
    {
      "type": "message",
      "id": "msg_abc123",
      "role": "assistant",
      "status": "completed",
      "content": [
        {
          "type": "output_text",
          "text": "Hello! I'm doing well, thank you for asking. How can I help you today?",
          "annotations": []
        }
      ]
    }
  ],
  "temperature": 1.0,
  "top_p": 1.0,
  "max_output_tokens": null,
  "usage": {
    "input_tokens": 15,
    "output_tokens": 18,
    "total_tokens": 33,
    "input_tokens_details": {
      "cached_tokens": 0
    },
    "output_tokens_details": {
      "reasoning_tokens": 0
    }
  },
  "error": null
}
Cria uma resposta em streaming ou não-streaming usando o formato da API OpenAI Responses.

Autenticação

Authorization
string
obrigatório
Token Bearer. Use sua chave de API como token Bearer no cabeçalho Authorization.Formato: Bearer <SUNRA_KEY>

Requisição

Este endpoint espera um objeto.
model
string
obrigatório
ID do modelo usado para gerar a resposta. Navegue pelos modelos disponíveis em sunra.ai/models.
input
string | object[]
Entrada para a requisição de resposta. Pode ser uma string ou um array de itens de entrada.
instructions
string | null
Insere uma mensagem de sistema (ou desenvolvedor) como primeiro item no contexto do modelo. Quando usado com input, as instruções são inseridas no início da entrada.
stream
boolean
padrão:false
Se definido como true, a resposta será transmitida em streaming via eventos server-sent (SSE).
max_output_tokens
integer
Um limite superior para o número de tokens de saída, incluindo tokens de saída visíveis e tokens de raciocínio.
temperature
number
padrão:1
Temperatura de amostragem entre 0 e 2. Valores mais altos aumentam a aleatoriedade.
top_p
number
padrão:1
Parâmetro de amostragem por núcleo. Uma alternativa à amostragem por temperatura.
frequency_penalty
number
padrão:0
Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto.
presence_penalty
number
padrão:0
Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se já aparecem no texto.
tools
object[]
Um array de ferramentas que o modelo pode chamar.
tool_choice
string | object
Controla o comportamento de seleção de ferramentas. Valores de string suportados: none, auto, required. Também pode especificar uma função particular.
parallel_tool_calls
boolean
padrão:true
Indica se deve permitir que o modelo execute chamadas de ferramentas em paralelo.
text
object
Configuração para o formato de resposta de texto.
reasoning
object
Configuração para a saída de raciocínio.
store
boolean
padrão:true
Indica se a resposta gerada deve ser armazenada para recuperação posterior.
metadata
object
Conjunto de 16 pares chave-valor que podem ser anexados à resposta. As chaves são strings com máximo de 64 caracteres. Os valores são strings com máximo de 512 caracteres.
user
string
Um identificador único representando seu usuário final. Máximo de 128 caracteres.

Resposta

Objeto de resposta bem-sucedido.
id
string
Identificador único da resposta.
object
string
O tipo de objeto. Sempre response.
created_at
number
Marca temporal Unix (em segundos) de quando a resposta foi criada.
status
string
O status da resposta. Valores possíveis: completed, failed, in_progress, cancelled.
model
string
O modelo usado para gerar a resposta.
output
object[]
Um array de itens de conteúdo gerados pelo modelo.
usage
object
Estatísticas de uso de tokens para a resposta.
temperature
number
A temperatura de amostragem utilizada.
top_p
number
O valor de amostragem por núcleo utilizado.
max_output_tokens
integer | null
A configuração de tokens de saída máximos utilizada.
error
object | null
Um objeto de erro se a geração falhou.
curl -X POST https://api-llm.sunra.ai/v1/responses \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "input": [
      {
        "type": "message",
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "resp-abc123",
  "object": "response",
  "created_at": 1704067200,
  "status": "completed",
  "model": "openai/gpt-4o",
  "output": [
    {
      "type": "message",
      "id": "msg_abc123",
      "role": "assistant",
      "status": "completed",
      "content": [
        {
          "type": "output_text",
          "text": "Hello! I'm doing well, thank you for asking. How can I help you today?",
          "annotations": []
        }
      ]
    }
  ],
  "temperature": 1.0,
  "top_p": 1.0,
  "max_output_tokens": null,
  "usage": {
    "input_tokens": 15,
    "output_tokens": 18,
    "total_tokens": 33,
    "input_tokens_details": {
      "cached_tokens": 0
    },
    "output_tokens_details": {
      "reasoning_tokens": 0
    }
  },
  "error": null
}