Cria uma resposta em streaming ou não-streaming usando o formato da API OpenAI Responses.
Autenticação
Token Bearer. Use sua chave de API como token Bearer no cabeçalho Authorization. Formato: Bearer <SUNRA_KEY>
Requisição
Este endpoint espera um objeto.
ID do modelo usado para gerar a resposta. Navegue pelos modelos disponíveis em sunra.ai/models .
Entrada para a requisição de resposta. Pode ser uma string ou um array de itens de entrada. Mostrar propriedades (para array)
O tipo de item de entrada. Valores suportados: message, item_reference.
O papel do autor da mensagem. Valores suportados: user, assistant, system.
O conteúdo da mensagem de entrada. Pode ser uma string ou um array de partes de conteúdo.
O ID do item. Obrigatório para mensagens assistant no histórico de conversa.
O status do item. Obrigatório para mensagens assistant no histórico de conversa.
Insere uma mensagem de sistema (ou desenvolvedor) como primeiro item no contexto do modelo. Quando usado com input, as instruções são inseridas no início da entrada.
Se definido como true, a resposta será transmitida em streaming via eventos server-sent (SSE).
Um limite superior para o número de tokens de saída, incluindo tokens de saída visíveis e tokens de raciocínio.
Temperatura de amostragem entre 0 e 2. Valores mais altos aumentam a aleatoriedade.
Parâmetro de amostragem por núcleo. Uma alternativa à amostragem por temperatura.
Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base na sua frequência existente no texto.
Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se já aparecem no texto.
Um array de ferramentas que o modelo pode chamar. O tipo de ferramenta. Valores suportados: function, web_search_preview.
O nome da função. Obrigatório quando o tipo é function.
Um objeto JSON Schema definindo os parâmetros da função.
Indica se a aderência estrita ao esquema está habilitada.
Controla o comportamento de seleção de ferramentas. Valores de string suportados: none, auto, required. Também pode especificar uma função particular.
Indica se deve permitir que o modelo execute chamadas de ferramentas em paralelo.
Configuração para o formato de resposta de texto. A configuração do formato de texto. O tipo de formato. Valores suportados: text, json_object, json_schema.
O nome do formato de resposta. Obrigatório quando o tipo é json_schema.
O esquema JSON. Obrigatório quando o tipo é json_schema.
Indica se a aderência estrita ao esquema está habilitada.
Configuração para a saída de raciocínio. Restringe o esforço de raciocínio. Valores suportados: low, medium, high.
Indica se a resposta gerada deve ser armazenada para recuperação posterior.
Conjunto de 16 pares chave-valor que podem ser anexados à resposta. As chaves são strings com máximo de 64 caracteres. Os valores são strings com máximo de 512 caracteres.
Um identificador único representando seu usuário final. Máximo de 128 caracteres.
Resposta
Objeto de resposta bem-sucedido.
Identificador único da resposta.
O tipo de objeto. Sempre response.
Marca temporal Unix (em segundos) de quando a resposta foi criada.
O status da resposta. Valores possíveis: completed, failed, in_progress, cancelled.
O modelo usado para gerar a resposta.
Um array de itens de conteúdo gerados pelo modelo. O tipo de item de saída. Por exemplo, message.
O ID único do item de saída.
O papel. Sempre assistant.
O status da mensagem. Por exemplo, completed.
O conteúdo da mensagem de saída. Tipo de conteúdo. Por exemplo, output_text.
O conteúdo de texto gerado.
Anotações para o conteúdo (por exemplo, citações de pesquisa web).
Estatísticas de uso de tokens para a resposta. O número de tokens de entrada.
O número de tokens de saída.
O número total de tokens.
Detalhamento dos tokens de entrada. O número de tokens em cache.
Detalhamento dos tokens de saída. O número de tokens de raciocínio.
A temperatura de amostragem utilizada.
O valor de amostragem por núcleo utilizado.
A configuração de tokens de saída máximos utilizada.
Um objeto de erro se a geração falhou.
curl -X POST https://api-llm.sunra.ai/v1/responses \
-H "Authorization: Bearer <SUNRA_KEY>" \
-H "Content-Type: application/json" \
-d '{
"model": "openai/gpt-4o",
"input": [
{
"type": "message",
"role": "user",
"content": "Hello, how are you?"
}
]
}'
{
"id" : "resp-abc123" ,
"object" : "response" ,
"created_at" : 1704067200 ,
"status" : "completed" ,
"model" : "openai/gpt-4o" ,
"output" : [
{
"type" : "message" ,
"id" : "msg_abc123" ,
"role" : "assistant" ,
"status" : "completed" ,
"content" : [
{
"type" : "output_text" ,
"text" : "Hello! I'm doing well, thank you for asking. How can I help you today?" ,
"annotations" : []
}
]
}
],
"temperature" : 1.0 ,
"top_p" : 1.0 ,
"max_output_tokens" : null ,
"usage" : {
"input_tokens" : 15 ,
"output_tokens" : 18 ,
"total_tokens" : 33 ,
"input_tokens_details" : {
"cached_tokens" : 0
},
"output_tokens_details" : {
"reasoning_tokens" : 0
}
},
"error" : null
}