Saltar al contenido principal
POST
/
v1
/
responses
curl -X POST https://api-llm.sunra.ai/v1/responses \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "input": [
      {
        "type": "message",
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "resp-abc123",
  "object": "response",
  "created_at": 1704067200,
  "status": "completed",
  "model": "openai/gpt-4o",
  "output": [
    {
      "type": "message",
      "id": "msg_abc123",
      "role": "assistant",
      "status": "completed",
      "content": [
        {
          "type": "output_text",
          "text": "Hello! I'm doing well, thank you for asking. How can I help you today?",
          "annotations": []
        }
      ]
    }
  ],
  "temperature": 1.0,
  "top_p": 1.0,
  "max_output_tokens": null,
  "usage": {
    "input_tokens": 15,
    "output_tokens": 18,
    "total_tokens": 33,
    "input_tokens_details": {
      "cached_tokens": 0
    },
    "output_tokens_details": {
      "reasoning_tokens": 0
    }
  },
  "error": null
}
Crea una respuesta en streaming o no-streaming utilizando el formato de la API OpenAI Responses.

Autenticación

Authorization
string
requerido
Token Bearer. Use su clave API como token Bearer en el encabezado Authorization.Formato: Bearer <SUNRA_KEY>

Solicitud

Este endpoint espera un objeto.
model
string
requerido
ID del modelo utilizado para generar la respuesta. Explore los modelos disponibles en sunra.ai/models.
input
string | object[]
Entrada para la solicitud de respuesta. Puede ser una cadena de texto o un array de elementos de entrada.
instructions
string | null
Inserta un mensaje de sistema (o desarrollador) como primer elemento en el contexto del modelo. Cuando se usa con input, las instrucciones se insertan al inicio de la entrada.
stream
boolean
predeterminado:false
Si se establece en true, la respuesta se transmitirá en streaming mediante eventos server-sent (SSE).
max_output_tokens
integer
Un límite superior para el número de tokens de salida, incluyendo tokens de salida visibles y tokens de razonamiento.
temperature
number
predeterminado:1
Temperatura de muestreo entre 0 y 2. Valores más altos aumentan la aleatoriedad.
top_p
number
predeterminado:1
Parámetro de muestreo por núcleo. Una alternativa al muestreo por temperatura.
frequency_penalty
number
predeterminado:0
Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens según su frecuencia existente en el texto.
presence_penalty
number
predeterminado:0
Número entre -2.0 y 2.0. Los valores positivos penalizan los nuevos tokens según si ya aparecen en el texto.
tools
object[]
Un array de herramientas que el modelo puede llamar.
tool_choice
string | object
Controla el comportamiento de selección de herramientas. Valores de cadena admitidos: none, auto, required. También puede especificar una función particular.
parallel_tool_calls
boolean
predeterminado:true
Indica si se debe permitir que el modelo ejecute llamadas a herramientas en paralelo.
text
object
Configuración para el formato de respuesta de texto.
reasoning
object
Configuración para la salida de razonamiento.
store
boolean
predeterminado:true
Indica si la respuesta generada debe almacenarse para su recuperación posterior.
metadata
object
Conjunto de 16 pares clave-valor que se pueden adjuntar a la respuesta. Las claves son cadenas de máximo 64 caracteres. Los valores son cadenas de máximo 512 caracteres.
user
string
Un identificador único que representa a su usuario final. Máximo de 128 caracteres.

Respuesta

Objeto de respuesta exitoso.
id
string
Identificador único de la respuesta.
object
string
El tipo de objeto. Siempre response.
created_at
number
Marca de tiempo Unix (en segundos) de cuándo se creó la respuesta.
status
string
El estado de la respuesta. Valores posibles: completed, failed, in_progress, cancelled.
model
string
El modelo utilizado para generar la respuesta.
output
object[]
Un array de elementos de contenido generados por el modelo.
usage
object
Estadísticas de uso de tokens para la respuesta.
temperature
number
La temperatura de muestreo utilizada.
top_p
number
El valor de muestreo por núcleo utilizado.
max_output_tokens
integer | null
La configuración de tokens de salida máximos utilizada.
error
object | null
Un objeto de error si la generación falló.
curl -X POST https://api-llm.sunra.ai/v1/responses \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "input": [
      {
        "type": "message",
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "resp-abc123",
  "object": "response",
  "created_at": 1704067200,
  "status": "completed",
  "model": "openai/gpt-4o",
  "output": [
    {
      "type": "message",
      "id": "msg_abc123",
      "role": "assistant",
      "status": "completed",
      "content": [
        {
          "type": "output_text",
          "text": "Hello! I'm doing well, thank you for asking. How can I help you today?",
          "annotations": []
        }
      ]
    }
  ],
  "temperature": 1.0,
  "top_p": 1.0,
  "max_output_tokens": null,
  "usage": {
    "input_tokens": 15,
    "output_tokens": 18,
    "total_tokens": 33,
    "input_tokens_details": {
      "cached_tokens": 0
    },
    "output_tokens_details": {
      "reasoning_tokens": 0
    }
  },
  "error": null
}