Vai al contenuto principale
POST
/
v1
/
responses
curl -X POST https://api-llm.sunra.ai/v1/responses \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "input": [
      {
        "type": "message",
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "resp-abc123",
  "object": "response",
  "created_at": 1704067200,
  "status": "completed",
  "model": "openai/gpt-4o",
  "output": [
    {
      "type": "message",
      "id": "msg_abc123",
      "role": "assistant",
      "content": [
        {
          "type": "output_text",
          "text": "Hello! I'm doing well, thank you for asking."
        }
      ]
    }
  ],
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "temperature": 1.0,
  "top_p": 1.0,
  "usage": {
    "input_tokens": 15,
    "output_tokens": 12,
    "total_tokens": 27
  }
}
Crea una risposta in streaming o non-streaming utilizzando il formato dell’API OpenAI Responses.

Autenticazione

Authorization
string
obbligatorio
Token Bearer. Utilizza la tua chiave API come token Bearer nell’header Authorization.Format: Bearer <SUNRA_KEY>

Richiesta

Questo endpoint si aspetta un oggetto JSON.
model
string
obbligatorio
Il modello da utilizzare per generare la risposta. Sfoglia i modelli disponibili su sunra.ai/models.
input
string | object[]
Input per la richiesta di risposta. Può essere una stringa o un array di elementi di input.
instructions
string
Istruzioni a livello di sistema per il modello. Equivalente a un messaggio di sistema.
stream
boolean
predefinito:false
Se impostato su true, la risposta verrà trasmessa in streaming utilizzando Server-Sent Events (SSE).
max_output_tokens
integer
Il numero massimo di token di output da generare.
temperature
number
Temperatura di campionamento tra 0 e 2. Valori più alti aumentano la casualità.
top_p
number
Parametro di campionamento nucleus (0-1).
frequency_penalty
number
Numero tra -2.0 e 2.0. Penalizza i token in base alla loro frequenza esistente.
presence_penalty
number
Numero tra -2.0 e 2.0. Penalizza i token in base alla loro presenza precedente.
store
boolean
predefinito:true
Se salvare la risposta generata per un recupero successivo.

Risposta

Oggetto risposta riuscito.
id
string
Identificatore univoco della risposta.
object
string
Tipo di oggetto. Sempre response.
created_at
number
Timestamp Unix della creazione.
status
string
Lo stato della risposta. Può essere completed, failed, in_progress o cancelled.
model
string
Il modello utilizzato per la risposta.
output
object[]
Lista degli elementi di output generati dal modello.
usage
object
Statistiche di utilizzo dei token.
curl -X POST https://api-llm.sunra.ai/v1/responses \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "input": [
      {
        "type": "message",
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "resp-abc123",
  "object": "response",
  "created_at": 1704067200,
  "status": "completed",
  "model": "openai/gpt-4o",
  "output": [
    {
      "type": "message",
      "id": "msg_abc123",
      "role": "assistant",
      "content": [
        {
          "type": "output_text",
          "text": "Hello! I'm doing well, thank you for asking."
        }
      ]
    }
  ],
  "frequency_penalty": 0,
  "presence_penalty": 0,
  "temperature": 1.0,
  "top_p": 1.0,
  "usage": {
    "input_tokens": 15,
    "output_tokens": 12,
    "total_tokens": 27
  }
}