Passer au contenu principal
POST
/
v1
/
responses
curl -X POST https://api-llm.sunra.ai/v1/responses \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "input": [
      {
        "type": "message",
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "resp-abc123",
  "object": "response",
  "created_at": 1704067200,
  "status": "completed",
  "model": "openai/gpt-4o",
  "output": [
    {
      "type": "message",
      "id": "msg_abc123",
      "role": "assistant",
      "status": "completed",
      "content": [
        {
          "type": "output_text",
          "text": "Hello! I'm doing well, thank you for asking. How can I help you today?",
          "annotations": []
        }
      ]
    }
  ],
  "temperature": 1.0,
  "top_p": 1.0,
  "max_output_tokens": null,
  "usage": {
    "input_tokens": 15,
    "output_tokens": 18,
    "total_tokens": 33,
    "input_tokens_details": {
      "cached_tokens": 0
    },
    "output_tokens_details": {
      "reasoning_tokens": 0
    }
  },
  "error": null
}
Crée une réponse en streaming ou non-streaming en utilisant le format de l’API OpenAI Responses.

Authentification

Authorization
string
requis
Jeton Bearer. Utilisez votre clé API comme jeton Bearer dans l’en-tête Authorization.Format : Bearer <SUNRA_KEY>

Requête

Cet endpoint attend un objet.
model
string
requis
ID du modèle utilisé pour générer la réponse. Parcourez les modèles disponibles sur sunra.ai/models.
input
string | object[]
Entrée pour la requête de réponse. Peut être une chaîne de caractères ou un tableau d’éléments d’entrée.
instructions
string | null
Insère un message système (ou développeur) comme premier élément dans le contexte du modèle. Lorsqu’il est utilisé avec input, les instructions sont insérées au début de l’entrée.
stream
boolean
défaut:false
Si défini sur true, la réponse sera diffusée en streaming via des événements server-sent (SSE).
max_output_tokens
integer
Une limite supérieure pour le nombre de tokens de sortie, y compris les tokens de sortie visibles et les tokens de raisonnement.
temperature
number
défaut:1
Température d’échantillonnage entre 0 et 2. Des valeurs plus élevées augmentent le caractère aléatoire.
top_p
number
défaut:1
Paramètre d’échantillonnage par noyau. Une alternative à l’échantillonnage par température.
frequency_penalty
number
défaut:0
Nombre entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens en fonction de leur fréquence existante dans le texte.
presence_penalty
number
défaut:0
Nombre entre -2.0 et 2.0. Les valeurs positives pénalisent les nouveaux tokens en fonction de leur apparition préalable dans le texte.
tools
object[]
Un tableau d’outils que le modèle peut appeler.
tool_choice
string | object
Contrôle le comportement de sélection d’outils. Valeurs de chaîne prises en charge : none, auto, required. Peut également spécifier une fonction particulière.
parallel_tool_calls
boolean
défaut:true
Indique s’il faut autoriser le modèle à exécuter des appels d’outils en parallèle.
text
object
Configuration pour le format de réponse textuelle.
reasoning
object
Configuration pour la sortie de raisonnement.
store
boolean
défaut:true
Indique si la réponse générée doit être stockée pour une récupération ultérieure.
metadata
object
Ensemble de 16 paires clé-valeur pouvant être attachées à la réponse. Les clés sont des chaînes de 64 caractères maximum. Les valeurs sont des chaînes de 512 caractères maximum.
user
string
Un identifiant unique représentant votre utilisateur final. Maximum de 128 caractères.

Réponse

Objet de réponse réussi.
id
string
Identifiant unique de la réponse.
object
string
Le type d’objet. Toujours response.
created_at
number
Horodatage Unix (en secondes) de la création de la réponse.
status
string
Le statut de la réponse. Valeurs possibles : completed, failed, in_progress, cancelled.
model
string
Le modèle utilisé pour générer la réponse.
output
object[]
Un tableau d’éléments de contenu générés par le modèle.
usage
object
Statistiques d’utilisation des tokens pour la réponse.
temperature
number
La température d’échantillonnage utilisée.
top_p
number
La valeur d’échantillonnage par noyau utilisée.
max_output_tokens
integer | null
Le paramètre de tokens de sortie maximum utilisé.
error
object | null
Un objet d’erreur si la génération a échoué.
curl -X POST https://api-llm.sunra.ai/v1/responses \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "input": [
      {
        "type": "message",
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "resp-abc123",
  "object": "response",
  "created_at": 1704067200,
  "status": "completed",
  "model": "openai/gpt-4o",
  "output": [
    {
      "type": "message",
      "id": "msg_abc123",
      "role": "assistant",
      "status": "completed",
      "content": [
        {
          "type": "output_text",
          "text": "Hello! I'm doing well, thank you for asking. How can I help you today?",
          "annotations": []
        }
      ]
    }
  ],
  "temperature": 1.0,
  "top_p": 1.0,
  "max_output_tokens": null,
  "usage": {
    "input_tokens": 15,
    "output_tokens": 18,
    "total_tokens": 33,
    "input_tokens_details": {
      "cached_tokens": 0
    },
    "output_tokens_details": {
      "reasoning_tokens": 0
    }
  },
  "error": null
}