Vai al contenuto principale
POST
/
v1
/
chat
/
completions
curl -X POST https://api-llm.sunra.ai/v1/chat/completions \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "messages": [
      {
        "role": "system",
        "content": "You are a helpful assistant."
      },
      {
        "role": "user",
        "content": "What is the capital of France?"
      }
    ]
  }'
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1677652288,
  "model": "openai/gpt-4o",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "The capital of France is Paris."
      },
      "finish_reason": "stop"
    }
  ],
  "system_fingerprint": "fp_44709d6fcb",
  "usage": {
    "prompt_tokens": 25,
    "completion_tokens": 8,
    "total_tokens": 33
  }
}
Invia una richiesta per una risposta del modello per la conversazione chat specificata. Supporta sia la modalità streaming che non-streaming. Compatibile con il formato dell’API OpenAI Chat Completions.

Autenticazione

Authorization
string
obbligatorio
Token Bearer. Utilizza la tua chiave API come token Bearer nell’header Authorization.Format: Bearer <SUNRA_KEY>

Richiesta

Questo endpoint si aspetta un oggetto JSON.
model
string
obbligatorio
Il modello da utilizzare per il completamento. Sfoglia i modelli disponibili su sunra.ai/models.
messages
object[]
obbligatorio
Lista dei messaggi per la conversazione.
stream
boolean
predefinito:false
Se impostato su true, i delta parziali dei messaggi verranno inviati come Server-Sent Events (SSE).
max_tokens
integer
Il numero massimo di token da generare nel completamento.
temperature
number
Temperatura di campionamento tra 0 e 2. Valori più alti come 0.8 rendono l’output più casuale, valori più bassi come 0.2 lo rendono più focalizzato e deterministico.
top_p
number
Parametro di campionamento nucleus (0-1). Un’alternativa al campionamento per temperatura in cui il modello considera i token con massa di probabilità top_p.
frequency_penalty
number
Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro frequenza esistente nel testo finora, diminuendo la probabilità che il modello ripeta la stessa riga alla lettera.
presence_penalty
number
Numero tra -2.0 e 2.0. I valori positivi penalizzano i nuovi token in base alla loro presenza nel testo finora, aumentando la probabilità che il modello parli di nuovi argomenti.
stop
string | string[]
Fino a 4 sequenze in cui l’API smetterà di generare ulteriori token.

Risposta

Risposta di completamento chat riuscita.
id
string
Identificatore univoco del completamento.
object
string
Tipo di oggetto. Sempre chat.completion.
created
integer
Timestamp Unix della creazione.
model
string
Modello utilizzato per il completamento.
choices
object[]
Lista delle opzioni di completamento.
usage
object
Statistiche di utilizzo dei token.
curl -X POST https://api-llm.sunra.ai/v1/chat/completions \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "messages": [
      {
        "role": "system",
        "content": "You are a helpful assistant."
      },
      {
        "role": "user",
        "content": "What is the capital of France?"
      }
    ]
  }'
{
  "id": "chatcmpl-abc123",
  "object": "chat.completion",
  "created": 1677652288,
  "model": "openai/gpt-4o",
  "choices": [
    {
      "index": 0,
      "message": {
        "role": "assistant",
        "content": "The capital of France is Paris."
      },
      "finish_reason": "stop"
    }
  ],
  "system_fingerprint": "fp_44709d6fcb",
  "usage": {
    "prompt_tokens": 25,
    "completion_tokens": 8,
    "total_tokens": 33
  }
}