Vai al contenuto principale
POST
/
v1
/
messages
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "msg_abc123",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! I'm doing well, thank you for asking."
    }
  ],
  "model": "anthropic/claude-sonnet-4-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 15
  }
}
Crea un messaggio utilizzando il formato dell’API Anthropic Messages. Supporta testo, immagini, PDF, strumenti e pensiero esteso.

Autenticazione

Authorization
string
obbligatorio
Token Bearer. Utilizza la tua chiave API come token Bearer nell’header Authorization.Format: Bearer <SUNRA_KEY>

Richiesta

Questo endpoint si aspetta un oggetto JSON.
model
string
obbligatorio
Il modello da utilizzare per il messaggio. Sfoglia i modelli disponibili su sunra.ai/models.
messages
object[]
obbligatorio
Lista dei messaggi di input per la conversazione.
max_tokens
integer
obbligatorio
Il numero massimo di token da generare prima dell’arresto.
system
string
Prompt di sistema. Fornisce istruzioni che il modello dovrebbe seguire.
stream
boolean
predefinito:false
Se trasmettere la risposta in streaming utilizzando Server-Sent Events (SSE).
temperature
number
Quantità di casualità iniettata nella risposta. Varia da 0.0 a 1.0.
top_p
number
Parametro di campionamento nucleus. Utilizza un valore tra 0 e 1.
top_k
integer
Campiona solo dalle prime K opzioni per ogni token successivo. Utilizzato per rimuovere le risposte a bassa probabilità dalla “coda lunga”.
stop_sequences
string[]
Sequenze di testo personalizzate che faranno smettere il modello di generare.
metadata
object
Un oggetto che descrive i metadati sulla richiesta.

Risposta

Risposta messaggio riuscita.
id
string
Identificatore univoco del messaggio.
type
string
Tipo di oggetto. Sempre message.
role
string
Il ruolo del messaggio generato. Sempre assistant.
content
object[]
Lista dei blocchi di contenuto nella risposta.
model
string
Il modello che ha gestito la richiesta.
stop_reason
string
Il motivo per cui il modello ha smesso di generare. Può essere end_turn, max_tokens, stop_sequence o tool_use.
stop_sequence
string | null
La sequenza di arresto che ha causato l’interruzione del modello, se applicabile.
usage
object
Statistiche di utilizzo dei token.
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "msg_abc123",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! I'm doing well, thank you for asking."
    }
  ],
  "model": "anthropic/claude-sonnet-4-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 15
  }
}