Zum Hauptinhalt springen
POST
/
v1
/
messages
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "msg_abc123",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! I'm doing well, thank you for asking."
    }
  ],
  "model": "anthropic/claude-sonnet-4-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 15
  }
}
Erstellt eine Nachricht im Anthropic Messages API-Format. Unterstützt Text, Bilder, PDFs, Tools und erweitertes Denken.

Authentifizierung

Authorization
string
erforderlich
Bearer-Token. Verwenden Sie Ihren API-Schlüssel als Bearer-Token im Authorization-Header.Format: Bearer <SUNRA_KEY>

Anfrage

Dieser Endpunkt erwartet ein JSON-Objekt.
model
string
erforderlich
Das Modell, das für die Nachricht verwendet werden soll. Verfügbare Modelle finden Sie unter sunra.ai/models.
messages
object[]
erforderlich
Liste der Eingabenachrichten für die Konversation.
max_tokens
integer
erforderlich
Die maximale Anzahl der zu generierenden Tokens vor dem Stoppen.
system
string
System-Prompt. Gibt Anweisungen, denen das Modell folgen soll.
stream
boolean
Standard:false
Ob die Antwort mittels Server-Sent Events (SSE) gestreamt werden soll.
temperature
number
Grad der Zufälligkeit in der Antwort. Bereich von 0.0 bis 1.0.
top_p
number
Nucleus-Sampling-Parameter. Verwenden Sie einen Wert zwischen 0 und 1.
top_k
integer
Sampelt nur aus den Top-K-Optionen für jedes nachfolgende Token. Wird verwendet, um Antworten mit geringer Wahrscheinlichkeit aus dem “Long Tail” zu entfernen.
stop_sequences
string[]
Benutzerdefinierte Textsequenzen, die das Modell dazu veranlassen, die Generierung zu stoppen.
metadata
object
Ein Objekt, das Metadaten über die Anfrage beschreibt.

Antwort

Erfolgreiche Nachrichtenantwort.
id
string
Eindeutiger Nachrichtenbezeichner.
type
string
Objekttyp. Immer message.
role
string
Die Rolle der generierten Nachricht. Immer assistant.
content
object[]
Liste der Inhaltsblöcke in der Antwort.
model
string
Das Modell, das die Anfrage bearbeitet hat.
stop_reason
string
Der Grund, warum das Modell die Generierung gestoppt hat. Kann end_turn, max_tokens, stop_sequence oder tool_use sein.
stop_sequence
string | null
Die Stoppsequenz, die das Modell zum Stoppen veranlasst hat, falls zutreffend.
usage
object
Token-Nutzungsstatistiken.
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "msg_abc123",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! I'm doing well, thank you for asking."
    }
  ],
  "model": "anthropic/claude-sonnet-4-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 15
  }
}