Zum Hauptinhalt springen
Sunra bietet drei LLM-API-Endpoints, die jeweils einem unterschiedlichen Format folgen. Alle drei verwenden dieselbe Authentifizierung und Basis-URL (https://api-llm.sunra.ai), sodass Sie das Format wählen können, das am besten zu Ihrem Stack passt. Bevor Sie loslegen, holen Sie sich einen API-Schlüssel aus Ihrem Dashboard.

Chat Completions — /v1/chat/completions

Der Chat Completions-Endpoint folgt dem OpenAI Chat Completions-Format. Er akzeptiert eine Liste von Nachrichten mit Rollen (system, user, assistant) und gibt eine Vervollständigung zurück. Verwenden Sie diesen Endpoint, wenn Sie direkte Kompatibilität mit OpenAI-SDKs und -Tools wünschen. Wichtigste Funktionen: Streaming, Funktionsaufrufe, Vision (Bilder, Audio, Video, Dateien), Reasoning, strukturierte Ausgaben (JSON schema / Grammatik), Logprobs.
curl -X POST https://api-llm.sunra.ai/v1/chat/completions \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "messages": [
      { "role": "system", "content": "You are a helpful assistant." },
      { "role": "user", "content": "What is the capital of France?" }
    ]
  }'

Anthropic Messages — /v1/messages

Der Anthropic Messages-Endpoint folgt dem Anthropic Messages API-Format. Er verwendet user- / assistant-Nachrichtenrollen mit Rich-Content-Blöcken und einem separaten system-Parameter. Verwenden Sie diesen Endpoint, wenn Sie nativen Zugriff auf Anthropic Claude-Modelle und Funktionen wie erweitertes Denken, Prompt-Caching, Zitate und integrierte Tools (Websuche, Code-Ausführung) wünschen. Wichtigste Funktionen: Streaming, erweitertes Denken, Prompt-Caching, Tool-Nutzung (benutzerdefiniert + integriert), PDF-/Dokumenteneingabe, Zitate, strukturierte Ausgaben.
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      { "role": "user", "content": "Hello, how are you?" }
    ]
  }'

Responses — /v1/responses

Der Responses-Endpoint folgt dem OpenAI Responses API-Format. Er akzeptiert flexible Eingabeelemente (Nachrichten, Funktionsaufrufe, Reasoning) und gibt strukturierte Ausgabeelemente zurück. Verwenden Sie diesen Endpoint, wenn Sie die neuesten OpenAI Responses-Funktionen benötigen, wie integrierte Websuche, Dateisuche, Code-Interpreter, Computernutzung, MCP-Tool-Integration oder Bildgenerierung. Wichtigste Funktionen: Streaming, Funktionsaufrufe, Websuche, Dateisuche, Code-Interpreter, Computernutzung, MCP-Tools, Bildgenerierung, Reasoning, strukturierte Ausgaben.
curl -X POST https://api-llm.sunra.ai/v1/responses \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "input": [
      { "type": "message", "role": "user", "content": "Hello, how are you?" }
    ]
  }'

Den richtigen Endpoint wählen

Chat CompletionsAnthropic MessagesResponses
FormatOpenAI ChatAnthropic MessagesOpenAI Responses
Am besten fürOpenAI-SDK-KompatibilitätClaude-native FunktionenNeueste OpenAI-Funktionen
StreamingSSESSESSE
FunktionsaufrufeJaJa (benutzerdefiniert + integriert)Ja
ReasoningJaErweitertes DenkenJa
Strukturierte AusgabeJSON schema, GrammatikJSON schemaJSON schema
Integrierte ToolsWebsuche, Code-AusführungWebsuche, Dateisuche, Code-Interpreter, Computernutzung, MCP
Alle drei Endpoints teilen dieselbe Authentifizierung — übergeben Sie einfach Ihren API-Schlüssel als Bearer-Token im Authorization-Header.