Passer au contenu principal
POST
/
v1
/
messages
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! I'm doing well, thank you for asking. How can I help you today?"
    }
  ],
  "model": "anthropic/claude-sonnet-4-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 19
  }
}
Crée un message en utilisant le format de l’API Anthropic Messages. Prend en charge le texte, les images, les PDF, les outils et la réflexion étendue.

Authentification

Authorization
string
requis
Jeton Bearer. Utilisez votre clé API comme jeton Bearer dans l’en-tête Authorization.Format : Bearer <SUNRA_KEY>

Requête

Cet endpoint attend un objet.
model
string
requis
Le modèle qui complétera votre prompt. Parcourez les modèles disponibles sur sunra.ai/models.
messages
object[]
requis
Messages d’entrée. Chaque message d’entrée a un role et un content.
max_tokens
integer
requis
Le nombre maximum de tokens à générer avant l’arrêt. Notez que le modèle peut s’arrêter avant d’atteindre ce maximum.
system
string | object[]
Prompt système. Un prompt système est un moyen de fournir du contexte et des instructions au modèle. Peut être une chaîne de caractères ou un tableau de blocs de contenu.
stream
boolean
défaut:false
Indique si la réponse doit être diffusée de manière incrémentale en utilisant des événements server-sent (SSE).
temperature
number
défaut:1
Quantité de hasard injectée dans la réponse. Varie de 0.0 à 1.0. Utilisez une temperature plus proche de 0.0 pour les tâches analytiques/à choix multiples, et plus proche de 1.0 pour les tâches créatives et génératives.
top_p
number
Utilise l’échantillonnage par noyau. Dans l’échantillonnage par noyau, nous calculons la distribution cumulative sur toutes les options pour chaque token suivant par ordre décroissant de probabilité et la coupons une fois qu’elle atteint une probabilité particulière spécifiée par top_p.
top_k
integer
Échantillonne uniquement parmi les K meilleures options pour chaque token suivant. Utilisé pour supprimer les réponses à faible probabilité de la « longue traîne ». Recommandé pour les cas d’utilisation avancés uniquement.
stop_sequences
string[]
Séquences de texte personnalisées qui provoqueront l’arrêt de la génération par le modèle. Le texte retourné ne contiendra pas la séquence d’arrêt.
tools
object[]
Définitions des outils que le modèle peut utiliser.
tool_choice
object
Comment le modèle doit utiliser les outils fournis.
metadata
object
Un objet décrivant les métadonnées de la requête.
thinking
object
Configuration pour la réflexion étendue. Lorsqu’elle est activée, le modèle réfléchira avant de répondre.

Réponse

Réponse de message réussie.
id
string
Identifiant unique du message, par exemple msg_01XFDUDYJgAACzvnptvVoYEL.
type
string
Type d’objet. Toujours message.
role
string
Rôle conversationnel du message généré. Toujours assistant.
content
object[]
Contenu généré par le modèle. Il s’agit d’un tableau de blocs de contenu.
model
string
Le modèle qui a traité la requête.
stop_reason
string | null
La raison pour laquelle le modèle a cessé de générer. Peut être end_turn (le modèle a atteint un point d’arrêt naturel), max_tokens (a dépassé max_tokens ou le maximum du modèle), stop_sequence (une de vos séquences d’arrêt personnalisées a été générée) ou tool_use (le modèle a invoqué un ou plusieurs outils).
stop_sequence
string | null
La séquence d’arrêt personnalisée qui a été générée, le cas échéant.
usage
object
Utilisation pour la facturation et les limites de débit.
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! I'm doing well, thank you for asking. How can I help you today?"
    }
  ],
  "model": "anthropic/claude-sonnet-4-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 19
  }
}