Saltar al contenido principal
POST
/
v1
/
messages
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! I'm doing well, thank you for asking. How can I help you today?"
    }
  ],
  "model": "anthropic/claude-sonnet-4-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 19
  }
}
Crea un mensaje utilizando el formato de la API Anthropic Messages. Soporta texto, imágenes, PDFs, herramientas y pensamiento extendido.

Autenticación

Authorization
string
requerido
Token Bearer. Use su clave API como token Bearer en el encabezado Authorization.Formato: Bearer <SUNRA_KEY>

Solicitud

Este endpoint espera un objeto.
model
string
requerido
El modelo que completará su prompt. Explore los modelos disponibles en sunra.ai/models.
messages
object[]
requerido
Mensajes de entrada. Cada mensaje de entrada tiene un role y content.
max_tokens
integer
requerido
El número máximo de tokens a generar antes de detenerse. Tenga en cuenta que el modelo puede detenerse antes de alcanzar este máximo.
system
string | object[]
Prompt del sistema. Un prompt del sistema es una forma de proporcionar contexto e instrucciones al modelo. Puede ser una cadena de texto o un array de bloques de contenido.
stream
boolean
predeterminado:false
Indica si la respuesta debe transmitirse de forma incremental mediante eventos server-sent (SSE).
temperature
number
predeterminado:1
Cantidad de aleatoriedad inyectada en la respuesta. Varía de 0.0 a 1.0. Use temperature más cercana a 0.0 para tareas analíticas/de opción múltiple, y más cercana a 1.0 para tareas creativas y generativas.
top_p
number
Usa muestreo por núcleo. En el muestreo por núcleo, calculamos la distribución acumulativa sobre todas las opciones para cada token siguiente en orden decreciente de probabilidad y la cortamos una vez que alcanza una probabilidad particular especificada por top_p.
top_k
integer
Solo muestrea entre las K mejores opciones para cada token siguiente. Se utiliza para eliminar respuestas de baja probabilidad de la “cola larga”. Recomendado solo para casos de uso avanzados.
stop_sequences
string[]
Secuencias de texto personalizadas que harán que el modelo deje de generar. El texto devuelto no contendrá la secuencia de parada.
tools
object[]
Definiciones de herramientas que el modelo puede usar.
tool_choice
object
Cómo el modelo debe usar las herramientas proporcionadas.
metadata
object
Un objeto que describe los metadatos de la solicitud.
thinking
object
Configuración para el pensamiento extendido. Cuando está habilitado, el modelo pensará antes de responder.

Respuesta

Respuesta de mensaje exitosa.
id
string
Identificador único del mensaje, por ejemplo msg_01XFDUDYJgAACzvnptvVoYEL.
type
string
Tipo de objeto. Siempre message.
role
string
Rol conversacional del mensaje generado. Siempre assistant.
content
object[]
Contenido generado por el modelo. Este es un array de bloques de contenido.
model
string
El modelo que procesó la solicitud.
stop_reason
string | null
La razón por la que el modelo dejó de generar. Puede ser end_turn (el modelo alcanzó un punto de parada natural), max_tokens (excedió max_tokens o el máximo del modelo), stop_sequence (se generó una de sus secuencias de parada personalizadas) o tool_use (el modelo invocó una o más herramientas).
stop_sequence
string | null
Qué secuencia de parada personalizada se generó, si alguna.
usage
object
Uso para facturación y límites de tasa.
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! I'm doing well, thank you for asking. How can I help you today?"
    }
  ],
  "model": "anthropic/claude-sonnet-4-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 19
  }
}