Crea un mensaje utilizando el formato de la API Anthropic Messages. Soporta texto, imágenes, PDFs, herramientas y pensamiento extendido.
Autenticación
Token Bearer. Use su clave API como token Bearer en el encabezado Authorization. Formato: Bearer <SUNRA_KEY>
Solicitud
Este endpoint espera un objeto.
El modelo que completará su prompt. Explore los modelos disponibles en sunra.ai/models .
Mensajes de entrada. Cada mensaje de entrada tiene un role y content. El rol del autor del mensaje. Valores admitidos: user, assistant.
content
string | object[]
requerido
El contenido del mensaje. Puede ser una cadena de texto simple o un array de bloques de contenido. Mostrar tipos de bloques de contenido
El tipo de bloque de contenido. Valores admitidos: text, image, tool_use, tool_result.
Contenido de texto. Usado cuando el tipo es text.
Fuente de la imagen. Usado cuando el tipo es image. El tipo de fuente. Valores admitidos: base64, url.
El tipo de medio de la imagen. Por ejemplo, image/jpeg, image/png, image/gif, image/webp.
Datos de imagen codificados en base64. Requerido cuando el tipo de fuente es base64.
URL de la imagen. Requerido cuando el tipo de fuente es url.
El número máximo de tokens a generar antes de detenerse. Tenga en cuenta que el modelo puede detenerse antes de alcanzar este máximo.
Prompt del sistema. Un prompt del sistema es una forma de proporcionar contexto e instrucciones al modelo. Puede ser una cadena de texto o un array de bloques de contenido.
stream
boolean
predeterminado: false
Indica si la respuesta debe transmitirse de forma incremental mediante eventos server-sent (SSE).
Cantidad de aleatoriedad inyectada en la respuesta. Varía de 0.0 a 1.0. Use temperature más cercana a 0.0 para tareas analíticas/de opción múltiple, y más cercana a 1.0 para tareas creativas y generativas.
Usa muestreo por núcleo. En el muestreo por núcleo, calculamos la distribución acumulativa sobre todas las opciones para cada token siguiente en orden decreciente de probabilidad y la cortamos una vez que alcanza una probabilidad particular especificada por top_p.
Solo muestrea entre las K mejores opciones para cada token siguiente. Se utiliza para eliminar respuestas de baja probabilidad de la “cola larga”. Recomendado solo para casos de uso avanzados.
Secuencias de texto personalizadas que harán que el modelo deje de generar. El texto devuelto no contendrá la secuencia de parada.
Definiciones de herramientas que el modelo puede usar. Nombre de la herramienta.
Descripción de lo que hace esta herramienta.
Esquema JSON para la entrada de esta herramienta. Esto define la forma del input que su herramienta acepta.
Cómo el modelo debe usar las herramientas proporcionadas. Valores admitidos: auto (por defecto, el modelo decide), any (el modelo debe usar una herramienta), tool (el modelo debe usar una herramienta específica).
El nombre de la herramienta a usar. Requerido cuando el tipo es tool.
Un objeto que describe los metadatos de la solicitud. Un identificador externo para el usuario asociado con la solicitud.
Configuración para el pensamiento extendido. Cuando está habilitado, el modelo pensará antes de responder. El número máximo de tokens a usar para el pensamiento. Debe ser mayor o igual a 1024.
Respuesta
Respuesta de mensaje exitosa.
Identificador único del mensaje, por ejemplo msg_01XFDUDYJgAACzvnptvVoYEL.
Tipo de objeto. Siempre message.
Rol conversacional del mensaje generado. Siempre assistant.
Contenido generado por el modelo. Este es un array de bloques de contenido. El tipo de bloque de contenido. Puede ser text, tool_use o thinking.
El texto generado. Presente cuando el tipo es text.
El ID del bloque de uso de herramienta. Presente cuando el tipo es tool_use.
El nombre de la herramienta. Presente cuando el tipo es tool_use.
La entrada de la herramienta. Presente cuando el tipo es tool_use.
El contenido del pensamiento. Presente cuando el tipo es thinking.
El modelo que procesó la solicitud.
La razón por la que el modelo dejó de generar. Puede ser end_turn (el modelo alcanzó un punto de parada natural), max_tokens (excedió max_tokens o el máximo del modelo), stop_sequence (se generó una de sus secuencias de parada personalizadas) o tool_use (el modelo invocó una o más herramientas).
Qué secuencia de parada personalizada se generó, si alguna.
Uso para facturación y límites de tasa. El número de tokens de entrada utilizados.
El número de tokens de salida utilizados.
cache_creation_input_tokens
El número de tokens de entrada utilizados para crear la entrada de caché.
El número de tokens de entrada leídos desde la caché.
curl -X POST https://api-llm.sunra.ai/v1/messages \
-H "Authorization: Bearer <SUNRA_KEY>" \
-H "Content-Type: application/json" \
-d '{
"model": "anthropic/claude-sonnet-4-20250514",
"max_tokens": 1024,
"messages": [
{
"role": "user",
"content": "Hello, how are you?"
}
]
}'
{
"id" : "msg_01XFDUDYJgAACzvnptvVoYEL" ,
"type" : "message" ,
"role" : "assistant" ,
"content" : [
{
"type" : "text" ,
"text" : "Hello! I'm doing well, thank you for asking. How can I help you today?"
}
],
"model" : "anthropic/claude-sonnet-4-20250514" ,
"stop_reason" : "end_turn" ,
"stop_sequence" : null ,
"usage" : {
"input_tokens" : 12 ,
"output_tokens" : 19
}
}