Documentation Index Fetch the complete documentation index at: https://docs.sunra.ai/llms.txt
Use this file to discover all available pages before exploring further.
Создаёт сообщение в формате API Anthropic Messages. Поддерживает текст, изображения, PDF, инструменты и расширенное мышление.
Аутентификация
Bearer-токен. Используйте ваш API-ключ в качестве Bearer-токена в заголовке Authorization. Формат: Bearer <SUNRA_KEY>
Запрос
Этот эндпоинт принимает объект.
Модель, которая завершит ваш промпт. Просмотрите доступные модели на sunra.ai/models .
Входные сообщения. Каждое входное сообщение имеет role и content. Роль автора сообщения. Поддерживаемые значения: user, assistant.
content
string | object[]
обязательно
Содержание сообщения. Может быть одной строкой или массивом блоков контента. Показать content block types
Тип блока контента. Поддерживаемые значения: text, image, tool_use, tool_result.
Текстовое содержание. Используется, когда type — text.
Источник изображения. Используется, когда type — image. Тип источника. Поддерживаемые значения: base64, url.
Медиатип изображения. Например, image/jpeg, image/png, image/gif, image/webp.
Данные изображения в кодировке base64. Обязательно, когда тип источника — base64.
URL изображения. Обязательно, когда тип источника — url.
Максимальное количество токенов для генерации перед остановкой. Обратите внимание, что модель может остановиться до достижения этого максимума.
Системный промпт. Способ предоставления контекста и инструкций модели. Может быть строкой или массивом блоков контента.
stream
boolean
по умолчанию: false
Передавать ли ответ в потоковом режиме с использованием Server-Sent Events (SSE).
Степень случайности, добавляемая в ответ. Диапазон от 0.0 до 1.0. Используйте temperature ближе к 0.0 для аналитических задач/задач с множественным выбором и ближе к 1.0 для творческих и генеративных задач.
Использовать nucleus-сэмплирование. При nucleus-сэмплировании мы вычисляем кумулятивное распределение по всем вариантам для каждого последующего токена в порядке убывания вероятности и обрезаем его, когда оно достигает определённой вероятности, заданной top_p.
Сэмплирование только из верхних K вариантов для каждого последующего токена. Используется для удаления маловероятных ответов из «длинного хвоста». Рекомендуется только для продвинутых случаев использования.
Пользовательские текстовые последовательности, которые заставят модель прекратить генерацию. Возвращённый текст не будет содержать стоп-последовательность.
Определения инструментов, которые модель может использовать. Описание того, что делает этот инструмент.
JSON-схема для входных данных этого инструмента. Определяет структуру input, которую принимает ваш инструмент.
Как модель должна использовать предоставленные инструменты. Поддерживаемые значения: auto (по умолчанию, решает модель), any (модель должна использовать инструмент), tool (модель должна использовать конкретный инструмент).
Имя инструмента для использования. Обязательно, когда type — tool.
Объект, описывающий метаданные запроса. Внешний идентификатор пользователя, связанного с запросом.
Конфигурация расширенного мышления. При включении модель будет думать перед ответом. Максимальное количество токенов для размышлений. Должно быть больше или равно 1024.
Ответ
Успешный ответ сообщения.
Уникальный идентификатор сообщения, например msg_01XFDUDYJgAACzvnptvVoYEL.
Тип объекта. Всегда message.
Роль сгенерированного сообщения в беседе. Всегда assistant.
Контент, сгенерированный моделью. Это массив блоков контента. Тип блока контента. Может быть text, tool_use или thinking.
Сгенерированный текст. Присутствует, когда type — text.
Идентификатор блока использования инструмента. Присутствует, когда type — tool_use.
Имя инструмента. Присутствует, когда type — tool_use.
Входные данные инструмента. Присутствует, когда type — tool_use.
Содержание размышлений. Присутствует, когда type — thinking.
Модель, обработавшая запрос.
Причина остановки модели. Может быть end_turn (модель достигла естественной точки остановки), max_tokens (превышен max_tokens или максимум модели), stop_sequence (сгенерирована одна из ваших пользовательских стоп-последовательностей) или tool_use (модель вызвала один или несколько инструментов).
Какая пользовательская стоп-последовательность была сгенерирована, если таковая имеется.
Использование для выставления счетов и ограничения скорости. Количество использованных входных токенов.
Количество использованных выходных токенов.
cache_creation_input_tokens
Количество входных токенов, использованных для создания записи кэша.
Количество входных токенов, прочитанных из кэша.
curl -X POST https://api-llm.sunra.ai/v1/messages \
-H "Authorization: Bearer <SUNRA_KEY>" \
-H "Content-Type: application/json" \
-d '{
"model": "anthropic/claude-sonnet-4-20250514",
"max_tokens": 1024,
"messages": [
{
"role": "user",
"content": "Hello, how are you?"
}
]
}'
{
"id" : "msg_01XFDUDYJgAACzvnptvVoYEL" ,
"type" : "message" ,
"role" : "assistant" ,
"content" : [
{
"type" : "text" ,
"text" : "Hello! I'm doing well, thank you for asking. How can I help you today?"
}
],
"model" : "anthropic/claude-sonnet-4-20250514" ,
"stop_reason" : "end_turn" ,
"stop_sequence" : null ,
"usage" : {
"input_tokens" : 12 ,
"output_tokens" : 19
}
}