メインコンテンツへスキップ
POST
/
v1
/
messages
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! I'm doing well, thank you for asking. How can I help you today?"
    }
  ],
  "model": "anthropic/claude-sonnet-4-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 19
  }
}
Anthropic Messages APIフォーマットを使用してメッセージを作成します。テキスト、画像、PDF、ツール、拡張思考に対応しています。

認証

Authorization
string
必須
Bearerトークン。APIキーをAuthorizationヘッダーのBearerトークンとして使用してください。Format: Bearer <SUNRA_KEY>

リクエスト

このエンドポイントはJSONオブジェクトを受け付けます。
model
string
必須
プロンプトを補完するモデル。利用可能なモデルは sunra.ai/models で確認できます。
messages
object[]
必須
入力メッセージ。各入力メッセージにはrolecontentがあります。
max_tokens
integer
必須
停止前に生成するトークンの最大数。モデルがこの最大値に達する前に停止する場合があることにご注意ください。
system
string | object[]
システムプロンプト。モデルにコンテキストと指示を提供する方法です。文字列またはコンテンツブロックの配列を指定できます。
stream
boolean
デフォルト:false
サーバー送信イベント(SSE)を使用してレスポンスをインクリメンタルにストリーミングするかどうか。
temperature
number
デフォルト:1
レスポンスに注入されるランダム性の量。0.0から1.0の範囲。分析的/多肢選択タスクには0.0に近いtemperatureを、創造的・生成的タスクには1.0に近い値を使用してください。
top_p
number
核サンプリングを使用します。核サンプリングでは、後続の各トークンについて確率の降順で全オプションの累積分布を計算し、top_pで指定された特定の確率に達した時点で打ち切ります。
top_k
integer
各後続トークンについて上位K個のオプションからのみサンプリングします。確率の低い「ロングテール」レスポンスを除去するために使用されます。上級ユースケースにのみ推奨されます。
stop_sequences
string[]
モデルの生成を停止させるカスタムテキストシーケンス。返されるテキストには停止シーケンスは含まれません。
tools
object[]
モデルが使用する可能性のあるツールの定義。
tool_choice
object
モデルが提供されたツールをどのように使用するか。
metadata
object
リクエストに関するメタデータを記述するオブジェクト。
thinking
object
拡張思考の設定。有効にすると、モデルは応答する前に思考します。

レスポンス

メッセージの成功レスポンス。
id
string
一意のメッセージ識別子。例: msg_01XFDUDYJgAACzvnptvVoYEL
type
string
オブジェクトタイプ。常にmessage
role
string
生成されたメッセージの会話ロール。常にassistant
content
object[]
モデルによって生成されたコンテンツ。これはコンテンツブロックの配列です。
model
string
リクエストを処理したモデル。
stop_reason
string | null
モデルが停止した理由。end_turn(モデルが自然な停止点に達した)、max_tokensmax_tokensまたはモデルの最大値を超えた)、stop_sequence(カスタム停止シーケンスの1つが生成された)、またはtool_use(モデルが1つ以上のツールを呼び出した)。
stop_sequence
string | null
どのカスタム停止シーケンスが生成されたか(該当する場合)。
usage
object
課金およびレート制限の使用状況。
curl -X POST https://api-llm.sunra.ai/v1/messages \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "anthropic/claude-sonnet-4-20250514",
    "max_tokens": 1024,
    "messages": [
      {
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "msg_01XFDUDYJgAACzvnptvVoYEL",
  "type": "message",
  "role": "assistant",
  "content": [
    {
      "type": "text",
      "text": "Hello! I'm doing well, thank you for asking. How can I help you today?"
    }
  ],
  "model": "anthropic/claude-sonnet-4-20250514",
  "stop_reason": "end_turn",
  "stop_sequence": null,
  "usage": {
    "input_tokens": 12,
    "output_tokens": 19
  }
}