메인 콘텐츠로 건너뛰기
POST
/
v1
/
responses
curl -X POST https://api-llm.sunra.ai/v1/responses \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "input": [
      {
        "type": "message",
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "resp-abc123",
  "object": "response",
  "created_at": 1704067200,
  "status": "completed",
  "model": "openai/gpt-4o",
  "output": [
    {
      "type": "message",
      "id": "msg_abc123",
      "role": "assistant",
      "status": "completed",
      "content": [
        {
          "type": "output_text",
          "text": "Hello! I'm doing well, thank you for asking. How can I help you today?",
          "annotations": []
        }
      ]
    }
  ],
  "temperature": 1.0,
  "top_p": 1.0,
  "max_output_tokens": null,
  "usage": {
    "input_tokens": 15,
    "output_tokens": 18,
    "total_tokens": 33,
    "input_tokens_details": {
      "cached_tokens": 0
    },
    "output_tokens_details": {
      "reasoning_tokens": 0
    }
  },
  "error": null
}
OpenAI Responses API 형식을 사용하여 스트리밍 또는 비스트리밍 응답을 생성합니다.

인증

Authorization
string
필수
Bearer 토큰. API 키를 Authorization 헤더의 Bearer 토큰으로 사용하세요.Format: Bearer <SUNRA_KEY>

요청

이 엔드포인트는 JSON 객체를 받습니다.
model
string
필수
응답 생성에 사용할 모델 ID. 사용 가능한 모델은 sunra.ai/models에서 확인하세요.
input
string | object[]
응답 요청의 입력. 문자열 또는 입력 항목의 배열을 지정할 수 있습니다.
instructions
string | null
모델의 컨텍스트에서 첫 번째 항목으로 시스템(또는 개발자) 메시지를 삽입합니다. input과 함께 사용하면 입력의 시작 부분에 지침이 삽입됩니다.
stream
boolean
기본값:false
true로 설정하면 서버 전송 이벤트(SSE)를 사용하여 응답이 스트리밍됩니다.
max_output_tokens
integer
가시적 출력 토큰과 추론 토큰을 포함한 출력 토큰 수의 상한.
temperature
number
기본값:1
0에서 2 사이의 샘플링 온도. 값이 높을수록 무작위성이 증가합니다.
top_p
number
기본값:1
핵 샘플링 매개변수. temperature 샘플링의 대안입니다.
frequency_penalty
number
기본값:0
-2.0에서 2.0 사이의 숫자. 양수 값은 텍스트에서의 기존 빈도를 기반으로 새 토큰에 페널티를 부과합니다.
presence_penalty
number
기본값:0
-2.0에서 2.0 사이의 숫자. 양수 값은 텍스트에 이미 나타났는지 여부를 기반으로 새 토큰에 페널티를 부과합니다.
tools
object[]
모델이 호출할 수 있는 도구 배열.
tool_choice
string | object
도구 선택 동작을 제어합니다. 지원되는 문자열 값: none, auto, required. 특정 함수를 지정할 수도 있습니다.
parallel_tool_calls
boolean
기본값:true
모델이 도구 호출을 병렬로 실행할 수 있도록 허용할지 여부.
text
object
텍스트 응답 형식 구성.
reasoning
object
추론 출력 구성.
store
boolean
기본값:true
생성된 응답을 나중에 검색할 수 있도록 저장할지 여부.
metadata
object
응답에 첨부할 수 있는 16개의 키-값 쌍 세트. 키는 최대 64자의 문자열이며, 값은 최대 512자의 문자열입니다.
user
string
최종 사용자를 나타내는 고유 식별자. 최대 128자.

응답

성공 응답 객체.
id
string
고유 응답 식별자.
object
string
객체 유형. 항상 response.
created_at
number
응답이 생성된 시점의 Unix 타임스탬프(초 단위).
status
string
응답의 상태. 가능한 값: completed, failed, in_progress, cancelled.
model
string
응답 생성에 사용된 모델.
output
object[]
모델이 생성한 콘텐츠 항목 배열.
usage
object
응답의 토큰 사용량 통계.
temperature
number
사용된 샘플링 온도.
top_p
number
사용된 핵 샘플링 값.
max_output_tokens
integer | null
사용된 최대 출력 토큰 설정.
error
object | null
생성이 실패한 경우의 오류 객체.
curl -X POST https://api-llm.sunra.ai/v1/responses \
  -H "Authorization: Bearer <SUNRA_KEY>" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "openai/gpt-4o",
    "input": [
      {
        "type": "message",
        "role": "user",
        "content": "Hello, how are you?"
      }
    ]
  }'
{
  "id": "resp-abc123",
  "object": "response",
  "created_at": 1704067200,
  "status": "completed",
  "model": "openai/gpt-4o",
  "output": [
    {
      "type": "message",
      "id": "msg_abc123",
      "role": "assistant",
      "status": "completed",
      "content": [
        {
          "type": "output_text",
          "text": "Hello! I'm doing well, thank you for asking. How can I help you today?",
          "annotations": []
        }
      ]
    }
  ],
  "temperature": 1.0,
  "top_p": 1.0,
  "max_output_tokens": null,
  "usage": {
    "input_tokens": 15,
    "output_tokens": 18,
    "total_tokens": 33,
    "input_tokens_details": {
      "cached_tokens": 0
    },
    "output_tokens_details": {
      "reasoning_tokens": 0
    }
  },
  "error": null
}