LLM / 채팅

개요

Atlas Cloud는 OpenAI 호환 API를 통해 업계 최고의 대규모 언어 모델에 접근할 수 있습니다. 이미 OpenAI SDK를 사용 중이라면 기본 URL과 API 키만 변경하면 됩니다 — 다른 코드 변경은 필요 없습니다.

주요 기능

  • 텍스트 생성: 모든 사용 사례에 맞는 일관되고 문맥 인식 콘텐츠 생성
  • 대화형 AI: 멀티턴 대화를 지원하는 챗봇 및 어시스턴트 구축
  • 코드 생성: 모든 프로그래밍 언어에서 코드 생성, 검토 및 디버깅
  • 추론: 복잡한 논리적 추론, 수학, 문제 해결
  • 번역: 수십 개 언어에 걸친 다국어 이해 및 생성
  • 요약: 핵심 정보 추출 및 간결한 요약 생성

주요 모델

모델제공업체특징
DeepSeek V3DeepSeek고성능 추론 및 코딩, 비용 효율적
QwenAlibaba강력한 다국어 모델 시리즈
GPT-4oOpenAI다재다능한 멀티모달 모델
ClaudeAnthropic분석, 글쓰기, 코딩에 탁월
GeminiGoogle고급 멀티모달 기능
KimiMoonshotAI강력한 긴 문맥 이해
GLMZhipu AI한중 이중 언어 모델
MiniMaxMiniMax멀티미디어 애플리케이션에 최적화

모든 LLM 모델의 전체 목록과 사양은 모델 라이브러리를 방문하세요.

API 통합

기본 URL

https://api.atlascloud.ai/v1

LLM API는 스트리밍비스트리밍 모드를 모두 지원하며, OpenAI ChatCompletion 형식과 완전히 호환됩니다.

Python (OpenAI SDK)

from openai import OpenAI

client = OpenAI(
    api_key="your-api-key",
    base_url="https://api.atlascloud.ai/v1"
)

# 비스트리밍
response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    temperature=0.7,
    max_tokens=1024
)
print(response.choices[0].message.content)

Python (스트리밍)

stream = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "user", "content": "Write a short story about a robot learning to paint."}
    ],
    stream=True
)

for chunk in stream:
    content = chunk.choices[0].delta.content
    if content:
        print(content, end="", flush=True)

Node.js / TypeScript

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "your-api-key",
  baseURL: "https://api.atlascloud.ai/v1",
});

// 비스트리밍
const response = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Explain quantum computing in simple terms." },
  ],
});
console.log(response.choices[0].message.content);

// 스트리밍
const stream = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [{ role: "user", content: "Tell me a joke." }],
  stream: true,
});
for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

cURL

curl https://api.atlascloud.ai/v1/chat/completions \
  -H "Authorization: Bearer your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v3",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    "temperature": 0.7,
    "max_tokens": 1024
  }'

공통 파라미터

파라미터타입설명
modelstring모델 식별자 (예: deepseek-v3, qwen-turbo)
messagesarrayrolecontent를 포함한 대화 메시지
temperaturenumber무작위성 제어 (0.0 - 2.0, 기본값은 모델에 따라 다름)
max_tokensnumber응답의 최대 토큰 수
streamboolean스트리밍 출력 활성화
top_pnumber핵 샘플링 파라미터

서드파티 도구와 사용

API가 OpenAI 호환이므로 커스텀 OpenAI 엔드포인트를 지원하는 모든 도구에서 작동합니다:

도구설정
ChatboxAPI Host를 https://api.atlascloud.ai/v1로 설정
Cherry Studio커스텀 OpenAI 제공업체 추가
OpenWebUIOpenAI 호환 엔드포인트 설정
LangChain커스텀 base_urlChatOpenAI 사용
LlamaIndexOpenAI 호환 LLM 클래스 사용

중요: 기본 URL에 항상 /v1 접미사를 포함하세요.

모델 선택 팁

  • 비용 효율성: DeepSeek V3는 경쟁력 있는 가격에 우수한 성능 제공
  • 다국어: Qwen은 다국어 작업, 특히 한국어-영어에 탁월
  • 코드: DeepSeek와 GPT-4o는 코드 생성 및 검토에 강력한 선택
  • 긴 문맥: 모델 라이브러리에서 각 모델의 최대 문맥 길이 확인
  • 추론: 복잡한 작업에는 전용 추론 기능을 갖춘 모델 선택

요금 상세는 API 요금 페이지를 참조하세요. 전체 API 사양은 API 레퍼런스를 참조하세요.