LLM / 채팅
개요
Atlas Cloud는 OpenAI 호환 API를 통해 업계 최고의 대규모 언어 모델에 접근할 수 있습니다. 이미 OpenAI SDK를 사용 중이라면 기본 URL과 API 키만 변경하면 됩니다 — 다른 코드 변경은 필요 없습니다.
주요 기능
- 텍스트 생성: 모든 사용 사례에 맞는 일관되고 문맥 인식 콘텐츠 생성
- 대화형 AI: 멀티턴 대화를 지원하는 챗봇 및 어시스턴트 구축
- 코드 생성: 모든 프로그래밍 언어에서 코드 생성, 검토 및 디버깅
- 추론: 복잡한 논리적 추론, 수학, 문제 해결
- 번역: 수십 개 언어에 걸친 다국어 이해 및 생성
- 요약: 핵심 정보 추출 및 간결한 요약 생성
주요 모델
| 모델 | 제공업체 | 특징 |
|---|---|---|
| DeepSeek V3 | DeepSeek | 고성능 추론 및 코딩, 비용 효율적 |
| Qwen | Alibaba | 강력한 다국어 모델 시리즈 |
| GPT-4o | OpenAI | 다재다능한 멀티모달 모델 |
| Claude | Anthropic | 분석, 글쓰기, 코딩에 탁월 |
| Gemini | 고급 멀티모달 기능 | |
| Kimi | MoonshotAI | 강력한 긴 문맥 이해 |
| GLM | Zhipu AI | 한중 이중 언어 모델 |
| MiniMax | MiniMax | 멀티미디어 애플리케이션에 최적화 |
모든 LLM 모델의 전체 목록과 사양은 모델 라이브러리를 방문하세요.
API 통합
기본 URL
https://api.atlascloud.ai/v1LLM API는 스트리밍 및 비스트리밍 모드를 모두 지원하며, OpenAI ChatCompletion 형식과 완전히 호환됩니다.
Python (OpenAI SDK)
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.atlascloud.ai/v1"
)
# 비스트리밍
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
temperature=0.7,
max_tokens=1024
)
print(response.choices[0].message.content)Python (스트리밍)
stream = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "user", "content": "Write a short story about a robot learning to paint."}
],
stream=True
)
for chunk in stream:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.atlascloud.ai/v1",
});
// 비스트리밍
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Explain quantum computing in simple terms." },
],
});
console.log(response.choices[0].message.content);
// 스트리밍
const stream = await client.chat.completions.create({
model: "deepseek-v3",
messages: [{ role: "user", content: "Tell me a joke." }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}cURL
curl https://api.atlascloud.ai/v1/chat/completions \
-H "Authorization: Bearer your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
"temperature": 0.7,
"max_tokens": 1024
}'공통 파라미터
| 파라미터 | 타입 | 설명 |
|---|---|---|
model | string | 모델 식별자 (예: deepseek-v3, qwen-turbo) |
messages | array | role과 content를 포함한 대화 메시지 |
temperature | number | 무작위성 제어 (0.0 - 2.0, 기본값은 모델에 따라 다름) |
max_tokens | number | 응답의 최대 토큰 수 |
stream | boolean | 스트리밍 출력 활성화 |
top_p | number | 핵 샘플링 파라미터 |
서드파티 도구와 사용
API가 OpenAI 호환이므로 커스텀 OpenAI 엔드포인트를 지원하는 모든 도구에서 작동합니다:
| 도구 | 설정 |
|---|---|
| Chatbox | API Host를 https://api.atlascloud.ai/v1로 설정 |
| Cherry Studio | 커스텀 OpenAI 제공업체 추가 |
| OpenWebUI | OpenAI 호환 엔드포인트 설정 |
| LangChain | 커스텀 base_url로 ChatOpenAI 사용 |
| LlamaIndex | OpenAI 호환 LLM 클래스 사용 |
중요: 기본 URL에 항상 /v1 접미사를 포함하세요.
모델 선택 팁
- 비용 효율성: DeepSeek V3는 경쟁력 있는 가격에 우수한 성능 제공
- 다국어: Qwen은 다국어 작업, 특히 한국어-영어에 탁월
- 코드: DeepSeek와 GPT-4o는 코드 생성 및 검토에 강력한 선택
- 긴 문맥: 모델 라이브러리에서 각 모델의 최대 문맥 길이 확인
- 추론: 복잡한 작업에는 전용 추론 기능을 갖춘 모델 선택