LLM / チャット
概要
Atlas Cloud は、OpenAI 互換 API を通じて業界をリードする大規模言語モデルへのアクセスを提供します。すでに OpenAI SDK を使用している場合は、ベース URL と API キーを変更するだけで、他のコード変更は必要ありません。
主な機能
- テキスト生成: あらゆるユースケースに対応する、一貫性のあるコンテキスト認識コンテンツの生成
- 会話 AI: マルチターン会話をサポートするチャットボットやアシスタントの構築
- コード生成: あらゆるプログラミング言語でのコード生成、レビュー、デバッグ
- 推論: 複雑な論理推論、数学、問題解決
- 翻訳: 数十の言語にわたる言語間理解と生成
- 要約: キー情報の抽出と簡潔な要約の生成
注目モデル
| モデル | プロバイダー | 特徴 |
|---|---|---|
| DeepSeek V3 | DeepSeek | 高性能推論・コーディング、コスト効率が高い |
| Qwen | Alibaba | 強力な多言語モデルシリーズ |
| GPT-4o | OpenAI | 汎用性の高いマルチモーダルモデル |
| Claude | Anthropic | 分析、ライティング、コーディングに優れる |
| Gemini | 高度なマルチモーダル機能 | |
| Kimi | MoonshotAI | 強力な長文コンテキスト理解 |
| GLM | Zhipu AI | 中国語・英語バイリンガルモデル |
| MiniMax | MiniMax | マルチメディアアプリケーション最適化 |
すべての LLM モデルとその仕様の完全なリストは、モデルライブラリをご覧ください。
API 統合
ベース URL
https://api.atlascloud.ai/v1LLM API は ストリーミング と 非ストリーミング の両方のモードをサポートしており、OpenAI ChatCompletion フォーマットと完全互換です。
Python (OpenAI SDK)
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.atlascloud.ai/v1"
)
# 非ストリーミング
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
temperature=0.7,
max_tokens=1024
)
print(response.choices[0].message.content)Python (ストリーミング)
stream = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "user", "content": "Write a short story about a robot learning to paint."}
],
stream=True
)
for chunk in stream:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.atlascloud.ai/v1",
});
// 非ストリーミング
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Explain quantum computing in simple terms." },
],
});
console.log(response.choices[0].message.content);
// ストリーミング
const stream = await client.chat.completions.create({
model: "deepseek-v3",
messages: [{ role: "user", content: "Tell me a joke." }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}cURL
curl https://api.atlascloud.ai/v1/chat/completions \
-H "Authorization: Bearer your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
"temperature": 0.7,
"max_tokens": 1024
}'主なパラメータ
| パラメータ | 型 | 説明 |
|---|---|---|
model | string | モデル識別子(例: deepseek-v3、qwen-turbo) |
messages | array | role と content を含む会話メッセージ |
temperature | number | ランダム性の制御(0.0〜2.0、デフォルトはモデルにより異なる) |
max_tokens | number | レスポンスの最大トークン数 |
stream | boolean | ストリーミング出力を有効化 |
top_p | number | Nucleus サンプリングパラメータ |
サードパーティツールでの使用
API は OpenAI 互換のため、カスタム OpenAI エンドポイントをサポートするあらゆるツールで使用できます:
| ツール | 設定方法 |
|---|---|
| Chatbox | API Host を https://api.atlascloud.ai/v1 に設定 |
| Cherry Studio | カスタム OpenAI プロバイダーを追加 |
| OpenWebUI | OpenAI 互換エンドポイントを設定 |
| LangChain | ChatOpenAI でカスタム base_url を使用 |
| LlamaIndex | OpenAI 互換 LLM クラスを使用 |
重要: ベース URL には必ず /v1 サフィックスを含めてください。
モデル選択のヒント
- コスト効率: DeepSeek V3 は競争力のある価格で優れたパフォーマンスを提供
- 多言語: Qwen は多言語タスク、特に中国語・英語に優れる
- コード: DeepSeek と GPT-4o はコード生成・レビューに強い
- 長文コンテキスト: 各モデルの最大コンテキスト長はモデルライブラリで確認
- 推論: 複雑なタスクには専用の推論機能を持つモデルを選択
料金の詳細は API 料金ページ、完全な API 仕様は API リファレンスをご覧ください。