LLM / チャット

概要

Atlas Cloud は、OpenAI 互換 API を通じて業界をリードする大規模言語モデルへのアクセスを提供します。すでに OpenAI SDK を使用している場合は、ベース URL と API キーを変更するだけで、他のコード変更は必要ありません。

主な機能

  • テキスト生成: あらゆるユースケースに対応する、一貫性のあるコンテキスト認識コンテンツの生成
  • 会話 AI: マルチターン会話をサポートするチャットボットやアシスタントの構築
  • コード生成: あらゆるプログラミング言語でのコード生成、レビュー、デバッグ
  • 推論: 複雑な論理推論、数学、問題解決
  • 翻訳: 数十の言語にわたる言語間理解と生成
  • 要約: キー情報の抽出と簡潔な要約の生成

注目モデル

モデルプロバイダー特徴
DeepSeek V3DeepSeek高性能推論・コーディング、コスト効率が高い
QwenAlibaba強力な多言語モデルシリーズ
GPT-4oOpenAI汎用性の高いマルチモーダルモデル
ClaudeAnthropic分析、ライティング、コーディングに優れる
GeminiGoogle高度なマルチモーダル機能
KimiMoonshotAI強力な長文コンテキスト理解
GLMZhipu AI中国語・英語バイリンガルモデル
MiniMaxMiniMaxマルチメディアアプリケーション最適化

すべての LLM モデルとその仕様の完全なリストは、モデルライブラリをご覧ください。

API 統合

ベース URL

https://api.atlascloud.ai/v1

LLM API は ストリーミング非ストリーミング の両方のモードをサポートしており、OpenAI ChatCompletion フォーマットと完全互換です。

Python (OpenAI SDK)

from openai import OpenAI

client = OpenAI(
    api_key="your-api-key",
    base_url="https://api.atlascloud.ai/v1"
)

# 非ストリーミング
response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    temperature=0.7,
    max_tokens=1024
)
print(response.choices[0].message.content)

Python (ストリーミング)

stream = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "user", "content": "Write a short story about a robot learning to paint."}
    ],
    stream=True
)

for chunk in stream:
    content = chunk.choices[0].delta.content
    if content:
        print(content, end="", flush=True)

Node.js / TypeScript

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "your-api-key",
  baseURL: "https://api.atlascloud.ai/v1",
});

// 非ストリーミング
const response = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Explain quantum computing in simple terms." },
  ],
});
console.log(response.choices[0].message.content);

// ストリーミング
const stream = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [{ role: "user", content: "Tell me a joke." }],
  stream: true,
});
for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

cURL

curl https://api.atlascloud.ai/v1/chat/completions \
  -H "Authorization: Bearer your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v3",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    "temperature": 0.7,
    "max_tokens": 1024
  }'

主なパラメータ

パラメータ説明
modelstringモデル識別子(例: deepseek-v3qwen-turbo
messagesarrayrolecontent を含む会話メッセージ
temperaturenumberランダム性の制御(0.0〜2.0、デフォルトはモデルにより異なる)
max_tokensnumberレスポンスの最大トークン数
streambooleanストリーミング出力を有効化
top_pnumberNucleus サンプリングパラメータ

サードパーティツールでの使用

API は OpenAI 互換のため、カスタム OpenAI エンドポイントをサポートするあらゆるツールで使用できます:

ツール設定方法
ChatboxAPI Host を https://api.atlascloud.ai/v1 に設定
Cherry Studioカスタム OpenAI プロバイダーを追加
OpenWebUIOpenAI 互換エンドポイントを設定
LangChainChatOpenAI でカスタム base_url を使用
LlamaIndexOpenAI 互換 LLM クラスを使用

重要: ベース URL には必ず /v1 サフィックスを含めてください。

モデル選択のヒント

  • コスト効率: DeepSeek V3 は競争力のある価格で優れたパフォーマンスを提供
  • 多言語: Qwen は多言語タスク、特に中国語・英語に優れる
  • コード: DeepSeek と GPT-4o はコード生成・レビューに強い
  • 長文コンテキスト: 各モデルの最大コンテキスト長はモデルライブラリで確認
  • 推論: 複雑なタスクには専用の推論機能を持つモデルを選択

料金の詳細は API 料金ページ、完全な API 仕様は API リファレンスをご覧ください。