LLM / 對話
概覽
Atlas Cloud 透過 OpenAI 相容 API 提供業界領先的大型語言模型存取。如果您已在使用 OpenAI SDK,只需更改 Base URL 和 API 金鑰——無需其他程式碼更改。
主要功能
- 文字生成:為任何使用場景生成連貫、上下文感知的內容
- 對話式 AI:建構支援多輪對話的聊天機器人和助手
- 程式碼生成:以任何程式語言生成、審查和除錯程式碼
- 推理:複雜的邏輯推理、數學和問題解決
- 翻譯:跨數十種語言的理解和生成
- 摘要:提取關鍵資訊並生成簡潔摘要
精選模型
| 模型 | 供應商 | 特點 |
|---|---|---|
| DeepSeek V3 | DeepSeek | 高效能推理和編碼,具成本效益 |
| Qwen | Alibaba | 強大的多語言模型系列 |
| GPT-4o | OpenAI | 多功能多模態模型 |
| Claude | Anthropic | 擅長分析、寫作和編碼 |
| Gemini | 先進的多模態功能 | |
| Kimi | MoonshotAI | 強大的長上下文理解能力 |
| GLM | Zhipu AI | 中英雙語模型 |
| MiniMax | MiniMax | 針對多媒體應用最佳化 |
如需所有 LLM 模型的完整列表和規格,請造訪模型庫。
API 整合
Base URL
https://api.atlascloud.ai/v1LLM API 支援串流和非串流模式,完全相容 OpenAI ChatCompletion 格式。
Python(OpenAI SDK)
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.atlascloud.ai/v1"
)
# 非串流
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
temperature=0.7,
max_tokens=1024
)
print(response.choices[0].message.content)Python(串流)
stream = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "user", "content": "Write a short story about a robot learning to paint."}
],
stream=True
)
for chunk in stream:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.atlascloud.ai/v1",
});
// 非串流
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Explain quantum computing in simple terms." },
],
});
console.log(response.choices[0].message.content);
// 串流
const stream = await client.chat.completions.create({
model: "deepseek-v3",
messages: [{ role: "user", content: "Tell me a joke." }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}cURL
curl https://api.atlascloud.ai/v1/chat/completions \
-H "Authorization: Bearer your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
"temperature": 0.7,
"max_tokens": 1024
}'常用參數
| 參數 | 類型 | 說明 |
|---|---|---|
model | string | 模型識別碼(例如 deepseek-v3、qwen-turbo) |
messages | array | 包含 role 和 content 的對話訊息 |
temperature | number | 控制隨機性(0.0 - 2.0,預設因模型而異) |
max_tokens | number | 回應中的最大 token 數 |
stream | boolean | 啟用串流輸出 |
top_p | number | 核取樣參數 |
搭配第三方工具使用
由於 API 相容 OpenAI,可與任何支援自訂 OpenAI 端點的工具配合使用:
| 工具 | 設定方式 |
|---|---|
| Chatbox | 將 API Host 設為 https://api.atlascloud.ai/v1 |
| Cherry Studio | 新增自訂 OpenAI 供應商 |
| OpenWebUI | 設定 OpenAI 相容端點 |
| LangChain | 使用 ChatOpenAI 搭配自訂 base_url |
| LlamaIndex | 使用 OpenAI 相容 LLM 類別 |
重要:Base URL 必須包含 /v1 後綴。
模型選擇建議
- 性價比:DeepSeek V3 以具競爭力的價格提供出色性能
- 多語言:Qwen 擅長多語言任務,尤其是中英文
- 程式碼:DeepSeek 和 GPT-4o 是程式碼生成和審查的優秀選擇
- 長上下文:在模型庫查看各模型的最大上下文長度
- 推理:對於複雜任務,選擇具有專門推理能力的模型