LLM / Чат
Обзор
Atlas Cloud предоставляет доступ к ведущим большим языковым моделям через OpenAI-совместимый API. Если вы уже используете OpenAI SDK, просто измените base URL и API-ключ — никаких других изменений кода не требуется.
Ключевые возможности
- Генерация текста: Создание связного, контекстно-зависимого контента для любого применения
- Разговорный AI: Создание чат-ботов и ассистентов с поддержкой многоходовых диалогов
- Генерация кода: Создание, ревью и отладка кода на любом языке программирования
- Рассуждения: Сложные логические рассуждения, математика и решение задач
- Перевод: Межъязыковое понимание и генерация на десятках языков
- Суммаризация: Извлечение ключевой информации и создание кратких резюме
Избранные модели
| Модель | Провайдер | Особенности |
|---|---|---|
| DeepSeek V3 | DeepSeek | Высокопроизводительные рассуждения и кодирование, экономичность |
| Qwen | Alibaba | Мощная серия мультиязычных моделей |
| Kimi | MoonshotAI | Отличное понимание длинного контекста |
| GLM | Zhipu AI | Двуязычная модель (китайский-английский) |
| MiniMax | MiniMax | Оптимизирована для мультимедийных приложений |
Полный список всех LLM-моделей и их спецификаций см. в Библиотеке моделей.
Интеграция API
Base URL
https://api.atlascloud.ai/v1LLM API поддерживает потоковый и непотоковый режимы, полностью совместимые с форматом OpenAI ChatCompletion.
Python (OpenAI SDK)
from openai import OpenAI
client = OpenAI(
api_key="your-api-key",
base_url="https://api.atlascloud.ai/v1"
)
# Непотоковый режим
response = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
temperature=0.7,
max_tokens=1024
)
print(response.choices[0].message.content)Python (потоковый режим)
stream = client.chat.completions.create(
model="deepseek-v3",
messages=[
{"role": "user", "content": "Write a short story about a robot learning to paint."}
],
stream=True
)
for chunk in stream:
content = chunk.choices[0].delta.content
if content:
print(content, end="", flush=True)Node.js / TypeScript
import OpenAI from "openai";
const client = new OpenAI({
apiKey: "your-api-key",
baseURL: "https://api.atlascloud.ai/v1",
});
// Непотоковый режим
const response = await client.chat.completions.create({
model: "deepseek-v3",
messages: [
{ role: "system", content: "You are a helpful assistant." },
{ role: "user", content: "Explain quantum computing in simple terms." },
],
});
console.log(response.choices[0].message.content);
// Потоковый режим
const stream = await client.chat.completions.create({
model: "deepseek-v3",
messages: [{ role: "user", content: "Tell me a joke." }],
stream: true,
});
for await (const chunk of stream) {
process.stdout.write(chunk.choices[0]?.delta?.content || "");
}cURL
curl https://api.atlascloud.ai/v1/chat/completions \
-H "Authorization: Bearer your-api-key" \
-H "Content-Type: application/json" \
-d '{
"model": "deepseek-v3",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Explain quantum computing in simple terms."}
],
"temperature": 0.7,
"max_tokens": 1024
}'Основные параметры
| Параметр | Тип | Описание |
|---|---|---|
model | string | Идентификатор модели (например, deepseek-v3, qwen-turbo) |
messages | array | Сообщения диалога с полями role и content |
temperature | number | Управляет случайностью (0.0 - 2.0, значение по умолчанию зависит от модели) |
max_tokens | number | Максимальное количество токенов в ответе |
stream | boolean | Включить потоковый вывод |
top_p | number | Параметр nucleus-сэмплирования |
Использование со сторонними инструментами
Поскольку API совместим с OpenAI, он работает с любым инструментом, поддерживающим пользовательские эндпоинты OpenAI:
| Инструмент | Настройка |
|---|---|
| Chatbox | Установите API Host на https://api.atlascloud.ai/v1 |
| Cherry Studio | Добавьте пользовательского провайдера OpenAI |
| OpenWebUI | Настройте OpenAI-совместимый эндпоинт |
| LangChain | Используйте ChatOpenAI с пользовательским base_url |
| LlamaIndex | Используйте OpenAI-совместимый класс LLM |
Важно: Всегда включайте суффикс /v1 в base URL.
Советы по выбору модели
- Экономичность: DeepSeek V3 предлагает отличную производительность по конкурентной цене
- Мультиязычность: Qwen отлично справляется с мультиязычными задачами, особенно китайский-английский
- Код: DeepSeek и GPT-4o — сильные варианты для генерации и ревью кода
- Длинный контекст: Проверьте максимальную длину контекста каждой модели в Библиотеке моделей
- Рассуждения: Выбирайте модели с специализированными возможностями рассуждений для сложных задач
Подробности о ценах см. на странице Цены API. Полную спецификацию API см. в Справочнике API.