LLM / Чат

Обзор

Atlas Cloud предоставляет доступ к ведущим большим языковым моделям через OpenAI-совместимый API. Если вы уже используете OpenAI SDK, просто измените base URL и API-ключ — никаких других изменений кода не требуется.

Ключевые возможности

  • Генерация текста: Создание связного, контекстно-зависимого контента для любого применения
  • Разговорный AI: Создание чат-ботов и ассистентов с поддержкой многоходовых диалогов
  • Генерация кода: Создание, ревью и отладка кода на любом языке программирования
  • Рассуждения: Сложные логические рассуждения, математика и решение задач
  • Перевод: Межъязыковое понимание и генерация на десятках языков
  • Суммаризация: Извлечение ключевой информации и создание кратких резюме

Избранные модели

МодельПровайдерОсобенности
DeepSeek V3DeepSeekВысокопроизводительные рассуждения и кодирование, экономичность
QwenAlibabaМощная серия мультиязычных моделей
KimiMoonshotAIОтличное понимание длинного контекста
GLMZhipu AIДвуязычная модель (китайский-английский)
MiniMaxMiniMaxОптимизирована для мультимедийных приложений

Полный список всех LLM-моделей и их спецификаций см. в Библиотеке моделей.

Интеграция API

Base URL

https://api.atlascloud.ai/v1

LLM API поддерживает потоковый и непотоковый режимы, полностью совместимые с форматом OpenAI ChatCompletion.

Python (OpenAI SDK)

from openai import OpenAI

client = OpenAI(
    api_key="your-api-key",
    base_url="https://api.atlascloud.ai/v1"
)

# Непотоковый режим
response = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    temperature=0.7,
    max_tokens=1024
)
print(response.choices[0].message.content)

Python (потоковый режим)

stream = client.chat.completions.create(
    model="deepseek-v3",
    messages=[
        {"role": "user", "content": "Write a short story about a robot learning to paint."}
    ],
    stream=True
)

for chunk in stream:
    content = chunk.choices[0].delta.content
    if content:
        print(content, end="", flush=True)

Node.js / TypeScript

import OpenAI from "openai";

const client = new OpenAI({
  apiKey: "your-api-key",
  baseURL: "https://api.atlascloud.ai/v1",
});

// Непотоковый режим
const response = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Explain quantum computing in simple terms." },
  ],
});
console.log(response.choices[0].message.content);

// Потоковый режим
const stream = await client.chat.completions.create({
  model: "deepseek-v3",
  messages: [{ role: "user", content: "Tell me a joke." }],
  stream: true,
});
for await (const chunk of stream) {
  process.stdout.write(chunk.choices[0]?.delta?.content || "");
}

cURL

curl https://api.atlascloud.ai/v1/chat/completions \
  -H "Authorization: Bearer your-api-key" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "deepseek-v3",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Explain quantum computing in simple terms."}
    ],
    "temperature": 0.7,
    "max_tokens": 1024
  }'

Основные параметры

ПараметрТипОписание
modelstringИдентификатор модели (например, deepseek-v3, qwen-turbo)
messagesarrayСообщения диалога с полями role и content
temperaturenumberУправляет случайностью (0.0 - 2.0, значение по умолчанию зависит от модели)
max_tokensnumberМаксимальное количество токенов в ответе
streambooleanВключить потоковый вывод
top_pnumberПараметр nucleus-сэмплирования

Использование со сторонними инструментами

Поскольку API совместим с OpenAI, он работает с любым инструментом, поддерживающим пользовательские эндпоинты OpenAI:

ИнструментНастройка
ChatboxУстановите API Host на https://api.atlascloud.ai/v1
Cherry StudioДобавьте пользовательского провайдера OpenAI
OpenWebUIНастройте OpenAI-совместимый эндпоинт
LangChainИспользуйте ChatOpenAI с пользовательским base_url
LlamaIndexИспользуйте OpenAI-совместимый класс LLM

Важно: Всегда включайте суффикс /v1 в base URL.

Советы по выбору модели

  • Экономичность: DeepSeek V3 предлагает отличную производительность по конкурентной цене
  • Мультиязычность: Qwen отлично справляется с мультиязычными задачами, особенно китайский-английский
  • Код: DeepSeek и GPT-4o — сильные варианты для генерации и ревью кода
  • Длинный контекст: Проверьте максимальную длину контекста каждой модели в Библиотеке моделей
  • Рассуждения: Выбирайте модели с специализированными возможностями рассуждений для сложных задач

Подробности о ценах см. на странице Цены API. Полную спецификацию API см. в Справочнике API.