An efficient text-to-video model geared toward fast, cost-effective generation. Ideal for prototyping short narrative clips (5–10 s) with stylistic flexibility and prompt-faithful motion.

An efficient text-to-video model geared toward fast, cost-effective generation. Ideal for prototyping short narrative clips (5–10 s) with stylistic flexibility and prompt-faithful motion.
各実行には0.081かかります。$10で約123回実行できます。
次にできること:
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1-lite-t2v-1080p",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()お使いの言語に必要なパッケージをインストールしてください。
pip install requestsすべての API リクエストには API キーによる認証が必要です。API キーは Atlas Cloud ダッシュボードから取得できます。
export ATLASCLOUD_API_KEY="your-api-key-here"import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}API キーをクライアントサイドのコードや公開リポジトリに公開しないでください。代わりに環境変数またはバックエンドプロキシを使用してください。
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())非同期生成リクエストを送信します。API は予測 ID を返し、それを使用してステータスの確認や結果の取得ができます。
/api/v1/model/generateVideoimport requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1-lite-t2v-1080p",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}"){
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}予測エンドポイントをポーリングして、リクエストの現在のステータスを確認します。
/api/v1/model/prediction/{prediction_id}import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)processingリクエストはまだ処理中です。completed生成が完了しました。出力が利用可能です。succeeded生成が成功しました。出力が利用可能です。failed生成に失敗しました。エラーフィールドを確認してください。{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Atlas Cloud ストレージにファイルをアップロードし、API リクエストで使用できる URL を取得します。multipart/form-data を使用してアップロードします。
/api/v1/model/uploadMediaimport requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}"){
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}以下のパラメータがリクエストボディで使用できます。
利用可能なパラメータはありません。
{
"model": "bytedance/seedance-v1-lite-t2v-1080p"
}API は生成された出力 URL を含む予測レスポンスを返します。
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills は 300 以上の AI モデルを AI コーディングアシスタントに直接統合します。ワンコマンドでインストールし、自然言語で画像・動画生成や LLM との対話が可能です。
npx skills add AtlasCloudAI/atlas-cloud-skillsAtlas Cloud ダッシュボードから API キーを取得し、環境変数として設定してください。
export ATLASCLOUD_API_KEY="your-api-key-here"インストール後、AI アシスタントで自然言語を使用してすべての Atlas Cloud モデルにアクセスできます。
Atlas Cloud MCP Server は Model Context Protocol を通じて IDE と 300 以上の AI モデルを接続します。MCP 対応のあらゆるクライアントで動作します。
npx -y atlascloud-mcp以下の設定を IDE の MCP 設定ファイルに追加してください。
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}スキーマが利用できませんA video generation model that creates videos from text prompts and images.
Text-to-Video (T2V): Generate videos from text descriptions
Image-to-Video (I2V): Generate videos from static images with optional text prompts
Resolution: Outputs 1080p videos
Wide dynamic range supporting both subtle and large-scale movements
Maintains physical realism and stability across motion sequences
Handles complex action sequences and multi-agent interactions
Native multi-shot video generation with narrative coherence
Maintains consistency in subjects, visual style, and atmosphere across shot transitions
Handles temporal and spatial shifts between scenes
Supports diverse visual styles: photorealism, cyberpunk, illustration, felt texture, and more
Interprets stylistic prompts accurately
Maintains cinematic quality with rich visual details
Parses natural language descriptions effectively
Stable control over camera movements and positioning
Accurate interpretation of complex scene descriptions
Strong prompt adherence across generated content
Model Version: 1.0
Output Resolution: 1080p
Input Types: Text prompts, images (for I2V mode)
Video Length: Multi-shot capable (specific duration limits not specified)
Based on internal benchmarks using SeedVideoBench-1.0 and third-party evaluations:
High scores in prompt adherence
Strong motion quality ratings
Competitive aesthetic quality
Effective source image consistency in I2V tasks
Creative video content generation
Prototype development for film and animation
Commercial video production
Educational and documentary content
Fantasy and surreal video creation
Performance metrics based on specific benchmark datasets
Actual generation quality may vary with prompt complexity
Multi-shot consistency depends on prompt clarity and scene descriptions