An efficient text-to-video model geared toward fast, cost-effective generation. Ideal for prototyping short narrative clips (5–10 s) with stylistic flexibility and prompt-faithful motion.

An efficient text-to-video model geared toward fast, cost-effective generation. Ideal for prototyping short narrative clips (5–10 s) with stylistic flexibility and prompt-faithful motion.
كل مرة ستكلف 0.081 مع $10 يمكنك التشغيل حوالي 123 مرة
يمكنك المتابعة بـ:
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1-lite-t2v-1080p",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()قم بتثبيت الحزمة المطلوبة للغة البرمجة الخاصة بك.
pip install requestsتتطلب جميع طلبات API المصادقة عبر مفتاح API. يمكنك الحصول على مفتاح API الخاص بك من لوحة تحكم Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}لا تكشف أبدًا مفتاح API الخاص بك في الكود من جانب العميل أو المستودعات العامة. استخدم متغيرات البيئة أو وكيل الخادم الخلفي بدلاً من ذلك.
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())أرسل طلب توليد غير متزامن. تُرجع API معرّف التنبؤ الذي يمكنك استخدامه للتحقق من الحالة واسترداد النتيجة.
/api/v1/model/generateVideoimport requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1-lite-t2v-1080p",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}"){
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}استعلم عن نقطة نهاية التنبؤ للتحقق من الحالة الحالية لطلبك.
/api/v1/model/prediction/{prediction_id}import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)processingلا يزال الطلب قيد المعالجة.completedاكتمل التوليد. المخرجات متاحة.succeededنجح التوليد. المخرجات متاحة.failedفشل التوليد. تحقق من حقل الخطأ.{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}ارفع الملفات إلى تخزين Atlas Cloud واحصل على URL يمكنك استخدامه في طلبات API الخاصة بك. استخدم multipart/form-data للرفع.
/api/v1/model/uploadMediaimport requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}"){
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}المعاملات التالية مقبولة في نص الطلب.
لا توجد معاملات متاحة.
{
"model": "bytedance/seedance-v1-lite-t2v-1080p"
}تُرجع API استجابة تنبؤ تحتوي على عناوين URL للمخرجات المولّدة.
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}يدمج Atlas Cloud Skills أكثر من 300 نموذج ذكاء اصطناعي مباشرة في مساعد البرمجة بالذكاء الاصطناعي الخاص بك. أمر واحد للتثبيت، ثم استخدم اللغة الطبيعية لتوليد الصور ومقاطع الفيديو والدردشة مع LLM.
npx skills add AtlasCloudAI/atlas-cloud-skillsاحصل على مفتاح API الخاص بك من لوحة تحكم Atlas Cloud وعيّنه كمتغير بيئة.
export ATLASCLOUD_API_KEY="your-api-key-here"بمجرد التثبيت، يمكنك استخدام اللغة الطبيعية في مساعد الذكاء الاصطناعي الخاص بك للوصول إلى جميع نماذج Atlas Cloud.
يربط Atlas Cloud MCP Server بيئة التطوير الخاصة بك بأكثر من 300 نموذج ذكاء اصطناعي عبر Model Context Protocol. يعمل مع أي عميل متوافق مع MCP.
npx -y atlascloud-mcpأضف التكوين التالي إلى ملف إعدادات MCP في بيئة التطوير الخاصة بك.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}المخطط غير متاحA video generation model that creates videos from text prompts and images.
Text-to-Video (T2V): Generate videos from text descriptions
Image-to-Video (I2V): Generate videos from static images with optional text prompts
Resolution: Outputs 1080p videos
Wide dynamic range supporting both subtle and large-scale movements
Maintains physical realism and stability across motion sequences
Handles complex action sequences and multi-agent interactions
Native multi-shot video generation with narrative coherence
Maintains consistency in subjects, visual style, and atmosphere across shot transitions
Handles temporal and spatial shifts between scenes
Supports diverse visual styles: photorealism, cyberpunk, illustration, felt texture, and more
Interprets stylistic prompts accurately
Maintains cinematic quality with rich visual details
Parses natural language descriptions effectively
Stable control over camera movements and positioning
Accurate interpretation of complex scene descriptions
Strong prompt adherence across generated content
Model Version: 1.0
Output Resolution: 1080p
Input Types: Text prompts, images (for I2V mode)
Video Length: Multi-shot capable (specific duration limits not specified)
Based on internal benchmarks using SeedVideoBench-1.0 and third-party evaluations:
High scores in prompt adherence
Strong motion quality ratings
Competitive aesthetic quality
Effective source image consistency in I2V tasks
Creative video content generation
Prototype development for film and animation
Commercial video production
Educational and documentary content
Fantasy and surreal video creation
Performance metrics based on specific benchmark datasets
Actual generation quality may vary with prompt complexity
Multi-shot consistency depends on prompt clarity and scene descriptions