Open and Advanced Large-Scale Video Generative Models.

Open and Advanced Large-Scale Video Generative Models.
आपके अनुरोध की लागत 0.04 प्रति रन होगी। $10 के साथ आप इस मॉडल को लगभग 250 बार चला सकते हैं।
आगे आप यह कर सकते हैं:
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "atlascloud/wan-2.2/image-to-video-lora",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()अपनी प्रोग्रामिंग भाषा के लिए आवश्यक पैकेज इंस्टॉल करें।
pip install requestsसभी API अनुरोधों के लिए API कुंजी के माध्यम से प्रमाणीकरण आवश्यक है। आप अपनी API कुंजी Atlas Cloud डैशबोर्ड से प्राप्त कर सकते हैं।
export ATLASCLOUD_API_KEY="your-api-key-here"import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}क्लाइंट-साइड कोड या सार्वजनिक रिपॉज़िटरी में अपनी API कुंजी कभी उजागर न करें। इसके बजाय एनवायरनमेंट वेरिएबल या बैकएंड प्रॉक्सी का उपयोग करें।
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())एक असिंक्रोनस जनरेशन अनुरोध सबमिट करें। API एक प्रेडिक्शन ID लौटाता है जिसका उपयोग आप स्थिति जाँचने और परिणाम प्राप्त करने के लिए कर सकते हैं।
/api/v1/model/generateVideoimport requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "atlascloud/wan-2.2/image-to-video-lora",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}"){
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}अपने अनुरोध की वर्तमान स्थिति जाँचने के लिए प्रेडिक्शन एंडपॉइंट को पोल करें।
/api/v1/model/prediction/{prediction_id}import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)processingअनुरोध अभी भी प्रोसेस हो रहा है।completedजनरेशन पूर्ण हो गया है। आउटपुट उपलब्ध हैं।succeededजनरेशन सफल रहा। आउटपुट उपलब्ध हैं।failedजनरेशन विफल हो गया। एरर फ़ील्ड जाँचें।{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Atlas Cloud स्टोरेज पर फ़ाइलें अपलोड करें और एक URL प्राप्त करें जिसका उपयोग आप अपने API अनुरोधों में कर सकते हैं। अपलोड के लिए multipart/form-data का उपयोग करें।
/api/v1/model/uploadMediaimport requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}"){
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}अनुरोध बॉडी में निम्नलिखित पैरामीटर स्वीकार किए जाते हैं।
कोई पैरामीटर उपलब्ध नहीं है।
{
"model": "atlascloud/wan-2.2/image-to-video-lora"
}API जनरेट किए गए आउटपुट URL के साथ एक प्रेडिक्शन प्रतिक्रिया लौटाता है।
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills 300+ AI मॉडल को सीधे आपके AI कोडिंग असिस्टेंट में इंटीग्रेट करता है। इंस्टॉल करने के लिए एक कमांड, फिर इमेज, वीडियो जनरेट करने और LLM के साथ चैट करने के लिए प्राकृतिक भाषा का उपयोग करें।
npx skills add AtlasCloudAI/atlas-cloud-skillsAtlas Cloud डैशबोर्ड से अपनी API कुंजी प्राप्त करें और इसे एनवायरनमेंट वेरिएबल के रूप में सेट करें।
export ATLASCLOUD_API_KEY="your-api-key-here"एक बार इंस्टॉल होने के बाद, आप सभी Atlas Cloud मॉडल तक पहुँचने के लिए अपने AI असिस्टेंट में प्राकृतिक भाषा का उपयोग कर सकते हैं।
Atlas Cloud MCP Server आपके IDE को Model Context Protocol के माध्यम से 300+ AI मॉडल से जोड़ता है। किसी भी MCP-संगत क्लाइंट के साथ काम करता है।
npx -y atlascloud-mcpअपने IDE की MCP सेटिंग्स फ़ाइल में निम्नलिखित कॉन्फ़िगरेशन जोड़ें।
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}स्कीमा उपलब्ध नहींअपने मॉडल अनुरोध इतिहास तक पहुंचने के लिए आपको साइन इन करना होगा।
साइन इन करें| Field | Description |
|---|---|
| Model Name | Wan 2.2 Image-to-Video LoRA |
| Developed by | Alibaba Tongyi Wanxiang Lab |
| Model Type | Image-to-Video Generation with LoRA Support |
| Resolution | 480p, 720p (via VSR upscaling) |
| Frame Rate | 30 fps |
| Duration | 3–10 seconds |
| Related Links | GitHub: https://github.com/Wan-Video/Wan2.2, Hugging Face: https://huggingface.co/Wan-AI/Wan2.2-I2V-A14B, Paper (arXiv): https://arxiv.org/abs/2503.20314 |
Wan 2.2 is a significant upgrade to the Wan series of foundational video models, designed to push the boundaries of generative AI in video creation. This image-to-video LoRA variant takes a reference image as the first frame and generates a high-quality video, with full support for custom LoRA weights to fine-tune the generation style, motion characteristics, or subject identity.
The model generates videos at 480p natively and supports 720p output via Video Super Resolution (VSR) upscaling, delivering smooth 30 fps playback at both resolutions.
Effective MoE Architecture: Wan 2.2 integrates a Mixture-of-Experts (MoE) architecture into the video diffusion model. Specialized expert models handle different stages of the denoising process, increasing model capacity without raising computational costs. The model has 27B total parameters with only 14B active during any given step.
Cinematic-Level Aesthetics: Trained on a meticulously curated dataset with detailed labels for cinematic properties like lighting, composition, and color tone. This allows generation of videos with precise and controllable artistic styles, achieving a professional, cinematic look.
Complex Motion Generation: Trained on a vastly expanded dataset (+65.6% more images and +83.2% more videos compared to Wan 2.1), Wan 2.2 demonstrates superior ability to generate complex and realistic motion with enhanced generalization across motions, semantics, and aesthetics.
Custom LoRA Support: This variant supports user-provided LoRA weights for fine-grained style and motion control. Three separate LoRA input channels are available:
high_noise_loras — Applied to the high-noise expert (transformer stage), influencing overall structure and layout.low_noise_loras — Applied to the low-noise expert (transformer_2 stage), influencing fine details and textures.loras — General-purpose LoRA input where the module is auto-inferred from the safetensors filename.VSR-Enhanced Output: All output videos are delivered at 30 fps. When 720p resolution is selected, the model leverages Video Super Resolution to upscale from a 480p base generation, preserving fine details while achieving higher resolution output.
The architecture is built upon the Diffusion Transformer (DiT) paradigm with a Mixture-of-Experts (MoE) framework:
The transition between experts is dynamically determined by the signal-to-noise ratio (SNR) during generation. Custom LoRA weights can be applied to each expert independently, enabling precise control over different aspects of the generation pipeline.