alibaba/wan-2.2-spicy/video-extend

Open and Advanced Large-Scale Video Generative Models.

VIDEO-TO-VIDEO
Wan-2.2-spicy Video Extend
वीडियो-से-वीडियो

Open and Advanced Large-Scale Video Generative Models.

इनपुट

पैरामीटर कॉन्फ़िगरेशन लोड हो रहा है...

आउटपुट

निष्क्रिय
जेनरेट किए गए वीडियो यहां दिखाई देंगे
अपनी सेटिंग्स कॉन्फ़िगर करें और शुरू करने के लिए चलाएं पर क्लिक करें

आपके अनुरोध की लागत 0.032 प्रति रन होगी। $10 के साथ आप इस मॉडल को लगभग 312 बार चला सकते हैं।

पैरामीटर

कोड उदाहरण

import requests
import time

# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "alibaba/wan-2.2-spicy/video-extend",
    "prompt": "A beautiful sunset over the ocean with gentle waves",
    "width": 512,
    "height": 512,
    "duration": 3,
    "fps": 24,
}

generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]

# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"

def check_status():
    while True:
        response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
        result = response.json()

        if result["data"]["status"] in ["completed", "succeeded"]:
            print("Generated video:", result["data"]["outputs"][0])
            return result["data"]["outputs"][0]
        elif result["data"]["status"] == "failed":
            raise Exception(result["data"]["error"] or "Generation failed")
        else:
            # Still processing, wait 2 seconds
            time.sleep(2)

video_url = check_status()

इंस्टॉल करें

अपनी प्रोग्रामिंग भाषा के लिए आवश्यक पैकेज इंस्टॉल करें।

bash
pip install requests

प्रमाणीकरण

सभी API अनुरोधों के लिए API कुंजी के माध्यम से प्रमाणीकरण आवश्यक है। आप अपनी API कुंजी Atlas Cloud डैशबोर्ड से प्राप्त कर सकते हैं।

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP हेडर

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
अपनी API कुंजी सुरक्षित रखें

क्लाइंट-साइड कोड या सार्वजनिक रिपॉज़िटरी में अपनी API कुंजी कभी उजागर न करें। इसके बजाय एनवायरनमेंट वेरिएबल या बैकएंड प्रॉक्सी का उपयोग करें।

अनुरोध सबमिट करें

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "prompt": "A beautiful landscape"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

अनुरोध सबमिट करें

एक असिंक्रोनस जनरेशन अनुरोध सबमिट करें। API एक प्रेडिक्शन ID लौटाता है जिसका उपयोग आप स्थिति जाँचने और परिणाम प्राप्त करने के लिए कर सकते हैं।

POST/api/v1/model/generateVideo

अनुरोध बॉडी

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}

data = {
    "model": "alibaba/wan-2.2-spicy/video-extend",
    "input": {
        "prompt": "A beautiful sunset over the ocean with gentle waves"
    }
}

response = requests.post(url, headers=headers, json=data)
result = response.json()

print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")

प्रतिक्रिया

{
  "id": "pred_abc123",
  "status": "processing",
  "model": "model-name",
  "created_at": "2025-01-01T00:00:00Z"
}

स्थिति जाँचें

अपने अनुरोध की वर्तमान स्थिति जाँचने के लिए प्रेडिक्शन एंडपॉइंट को पोल करें।

GET/api/v1/model/prediction/{prediction_id}

पोलिंग उदाहरण

import requests
import time

prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

while True:
    response = requests.get(url, headers=headers)
    result = response.json()
    status = result["data"]["status"]
    print(f"Status: {status}")

    if status in ["completed", "succeeded"]:
        output_url = result["data"]["outputs"][0]
        print(f"Output URL: {output_url}")
        break
    elif status == "failed":
        print(f"Error: {result['data'].get('error', 'Unknown')}")
        break

    time.sleep(3)

स्थिति मान

processingअनुरोध अभी भी प्रोसेस हो रहा है।
completedजनरेशन पूर्ण हो गया है। आउटपुट उपलब्ध हैं।
succeededजनरेशन सफल रहा। आउटपुट उपलब्ध हैं।
failedजनरेशन विफल हो गया। एरर फ़ील्ड जाँचें।

पूर्ण प्रतिक्रिया

{
  "data": {
    "id": "pred_abc123",
    "status": "completed",
    "outputs": [
      "https://storage.atlascloud.ai/outputs/result.mp4"
    ],
    "metrics": {
      "predict_time": 45.2
    },
    "created_at": "2025-01-01T00:00:00Z",
    "completed_at": "2025-01-01T00:00:10Z"
  }
}

फ़ाइलें अपलोड करें

Atlas Cloud स्टोरेज पर फ़ाइलें अपलोड करें और एक URL प्राप्त करें जिसका उपयोग आप अपने API अनुरोधों में कर सकते हैं। अपलोड के लिए multipart/form-data का उपयोग करें।

POST/api/v1/model/uploadMedia

अपलोड उदाहरण

import requests

url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

with open("image.png", "rb") as f:
    files = {"file": ("image.png", f, "image/png")}
    response = requests.post(url, headers=headers, files=files)

result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")

प्रतिक्रिया

{
  "data": {
    "download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
    "file_name": "image.png",
    "content_type": "image/png",
    "size": 1024000
  }
}

Input Schema

अनुरोध बॉडी में निम्नलिखित पैरामीटर स्वीकार किए जाते हैं।

कुल: 0आवश्यक: 0वैकल्पिक: 0

कोई पैरामीटर उपलब्ध नहीं है।

अनुरोध बॉडी का उदाहरण

json
{
  "model": "alibaba/wan-2.2-spicy/video-extend"
}

Output Schema

API जनरेट किए गए आउटपुट URL के साथ एक प्रेडिक्शन प्रतिक्रिया लौटाता है।

idstringrequired
Unique identifier for the prediction.
statusstringrequired
Current status of the prediction.
processingcompletedsucceededfailed
modelstringrequired
The model used for generation.
outputsarray[string]
Array of output URLs. Available when status is "completed".
errorstring
Error message if status is "failed".
metricsobject
Performance metrics.
predict_timenumber
Time taken for video generation in seconds.
created_atstringrequired
ISO 8601 timestamp when the prediction was created.
Format: date-time
completed_atstring
ISO 8601 timestamp when the prediction was completed.
Format: date-time

प्रतिक्रिया का उदाहरण

json
{
  "id": "pred_abc123",
  "status": "completed",
  "model": "model-name",
  "outputs": [
    "https://storage.atlascloud.ai/outputs/result.mp4"
  ],
  "metrics": {
    "predict_time": 45.2
  },
  "created_at": "2025-01-01T00:00:00Z",
  "completed_at": "2025-01-01T00:00:10Z"
}

Atlas Cloud Skills

Atlas Cloud Skills 300+ AI मॉडल को सीधे आपके AI कोडिंग असिस्टेंट में इंटीग्रेट करता है। इंस्टॉल करने के लिए एक कमांड, फिर इमेज, वीडियो जनरेट करने और LLM के साथ चैट करने के लिए प्राकृतिक भाषा का उपयोग करें।

समर्थित क्लाइंट

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ समर्थित क्लाइंट

इंस्टॉल करें

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

API कुंजी सेटअप करें

Atlas Cloud डैशबोर्ड से अपनी API कुंजी प्राप्त करें और इसे एनवायरनमेंट वेरिएबल के रूप में सेट करें।

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

क्षमताएँ

एक बार इंस्टॉल होने के बाद, आप सभी Atlas Cloud मॉडल तक पहुँचने के लिए अपने AI असिस्टेंट में प्राकृतिक भाषा का उपयोग कर सकते हैं।

इमेज जनरेशनNano Banana 2, Z-Image और अन्य मॉडल के साथ इमेज जनरेट करें।
वीडियो निर्माणKling, Vidu, Veo आदि के साथ टेक्स्ट या इमेज से वीडियो बनाएँ।
LLM चैटQwen, DeepSeek और अन्य बड़े भाषा मॉडल के साथ चैट करें।
मीडिया अपलोडइमेज एडिटिंग और इमेज-टू-वीडियो वर्कफ़्लो के लिए लोकल फ़ाइलें अपलोड करें।

MCP Server

Atlas Cloud MCP Server आपके IDE को Model Context Protocol के माध्यम से 300+ AI मॉडल से जोड़ता है। किसी भी MCP-संगत क्लाइंट के साथ काम करता है।

समर्थित क्लाइंट

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ समर्थित क्लाइंट

इंस्टॉल करें

bash
npx -y atlascloud-mcp

कॉन्फ़िगरेशन

अपने IDE की MCP सेटिंग्स फ़ाइल में निम्नलिखित कॉन्फ़िगरेशन जोड़ें।

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

उपलब्ध टूल

atlas_generate_imageटेक्स्ट प्रॉम्प्ट से इमेज जनरेट करें।
atlas_generate_videoटेक्स्ट या इमेज से वीडियो बनाएँ।
atlas_chatबड़े भाषा मॉडल के साथ चैट करें।
atlas_list_models300+ उपलब्ध AI मॉडल ब्राउज़ करें।
atlas_quick_generateऑटो मॉडल चयन के साथ एक-चरण कंटेंट निर्माण।
atlas_upload_mediaAPI वर्कफ़्लो के लिए लोकल फ़ाइलें अपलोड करें।

API स्कीमा

स्कीमा उपलब्ध नहीं

अनुरोध इतिहास देखने के लिए कृपया साइन इन करें

अपने मॉडल अनुरोध इतिहास तक पहुंचने के लिए आपको साइन इन करना होगा।

साइन इन करें

Wan 2.2: Open and Advanced Large-Scale Video Generative Model by Alibaba Wanxiang

Model Card Overview

FieldDescription
Model NameWan 2.2
Developed byAlibaba Tongyi Wanxiang Lab
Release DateJuly 28, 2025
Model TypeVideo Generation
Related LinksGitHub: https://github.com/Wan-Video/Wan2.2, Hugging Face: https://huggingface.co/Wan-AI/Wan2.2-T2V-A14B, Paper (arXiv): https://arxiv.org/abs/2503.20314

Introduction

Wan 2.2 is a significant upgrade to the Wan series of foundational video models, designed to push the boundaries of generative AI in video creation. The primary goal of Wan 2.2 is to provide an open and advanced suite of tools for generating high-quality, cinematic videos from various inputs, including text, images, and audio. Its core contribution lies in making state-of-the-art video generation technology accessible to a broader community of researchers and creators through open-sourcing its models and code. The project emphasizes cinematic aesthetics, complex motion generation, and computational efficiency, introducing several key innovations to achieve these aims.

Key Features & Innovations

Wan 2.2 introduces several groundbreaking features that set it apart from previous models:

  • Effective MoE Architecture: Wan 2.2 is the first model to successfully integrate a Mixture-of-Experts (MoE) architecture into a video diffusion model. This design uses specialized expert models for different stages of the denoising process, which significantly increases the model's capacity without raising computational costs. The model has a total of 27B parameters, but only 14B are active during any given step.

  • Cinematic-Level Aesthetics: The model was trained on a meticulously curated dataset with detailed labels for cinematic properties like lighting, composition, and color tone. This allows users to generate videos with precise and controllable artistic styles, achieving a professional, cinematic look.

  • Complex Motion Generation: By training on a vastly expanded dataset (+65.6% more images and +83.2% more videos compared to Wan 2.1), Wan 2.2 demonstrates a superior ability to generate complex and realistic motion. It shows enhanced generalization across various motions, semantics, and aesthetics.

  • Efficient High-Definition Video: The suite includes a highly efficient 5B model (TI2V-5B) that utilizes an advanced VAE for high-compression video generation. It can produce 720p video at 24 fps and is capable of running on consumer-grade GPUs like the NVIDIA RTX 4090, making high-definition AI video generation more accessible.

Model Architecture & Technical Details

The architecture of Wan 2.2 is built upon the Diffusion Transformer (DiT) paradigm and incorporates several key technical advancements.

Core Architecture

The primary models in the Wan 2.2 suite, such as the T2V-A14B, employ a Mixture-of-Experts (MoE) architecture. This framework consists of two main expert models:

  1. High-Noise Expert: Activated during the initial stages of the denoising process, this expert focuses on establishing the overall structure and layout of the video.
  2. Low-Noise Expert: Activated in the later stages, this expert is responsible for refining the details, textures, and fine-grained motion of the video.

The transition between these experts is dynamically determined by the signal-to-noise ratio (SNR) during generation. This MoE design allows the model to have a large parameter count (27B total) while keeping the number of active parameters (14B) and computational load comparable to smaller models.

Key Parameters & Variants

Wan 2.2 is offered in several variants, each tailored for different tasks and computational resources.

Model VariantTotal ParametersKey FeatureSupported Tasks
T2V-A14B~27B (14B active)MoE for Text-to-VideoText-to-Video
I2V-A14B~27B (14B active)MoE for Image-to-VideoImage-to-Video
TI2V-5B5BHigh-Compression VAEText-to-Video, Image-to-Video
S2V-14B~27B (14B active)MoE for Speech-to-VideoSpeech-to-Video
Animate-14B~27B (14B active)MoE for AnimationCharacter Animation & Replacement

Intended Use & Applications

Wan 2.2 is designed for a wide range of creative and academic applications. Its various models support a comprehensive set of downstream tasks, making it a versatile tool for digital artists, filmmakers, researchers, and developers.

  • Cinematic Video Production: Generating high-fidelity video clips with specific artistic styles for short films, advertisements, or social media content.
  • Storyboarding and Pre-visualization: Quickly creating video mockups from text descriptions or still images to visualize scenes.
  • Character Animation: Animating static character images or replacing characters in existing videos with new ones while preserving motion and expression.
  • Audio-Driven Content: Producing videos that are synchronized with speech or other audio tracks, suitable for creating animated avatars or visualizing audio content.
  • Academic Research: Serving as a powerful, open-source foundation model for researchers exploring advancements in video generation, AI ethics, and multimodal AI.
  • Creative Content Generation: Enabling artists and creators to explore new forms of digital art and storytelling by combining text, images, and audio to produce unique video content.

300+ मॉडल से शुरू करें,

सभी मॉडल एक्सप्लोर करें