atlascloud/wan-2.2/image-to-video-lora

Open and Advanced Large-Scale Video Generative Models.

IMAGE-TO-VIDEONEW
ホーム
探索
atlascloud/wan-2.2/image-to-video-lora
Wan-2.2 Image-to-video Lora
画像から動画

Open and Advanced Large-Scale Video Generative Models.

入力

パラメータ設定を読み込み中...

出力

待機中
生成された動画がここに表示されます
設定を構成して「実行」をクリックして開始

各実行には0.04かかります。$10で約250回実行できます。

パラメータ

コード例

import requests
import time

# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "atlascloud/wan-2.2/image-to-video-lora",
    "prompt": "A beautiful sunset over the ocean with gentle waves",
    "width": 512,
    "height": 512,
    "duration": 3,
    "fps": 24,
}

generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]

# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"

def check_status():
    while True:
        response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
        result = response.json()

        if result["data"]["status"] in ["completed", "succeeded"]:
            print("Generated video:", result["data"]["outputs"][0])
            return result["data"]["outputs"][0]
        elif result["data"]["status"] == "failed":
            raise Exception(result["data"]["error"] or "Generation failed")
        else:
            # Still processing, wait 2 seconds
            time.sleep(2)

video_url = check_status()

インストール

お使いの言語に必要なパッケージをインストールしてください。

bash
pip install requests

認証

すべての API リクエストには API キーによる認証が必要です。API キーは Atlas Cloud ダッシュボードから取得できます。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP ヘッダー

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
API キーを安全に保管してください

API キーをクライアントサイドのコードや公開リポジトリに公開しないでください。代わりに環境変数またはバックエンドプロキシを使用してください。

リクエストを送信

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "prompt": "A beautiful landscape"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

リクエストを送信

非同期生成リクエストを送信します。API は予測 ID を返し、それを使用してステータスの確認や結果の取得ができます。

POST/api/v1/model/generateVideo

リクエストボディ

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}

data = {
    "model": "atlascloud/wan-2.2/image-to-video-lora",
    "input": {
        "prompt": "A beautiful sunset over the ocean with gentle waves"
    }
}

response = requests.post(url, headers=headers, json=data)
result = response.json()

print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")

レスポンス

{
  "id": "pred_abc123",
  "status": "processing",
  "model": "model-name",
  "created_at": "2025-01-01T00:00:00Z"
}

ステータスを確認

予測エンドポイントをポーリングして、リクエストの現在のステータスを確認します。

GET/api/v1/model/prediction/{prediction_id}

ポーリング例

import requests
import time

prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

while True:
    response = requests.get(url, headers=headers)
    result = response.json()
    status = result["data"]["status"]
    print(f"Status: {status}")

    if status in ["completed", "succeeded"]:
        output_url = result["data"]["outputs"][0]
        print(f"Output URL: {output_url}")
        break
    elif status == "failed":
        print(f"Error: {result['data'].get('error', 'Unknown')}")
        break

    time.sleep(3)

ステータス値

processingリクエストはまだ処理中です。
completed生成が完了しました。出力が利用可能です。
succeeded生成が成功しました。出力が利用可能です。
failed生成に失敗しました。エラーフィールドを確認してください。

完了レスポンス

{
  "data": {
    "id": "pred_abc123",
    "status": "completed",
    "outputs": [
      "https://storage.atlascloud.ai/outputs/result.mp4"
    ],
    "metrics": {
      "predict_time": 45.2
    },
    "created_at": "2025-01-01T00:00:00Z",
    "completed_at": "2025-01-01T00:00:10Z"
  }
}

ファイルをアップロード

Atlas Cloud ストレージにファイルをアップロードし、API リクエストで使用できる URL を取得します。multipart/form-data を使用してアップロードします。

POST/api/v1/model/uploadMedia

アップロード例

import requests

url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

with open("image.png", "rb") as f:
    files = {"file": ("image.png", f, "image/png")}
    response = requests.post(url, headers=headers, files=files)

result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")

レスポンス

{
  "data": {
    "download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
    "file_name": "image.png",
    "content_type": "image/png",
    "size": 1024000
  }
}

入力 Schema

以下のパラメータがリクエストボディで使用できます。

合計: 0必須: 0任意: 0

利用可能なパラメータはありません。

リクエストボディの例

json
{
  "model": "atlascloud/wan-2.2/image-to-video-lora"
}

出力 Schema

API は生成された出力 URL を含む予測レスポンスを返します。

idstringrequired
Unique identifier for the prediction.
statusstringrequired
Current status of the prediction.
processingcompletedsucceededfailed
modelstringrequired
The model used for generation.
outputsarray[string]
Array of output URLs. Available when status is "completed".
errorstring
Error message if status is "failed".
metricsobject
Performance metrics.
predict_timenumber
Time taken for video generation in seconds.
created_atstringrequired
ISO 8601 timestamp when the prediction was created.
Format: date-time
completed_atstring
ISO 8601 timestamp when the prediction was completed.
Format: date-time

レスポンス例

json
{
  "id": "pred_abc123",
  "status": "completed",
  "model": "model-name",
  "outputs": [
    "https://storage.atlascloud.ai/outputs/result.mp4"
  ],
  "metrics": {
    "predict_time": 45.2
  },
  "created_at": "2025-01-01T00:00:00Z",
  "completed_at": "2025-01-01T00:00:10Z"
}

Atlas Cloud Skills

Atlas Cloud Skills は 300 以上の AI モデルを AI コーディングアシスタントに直接統合します。ワンコマンドでインストールし、自然言語で画像・動画生成や LLM との対話が可能です。

対応クライアント

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ 対応クライアント

インストール

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

API キーの設定

Atlas Cloud ダッシュボードから API キーを取得し、環境変数として設定してください。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

機能

インストール後、AI アシスタントで自然言語を使用してすべての Atlas Cloud モデルにアクセスできます。

画像生成Nano Banana 2、Z-Image などのモデルで画像を生成します。
動画作成Kling、Vidu、Veo などでテキストや画像から動画を作成します。
LLM チャットQwen、DeepSeek などの大規模言語モデルと対話します。
メディアアップロード画像編集や画像から動画へのワークフロー用にローカルファイルをアップロードします。

MCP Server

Atlas Cloud MCP Server は Model Context Protocol を通じて IDE と 300 以上の AI モデルを接続します。MCP 対応のあらゆるクライアントで動作します。

対応クライアント

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ 対応クライアント

インストール

bash
npx -y atlascloud-mcp

設定

以下の設定を IDE の MCP 設定ファイルに追加してください。

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

利用可能なツール

atlas_generate_imageテキストプロンプトから画像を生成します。
atlas_generate_videoテキストや画像から動画を作成します。
atlas_chat大規模言語モデルと対話します。
atlas_list_models300 以上の利用可能な AI モデルを閲覧します。
atlas_quick_generateモデル自動選択によるワンステップコンテンツ作成。
atlas_upload_mediaAPI ワークフロー用にローカルファイルをアップロードします。

APIスキーマ

スキーマが利用できません

リクエスト履歴を表示するにはログインしてください

モデルのリクエスト履歴にアクセスするにはログインが必要です。

ログイン

Wan 2.2: Open and Advanced Large-Scale Video Generative Model by Alibaba Wanxiang

Model Card Overview

FieldDescription
Model NameWan 2.2 Image-to-Video LoRA
Developed byAlibaba Tongyi Wanxiang Lab
Model TypeImage-to-Video Generation with LoRA Support
Resolution480p, 720p (via VSR upscaling)
Frame Rate30 fps
Duration3–10 seconds
Related LinksGitHub: https://github.com/Wan-Video/Wan2.2, Hugging Face: https://huggingface.co/Wan-AI/Wan2.2-I2V-A14B, Paper (arXiv): https://arxiv.org/abs/2503.20314

Introduction

Wan 2.2 is a significant upgrade to the Wan series of foundational video models, designed to push the boundaries of generative AI in video creation. This image-to-video LoRA variant takes a reference image as the first frame and generates a high-quality video, with full support for custom LoRA weights to fine-tune the generation style, motion characteristics, or subject identity.

The model generates videos at 480p natively and supports 720p output via Video Super Resolution (VSR) upscaling, delivering smooth 30 fps playback at both resolutions.

Key Features & Innovations

  • Effective MoE Architecture: Wan 2.2 integrates a Mixture-of-Experts (MoE) architecture into the video diffusion model. Specialized expert models handle different stages of the denoising process, increasing model capacity without raising computational costs. The model has 27B total parameters with only 14B active during any given step.

  • Cinematic-Level Aesthetics: Trained on a meticulously curated dataset with detailed labels for cinematic properties like lighting, composition, and color tone. This allows generation of videos with precise and controllable artistic styles, achieving a professional, cinematic look.

  • Complex Motion Generation: Trained on a vastly expanded dataset (+65.6% more images and +83.2% more videos compared to Wan 2.1), Wan 2.2 demonstrates superior ability to generate complex and realistic motion with enhanced generalization across motions, semantics, and aesthetics.

  • Custom LoRA Support: This variant supports user-provided LoRA weights for fine-grained style and motion control. Three separate LoRA input channels are available:

    • high_noise_loras — Applied to the high-noise expert (transformer stage), influencing overall structure and layout.
    • low_noise_loras — Applied to the low-noise expert (transformer_2 stage), influencing fine details and textures.
    • loras — General-purpose LoRA input where the module is auto-inferred from the safetensors filename.
  • VSR-Enhanced Output: All output videos are delivered at 30 fps. When 720p resolution is selected, the model leverages Video Super Resolution to upscale from a 480p base generation, preserving fine details while achieving higher resolution output.

Model Architecture

The architecture is built upon the Diffusion Transformer (DiT) paradigm with a Mixture-of-Experts (MoE) framework:

  1. High-Noise Expert: Activated during initial denoising stages, establishing overall structure and layout.
  2. Low-Noise Expert: Activated in later stages, refining details, textures, and fine-grained motion.

The transition between experts is dynamically determined by the signal-to-noise ratio (SNR) during generation. Custom LoRA weights can be applied to each expert independently, enabling precise control over different aspects of the generation pipeline.

Intended Use & Applications

  • Stylized Video Production: Generating videos with custom visual styles by applying LoRA weights trained on specific aesthetic data.
  • Character & Subject Consistency: Using identity-preserving LoRAs to maintain consistent characters across multiple video generations.
  • Cinematic Video Production: Generating high-fidelity video clips from reference images for short films, advertisements, or social media content.
  • Creative Experimentation: Combining multiple LoRAs to explore novel visual effects and motion styles.
  • Academic Research: Serving as a powerful foundation model for researchers exploring LoRA-based fine-tuning techniques in video generation.

300以上のモデルから始める、

すべてのモデルを探索