atlascloud/wan-2.2/image-to-video-lora

Open and Advanced Large-Scale Video Generative Models.

IMAGE-TO-VIDEONEW
Strona główna
Eksploruj
atlascloud/wan-2.2/image-to-video-lora
Wan-2.2 Image-to-video Lora
obraz-do-wideo

Open and Advanced Large-Scale Video Generative Models.

WEJŚCIE

Ładowanie konfiguracji parametrów...

WYJŚCIE

Bezczynny
Twoje wygenerowane wideo pojawi się tutaj
Skonfiguruj ustawienia i kliknij Uruchom, aby rozpocząć

Każde uruchomienie będzie kosztować 0.04. Za $10 możesz uruchomić ten model około 250 razy.

Co możesz zrobić dalej:

Parametry

Przykład kodu

import requests
import time

# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "atlascloud/wan-2.2/image-to-video-lora",
    "prompt": "A beautiful sunset over the ocean with gentle waves",
    "width": 512,
    "height": 512,
    "duration": 3,
    "fps": 24,
}

generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]

# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"

def check_status():
    while True:
        response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
        result = response.json()

        if result["data"]["status"] in ["completed", "succeeded"]:
            print("Generated video:", result["data"]["outputs"][0])
            return result["data"]["outputs"][0]
        elif result["data"]["status"] == "failed":
            raise Exception(result["data"]["error"] or "Generation failed")
        else:
            # Still processing, wait 2 seconds
            time.sleep(2)

video_url = check_status()

Instalacja

Zainstaluj wymagany pakiet dla swojego języka programowania.

bash
pip install requests

Uwierzytelnianie

Wszystkie żądania API wymagają uwierzytelnienia za pomocą klucza API. Klucz API możesz uzyskać z panelu Atlas Cloud.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Nagłówki HTTP

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
Chroń swój klucz API

Nigdy nie ujawniaj swojego klucza API w kodzie po stronie klienta ani w publicznych repozytoriach. Zamiast tego użyj zmiennych środowiskowych lub proxy backendowego.

Wyślij żądanie

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "prompt": "A beautiful landscape"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Wyślij żądanie

Wyślij asynchroniczne żądanie generowania. API zwróci identyfikator predykcji, którego możesz użyć do sprawdzania statusu i pobierania wyniku.

POST/api/v1/model/generateVideo

Treść żądania

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}

data = {
    "model": "atlascloud/wan-2.2/image-to-video-lora",
    "input": {
        "prompt": "A beautiful sunset over the ocean with gentle waves"
    }
}

response = requests.post(url, headers=headers, json=data)
result = response.json()

print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")

Odpowiedź

{
  "id": "pred_abc123",
  "status": "processing",
  "model": "model-name",
  "created_at": "2025-01-01T00:00:00Z"
}

Sprawdź status

Odpytuj endpoint predykcji, aby sprawdzić bieżący status żądania.

GET/api/v1/model/prediction/{prediction_id}

Przykład odpytywania

import requests
import time

prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

while True:
    response = requests.get(url, headers=headers)
    result = response.json()
    status = result["data"]["status"]
    print(f"Status: {status}")

    if status in ["completed", "succeeded"]:
        output_url = result["data"]["outputs"][0]
        print(f"Output URL: {output_url}")
        break
    elif status == "failed":
        print(f"Error: {result['data'].get('error', 'Unknown')}")
        break

    time.sleep(3)

Wartości statusu

processingŻądanie jest wciąż przetwarzane.
completedGenerowanie zakończone. Wyniki są dostępne.
succeededGenerowanie powiodło się. Wyniki są dostępne.
failedGenerowanie nie powiodło się. Sprawdź pole błędu.

Odpowiedź ukończona

{
  "data": {
    "id": "pred_abc123",
    "status": "completed",
    "outputs": [
      "https://storage.atlascloud.ai/outputs/result.mp4"
    ],
    "metrics": {
      "predict_time": 45.2
    },
    "created_at": "2025-01-01T00:00:00Z",
    "completed_at": "2025-01-01T00:00:10Z"
  }
}

Prześlij pliki

Prześlij pliki do magazynu Atlas Cloud i uzyskaj URL, którego możesz użyć w swoich żądaniach API. Użyj multipart/form-data do przesyłania.

POST/api/v1/model/uploadMedia

Przykład przesyłania

import requests

url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

with open("image.png", "rb") as f:
    files = {"file": ("image.png", f, "image/png")}
    response = requests.post(url, headers=headers, files=files)

result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")

Odpowiedź

{
  "data": {
    "download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
    "file_name": "image.png",
    "content_type": "image/png",
    "size": 1024000
  }
}

Schema wejściowy

Następujące parametry są akceptowane w treści żądania.

Łącznie: 0Wymagane: 0Opcjonalne: 0

Brak dostępnych parametrów.

Przykładowa treść żądania

json
{
  "model": "atlascloud/wan-2.2/image-to-video-lora"
}

Schema wyjściowy

API zwraca odpowiedź predykcji z URL-ami wygenerowanych wyników.

idstringrequired
Unique identifier for the prediction.
statusstringrequired
Current status of the prediction.
processingcompletedsucceededfailed
modelstringrequired
The model used for generation.
outputsarray[string]
Array of output URLs. Available when status is "completed".
errorstring
Error message if status is "failed".
metricsobject
Performance metrics.
predict_timenumber
Time taken for video generation in seconds.
created_atstringrequired
ISO 8601 timestamp when the prediction was created.
Format: date-time
completed_atstring
ISO 8601 timestamp when the prediction was completed.
Format: date-time

Przykładowa odpowiedź

json
{
  "id": "pred_abc123",
  "status": "completed",
  "model": "model-name",
  "outputs": [
    "https://storage.atlascloud.ai/outputs/result.mp4"
  ],
  "metrics": {
    "predict_time": 45.2
  },
  "created_at": "2025-01-01T00:00:00Z",
  "completed_at": "2025-01-01T00:00:10Z"
}

Atlas Cloud Skills

Atlas Cloud Skills integruje ponad 300 modeli AI bezpośrednio z Twoim asystentem kodowania AI. Jedno polecenie do instalacji, a następnie używaj języka naturalnego do generowania obrazów, filmów i rozmów z LLM.

Obsługiwani klienci

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ obsługiwani klienci

Instalacja

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

Skonfiguruj klucz API

Uzyskaj klucz API z panelu Atlas Cloud i ustaw go jako zmienną środowiskową.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Możliwości

Po zainstalowaniu możesz używać języka naturalnego w swoim asystencie AI, aby uzyskać dostęp do wszystkich modeli Atlas Cloud.

Generowanie obrazówGeneruj obrazy za pomocą modeli takich jak Nano Banana 2, Z-Image i inne.
Tworzenie wideoTwórz filmy z tekstu lub obrazów za pomocą Kling, Vidu, Veo itp.
Chat LLMRozmawiaj z Qwen, DeepSeek i innymi dużymi modelami językowymi.
Przesyłanie mediówPrześlij lokalne pliki do edycji obrazów i przepływów pracy obraz-do-wideo.

Serwer MCP

Serwer MCP Atlas Cloud łączy Twoje IDE z ponad 300 modelami AI za pośrednictwem Model Context Protocol. Działa z każdym klientem kompatybilnym z MCP.

Obsługiwani klienci

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ obsługiwani klienci

Instalacja

bash
npx -y atlascloud-mcp

Konfiguracja

Dodaj następującą konfigurację do pliku ustawień MCP w swoim IDE.

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

Dostępne narzędzia

atlas_generate_imageGeneruj obrazy z promptów tekstowych.
atlas_generate_videoTwórz filmy z tekstu lub obrazów.
atlas_chatRozmawiaj z dużymi modelami językowymi.
atlas_list_modelsPrzeglądaj ponad 300 dostępnych modeli AI.
atlas_quick_generateTworzenie treści w jednym kroku z automatycznym wyborem modelu.
atlas_upload_mediaPrześlij lokalne pliki do przepływów pracy API.

API Schema

Schema niedostępna

Zaloguj się, aby wyświetlić historię zapytań

Musisz być zalogowany, aby uzyskać dostęp do historii zapytań modelu.

Zaloguj się

Wan 2.2: Open and Advanced Large-Scale Video Generative Model by Alibaba Wanxiang

Model Card Overview

FieldDescription
Model NameWan 2.2 Image-to-Video LoRA
Developed byAlibaba Tongyi Wanxiang Lab
Model TypeImage-to-Video Generation with LoRA Support
Resolution480p, 720p (via VSR upscaling)
Frame Rate30 fps
Duration3–10 seconds
Related LinksGitHub: https://github.com/Wan-Video/Wan2.2, Hugging Face: https://huggingface.co/Wan-AI/Wan2.2-I2V-A14B, Paper (arXiv): https://arxiv.org/abs/2503.20314

Introduction

Wan 2.2 is a significant upgrade to the Wan series of foundational video models, designed to push the boundaries of generative AI in video creation. This image-to-video LoRA variant takes a reference image as the first frame and generates a high-quality video, with full support for custom LoRA weights to fine-tune the generation style, motion characteristics, or subject identity.

The model generates videos at 480p natively and supports 720p output via Video Super Resolution (VSR) upscaling, delivering smooth 30 fps playback at both resolutions.

Key Features & Innovations

  • Effective MoE Architecture: Wan 2.2 integrates a Mixture-of-Experts (MoE) architecture into the video diffusion model. Specialized expert models handle different stages of the denoising process, increasing model capacity without raising computational costs. The model has 27B total parameters with only 14B active during any given step.

  • Cinematic-Level Aesthetics: Trained on a meticulously curated dataset with detailed labels for cinematic properties like lighting, composition, and color tone. This allows generation of videos with precise and controllable artistic styles, achieving a professional, cinematic look.

  • Complex Motion Generation: Trained on a vastly expanded dataset (+65.6% more images and +83.2% more videos compared to Wan 2.1), Wan 2.2 demonstrates superior ability to generate complex and realistic motion with enhanced generalization across motions, semantics, and aesthetics.

  • Custom LoRA Support: This variant supports user-provided LoRA weights for fine-grained style and motion control. Three separate LoRA input channels are available:

    • high_noise_loras — Applied to the high-noise expert (transformer stage), influencing overall structure and layout.
    • low_noise_loras — Applied to the low-noise expert (transformer_2 stage), influencing fine details and textures.
    • loras — General-purpose LoRA input where the module is auto-inferred from the safetensors filename.
  • VSR-Enhanced Output: All output videos are delivered at 30 fps. When 720p resolution is selected, the model leverages Video Super Resolution to upscale from a 480p base generation, preserving fine details while achieving higher resolution output.

Model Architecture

The architecture is built upon the Diffusion Transformer (DiT) paradigm with a Mixture-of-Experts (MoE) framework:

  1. High-Noise Expert: Activated during initial denoising stages, establishing overall structure and layout.
  2. Low-Noise Expert: Activated in later stages, refining details, textures, and fine-grained motion.

The transition between experts is dynamically determined by the signal-to-noise ratio (SNR) during generation. Custom LoRA weights can be applied to each expert independently, enabling precise control over different aspects of the generation pipeline.

Intended Use & Applications

  • Stylized Video Production: Generating videos with custom visual styles by applying LoRA weights trained on specific aesthetic data.
  • Character & Subject Consistency: Using identity-preserving LoRAs to maintain consistent characters across multiple video generations.
  • Cinematic Video Production: Generating high-fidelity video clips from reference images for short films, advertisements, or social media content.
  • Creative Experimentation: Combining multiple LoRAs to explore novel visual effects and motion styles.
  • Academic Research: Serving as a powerful foundation model for researchers exploring LoRA-based fine-tuning techniques in video generation.

Zacznij Od 300+ Modeli,

Przeglądaj wszystkie modele