
Wan 2.6 Video-to-Video API by Alibaba
A speed-optimized video-to-video option that prioritizes lower latency while retaining strong visual fidelity. Ideal for iteration, batch generation, and prompt testing.
Eingabe
Ausgabe
InaktivJede Ausführung kostet $0.07. Für $10 können Sie ca. 142 Mal ausführen.
Sie können fortfahren mit:
Codebeispiel
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "alibaba/wan-2.6/video-to-video",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()Installieren
Installieren Sie das erforderliche Paket für Ihre Programmiersprache.
pip install requestsAuthentifizierung
Alle API-Anfragen erfordern eine Authentifizierung über einen API-Schlüssel. Sie können Ihren API-Schlüssel über das Atlas Cloud Dashboard erhalten.
export ATLASCLOUD_API_KEY="your-api-key-here"HTTP-Header
import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}Geben Sie Ihren API-Schlüssel niemals in clientseitigem Code oder öffentlichen Repositories preis. Verwenden Sie stattdessen Umgebungsvariablen oder einen Backend-Proxy.
Anfrage senden
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Anfrage senden
Senden Sie eine asynchrone Generierungsanfrage. Die API gibt eine Vorhersage-ID zurück, mit der Sie den Status prüfen und das Ergebnis abrufen können.
/api/v1/model/generateVideoAnfragekörper
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "alibaba/wan-2.6/video-to-video",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")Antwort
{
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}Status prüfen
Fragen Sie den Vorhersage-Endpunkt ab, um den aktuellen Status Ihrer Anfrage zu überprüfen.
/api/v1/model/prediction/{prediction_id}Abfrage-Beispiel
import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)Statuswerte
processingDie Anfrage wird noch verarbeitet.completedDie Generierung ist abgeschlossen. Ergebnisse sind verfügbar.succeededDie Generierung war erfolgreich. Ergebnisse sind verfügbar.failedDie Generierung ist fehlgeschlagen. Überprüfen Sie das Fehlerfeld.Abgeschlossene Antwort
{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Dateien hochladen
Laden Sie Dateien in den Atlas Cloud Speicher hoch und erhalten Sie eine URL, die Sie in Ihren API-Anfragen verwenden können. Verwenden Sie multipart/form-data zum Hochladen.
/api/v1/model/uploadMediaUpload-Beispiel
import requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")Antwort
{
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}Eingabe-Schema
Die folgenden Parameter werden im Anfragekörper akzeptiert.
Keine Parameter verfügbar.
Beispiel-Anfragekörper
{
"model": "alibaba/wan-2.6/video-to-video"
}Ausgabe-Schema
Die API gibt eine Vorhersage-Antwort mit den generierten Ausgabe-URLs zurück.
Beispielantwort
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills
Atlas Cloud Skills integriert über 300 KI-Modelle direkt in Ihren KI-Coding-Assistenten. Ein Befehl zur Installation, dann verwenden Sie natürliche Sprache, um Bilder, Videos zu generieren und mit LLMs zu chatten.
Unterstützte Clients
Installieren
npx skills add AtlasCloudAI/atlas-cloud-skillsAPI-Schlüssel einrichten
Erhalten Sie Ihren API-Schlüssel über das Atlas Cloud Dashboard und setzen Sie ihn als Umgebungsvariable.
export ATLASCLOUD_API_KEY="your-api-key-here"Funktionen
Nach der Installation können Sie natürliche Sprache in Ihrem KI-Assistenten verwenden, um auf alle Atlas Cloud Modelle zuzugreifen.
MCP-Server
Der Atlas Cloud MCP-Server verbindet Ihre IDE mit über 300 KI-Modellen über das Model Context Protocol. Funktioniert mit jedem MCP-kompatiblen Client.
Unterstützte Clients
Installieren
npx -y atlascloud-mcpKonfiguration
Fügen Sie die folgende Konfiguration zur MCP-Einstellungsdatei Ihrer IDE hinzu.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Verfügbare Werkzeuge
API-Schema
Schema nicht verfügbarAnmelden, um Anfrageverlauf anzuzeigen
Sie müssen angemeldet sein, um auf Ihren Modellanfrageverlauf zuzugreifen.
AnmeldenWan 2.6Professionelle Multi-Shot AI-Videoerstellung
Alibabas neuester Durchbruch in der KI-Videogenerierung. Erstellen Sie bis zu 15-sekündige 1080p-Videos mit Multi-Shot-Storytelling, referenzgesteuerter Charakterkonsistenz und nativer audiovisueller Synchronisation. Das erste Modell, das die Storyboard-Logik für filmische Narrative wirklich versteht.
Revolutionäre Durchbrüche
Was Wan 2.6 zum Game-Changer in der KI-Videogenerierung macht
Multi-Shot-Storytelling
Erstes Modell, das Storyboard-Logik versteht. Generiert automatisch sequenzielle Einstellungen mit kohärenten Übergängen und bewahrt dabei Charakteraussehen und Umgebungskonsistenz über Szenenwechsel hinweg—ermöglicht vollständige Handlungsbögen in einer einzigen 15-Sekunden-Generierung.
Referenz-zu-Video (R2V)
Laden Sie ein 2-30 Sekunden langes Referenzvideo hoch, um Charakteraussehen, Bewegungsmuster und Stimmcharakteristiken zu extrahieren und zu bewahren. Erstellen Sie konsistente Charakterdarstellungen über mehrere Videos hinweg mit beispielloser Genauigkeit.
Präzises Text-Rendering
Branchenführende Text-Rendering-Fähigkeiten für Produktverpackungen, Beschilderung und Markeninhalte. Generiert klaren, lesbaren Text innerhalb von Videoframes—unverzichtbar für Marketing- und kommerzielle Anwendungen.
Kernfähigkeiten
Erweiterte 15-Sekunden-Dauer
Generieren Sie bis zu 15 Sekunden pro Video mit vollständiger "Drei-Akt"-Struktur (Aufbau → Aktion → Auflösung)
Professionelle 1080p-Qualität
Native 1080p-Ausgabe bei 24fps mit filmischer Qualität und verbesserter visueller Stabilität
Native Audio-Synchronisation
Dialog passt zu Lippenbewegungen, Hintergrundmusik passt zum Tempo, Soundeffekte werden perfekt ausgelöst
Charakterkonsistenz
Behalten Sie Charakteraussehen, Kostüme und Identität über Einstellungen und mehrere Videos hinweg bei
Filmische Kamerakontrolle
Professionelle Kamerabewegungen einschließlich Schwenks, Zooms, Tracking-Shots und Dolly-Bewegungen
Flexible Seitenverhältnisse
16:9 (YouTube), 9:16 (Reels), 1:1 (Quadrat) - plattformoptimiert ohne Postproduktions-Cropping
Wan 2.6 vs Wan 2.5: Wesentliche Verbesserungen
Sehen Sie, was im neuesten Release neu ist
Drei Spezialisierte Generierungsmodi
Wählen Sie den richtigen Modus für Ihren kreativen Workflow
Text-zu-Video (T2V)
Am BeliebtestenGenerieren Sie vollständige Videos aus Text-Prompts mit verbesserter Multi-Shot-Segmentierung und verbessertem Prompt-Handling. Perfekt für Storytelling und kreative Erkundung.
- Automatische Shot-Segmentierung aus einem einzigen Prompt
- Multi-Charakter-Interaktionsverständnis
- Kamerabewegung und emotionale Hinweise
- Umgebungsdetail-Bewahrung
Bild-zu-Video (I2V)
VerbessertVerwandeln Sie Standbilder in Bewegungsvideos mit verbesserter Bewegungskohärenz. Ideal für Produktpräsentationen, Fotoanimation und visuelles Storytelling.
- Präzises Text-Rendering für Produkte
- Stilkonsistenz über Frames hinweg
- Natürliche Bewegung aus Standbildern
- Narrativ-gesteuerte visuelle Optimierung
Referenz-zu-Video (R2V)
NEULaden Sie ein Referenzvideo (2-30s) hoch, um Charakteraussehen, Bewegungsmuster und Stimme zu bewahren. Stärkste Konsistenzgarantie für charaktergetriebene Inhalte.
- Vollständige Charakteridentitäts-Bewahrung
- Stimmcharakteristik-Extraktion
- Bewegungsmuster-Replikation
- Multi-Charakter-Co-Acting-Szenen
Perfekt Für
Marketing & Werbung
Produktdemos mit Text-Rendering, Markenkampagnen mit Charakterkonsistenz und Werbevideos
Content-Erstellung
YouTube-Videos, Social-Media-Reels, Multi-Shot-Storytelling und Video-Editing-Workflows
E-Commerce
Produktpräsentationen mit präzisem Text, Tutorial-Videos und Kundenreferenz-Nachstellung
Bildung & Training
Lehrinhalte, Kursmaterialien und Multi-Szenen-Bildungsnarrative
Unterhaltung
Kurzfilme, charaktergetriebene Geschichten, filmische Sequenzen und kreative Experimente
Previsualisierung
Filmkonzeptentwicklung, Storyboard-Erstellung und Szenenplanung für Produktionen
Wan 2.6 T2V, I2V und R2V API-Integration
Vollständige API-Suite für Text-zu-Video-, Bild-zu-Video- und Referenz-zu-Video-Generierung
Text-zu-Video API (T2V API)
Unsere Wan 2.6 T2V API verwandelt Text-Prompts in Multi-Shot-Filmvideos mit automatischer Szenensegmentierung. Generieren Sie professionelle 1080p-Videos bis zu 15 Sekunden mit nativer Audio-Synchronisation.
Bild-zu-Video API (I2V API)
Unsere Wan 2.6 I2V API erweckt Standbilder mit präziser Bewegungskontrolle und Text-Rendering zum Leben. Perfekt für Produktvideos, Fotoanimation und Markeninhalts-Erstellung.
Referenz-zu-Video API (R2V API)
Unsere Wan 2.6 R2V API bewahrt Charakteridentität aus Referenzvideos. Laden Sie 2-30 Sekunden lange Clips hoch, um Aussehen, Stimme und Bewegungsmuster für konsistente Charaktergenerierung zu extrahieren.
Vollständige API-Suite
Alle drei Wan 2.6 API-Modi (T2V API, I2V API, R2V API) unterstützen RESTful-Architektur mit umfassender Dokumentation. Starten Sie mit SDKs für Python, Node.js und mehr. Jeder Endpoint umfasst native audiovisuelle Synchronisation und vollständige kommerzielle Nutzungsrechte.
Wie Sie mit Wan 2.6 Beginnen
Beginnen Sie in Minuten mit der Erstellung professioneller Videos über zwei einfache Wege
API-Integration
Für Entwickler, die Anwendungen erstellen
Registrieren & Anmelden
Erstellen Sie Ihr Atlas Cloud-Konto oder melden Sie sich an, um auf die Konsole zuzugreifen
Zahlungsmethode Hinzufügen
Verknüpfen Sie Ihre Kreditkarte im Abrechnungsbereich, um Ihr Konto aufzuladen
API-Schlüssel Generieren
Navigieren Sie zu Konsole → API-Schlüssel und erstellen Sie Ihren Authentifizierungsschlüssel
Mit dem Aufbau Beginnen
Verwenden Sie T2V-, I2V- oder R2V-API-Endpoints, um Wan 2.6 in Ihre Anwendung zu integrieren
Playground-Erfahrung
Für schnelle Tests und Experimente
Registrieren & Anmelden
Erstellen Sie Ihr Atlas Cloud-Konto oder melden Sie sich an, um auf die Plattform zuzugreifen
Zahlungsmethode Hinzufügen
Verknüpfen Sie Ihre Kreditkarte im Abrechnungsbereich, um zu starten
Playground Verwenden
Gehen Sie zum Wan 2.6 Playground, wählen Sie T2V/I2V/R2V-Modus und generieren Sie sofort Videos
Häufig Gestellte Fragen
Was macht die Multi-Shot-Fähigkeit von Wan 2.6 einzigartig?
Wan 2.6 ist das erste Modell, das Storyboard-Logik wirklich versteht. Im Gegensatz zu Wan 2.5, das chaotische "Morphing"-Effekte erzeugte, kann Wan 2.6 automatisch einen einzigen Prompt in mehrere distinkte Einstellungen mit kohärenten Übergängen segmentieren und dabei die Charakterkonsistenz über Szenenwechsel hinweg bewahren.
Wie funktioniert Referenz-zu-Video (R2V)?
Laden Sie ein 2-30 Sekunden langes Referenzvideo hoch, und Wan 2.6 extrahiert Charakteraussehen, Bewegungsmuster und Stimmcharakteristiken. Sie können dann neue Videos mit demselben Charakter mit konsistenter Identität generieren—ideal für die Erstellung charaktergetriebener Inhaltsserien.
Welche Videoformate und -dauern werden unterstützt?
Wan 2.6 generiert 1080p-Videos bei 24fps mit Dauern von 5 bis 15 Sekunden. Unterstützte Seitenverhältnisse umfassen 16:9 (YouTube), 9:16 (Instagram Reels/TikTok) und 1:1 (quadratisches Format), optimiert für jede Plattform ohne Postproduktions-Cropping.
Kann Wan 2.6 Text in Videos rendern?
Ja! Wan 2.6 verfügt über branchenführendes Text-Rendering für Produktverpackungen, Beschilderung und Markeninhalte. Das Modell kann klaren, lesbaren Text innerhalb von Videoframes generieren—ein kritisches Feature, das Seedance und den meisten Wettbewerbern fehlt.
Was ist der Unterschied zwischen T2V-, I2V- und R2V-Modi?
T2V (Text-zu-Video) generiert aus Text-Prompts mit Multi-Shot-Fähigkeit. I2V (Bild-zu-Video) animiert Standbilder mit präzisem Text-Rendering. R2V (Referenz-zu-Video) verwendet Videoreferenzen, um Charakteridentität über Generierungen hinweg zu bewahren. Wählen Sie basierend auf Ihrem Eingabetyp und Konsistenzbedarf.
Habe ich kommerzielle Rechte an generierten Videos?
Ja! Jede Wan 2.6-Kreation kommt mit vollständigen kommerziellen Nutzungsrechten. Videos sind produktionsbereit für Marketingkampagnen, Kundenlieferungen, Markeninhalte und kommerzielle Anwendungen ohne zusätzliche Lizenzanforderungen.
Warum Wan 2.6 auf Atlas Cloud Verwenden?
Nutzen Sie Enterprise-Grade-Infrastruktur für Ihre professionellen Videogenerierungs-Workflows
Zweckgebaute Infrastruktur
Deployen Sie Wan 2.6s Multi-Shot-Generierung und R2V-Fähigkeiten auf speziell für anspruchsvolle KI-Video-Workloads optimierter Infrastruktur. Maximale Performance für 1080p 15-Sekunden-Generierung.
Einheitliche API für Alle Modelle
Greifen Sie auf Wan 2.6 (T2V, I2V, R2V) neben 300+ KI-Modellen (LLMs, Bild, Video, Audio) über eine einheitliche API zu. Einzelintegration für alle Ihre generativen KI-Bedürfnisse mit konsistenter Authentifizierung.
Wettbewerbsfähige Preise
Sparen Sie bis zu 70% im Vergleich zu AWS mit transparenter Pay-as-you-go-Preisgestaltung. Keine versteckten Gebühren, keine Verpflichtungen—skalieren Sie vom Prototyp zur Produktion, ohne die Bank zu sprengen.
SOC I & II Zertifizierte Sicherheit
Ihre Referenzvideos und generierte Inhalte geschützt mit SOC I & II-Zertifizierungen und HIPAA-Compliance. Enterprise-Grade-Sicherheit mit verschlüsselter Übertragung und Speicherung.
99,9% Uptime SLA
Enterprise-Grade-Zuverlässigkeit mit garantierter 99,9% Uptime. Ihre Wan 2.6 Multi-Shot-Videogenerierung ist immer verfügbar für Produktionskampagnen und kritische Content-Workflows.
Einfache Integration
Vollständige Integration in Minuten mit REST API und mehrsprachigen SDKs (Python, Node.js, Go). Wechseln Sie nahtlos zwischen T2V-, I2V- und R2V-Modi mit einheitlicher Endpoint-Struktur.
Technische Spezifikationen
Erleben Sie Professionelle Multi-Shot-Videogenerierung
Schließen Sie sich Content-Erstellern, Marketern und Filmemachern weltweit an, die mit Wan 2.6s bahnbrechenden Multi-Shot-Storytelling- und Charakterkonsistenz-Fähigkeiten die Videoproduktion revolutionieren.
Alibaba WAN 2.6 Video-to-Video Model
Alibaba WAN 2.6 is an advanced Video-to-Video model provided by Alibaba Cloud's DashScope platform. This model generates high-quality 480p/720p/1080p videos from text prompts.
What makes it stand out?
-
More affordable: Wan 2.6 is more streamlined and cost-effective - reducing creator expenses and offering more options.
-
One-pass A/V sync: Wan 2.6 creates a fully synchronized video (audio/voiceover + lip-sync) from a single, well-structured prompt - no separate recording or manual alignment required.
-
Multilingual friendly: Wan 2.6 reliably processes like Chinese prompts for A/V-synced videos.
-
Longer duration & more video size options: Wan 2.6 delivers up to 10 seconds and 6 aspect/size options, enabling more storytelling room and publishing flexibility.
-
Multi-shot storytelling: Generates cohesive multi-shot narratives, keeping key details consistent across shots and offering auto shot-split for simple prompts.
-
Video reference generation: Uses a reference video's appearance and voice to guide new videos; supports human or arbitrary subjects, single or dual performers.
-
15s long videos: Produces videos up to 15 seconds, expanding temporal capacity for richer storytelling.
Designed For
-
Marketing teams: Fast, polished demos/tutorials—low cost, consistent style.
-
Global enterprises: Multilingual, lip-synced videos with subtitles for efficient localization.
-
Storytellers & YouTubers: Immersive narratives while maintaining cadence and quality—driving growth.
-
Corporate training teams: HD videos over docs—clearer key points, better communication.
Pricing
The table below lists prices for easy comparsion.
| Output Resolution | Duration (5s) | Duration (10s) |
|---|---|---|
| 480p | $0.2 | $0.4 |
| 720p | $0.4 | $0.8 |
| 1080p | $0.6 | $1.2 |
Billing Rules
-
Minimum charge: 5 seconds
-
Per-second rate = (price per 5 seconds) ÷ 5
-
Billed duration = video length in seconds (rounded up), with a 5-second minimum
-
Total cost = billed duration × per-second rate (by output resolution)
How to Use
-
Write your prompt.
-
Upload an audio file (optional) for voice/music.
-
Choose the video size (resolution/aspect).
-
Select the video duration (e.g., 5s / 10s).
-
Submit and wait for processing.
-
Preview and download the result.






