
Wan 2.6 Video-to-Video API by Alibaba
A speed-optimized video-to-video option that prioritizes lower latency while retaining strong visual fidelity. Ideal for iteration, batch generation, and prompt testing.
Entrée
Sortie
InactifVotre requête coûtera $0.07 par exécution. Avec $10, vous pouvez exécuter ce modèle environ 142 fois.
Vous pouvez continuer avec :
Exemple de code
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "alibaba/wan-2.6/video-to-video",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()Installer
Installez le package requis pour votre langage.
pip install requestsAuthentification
Toutes les requêtes API nécessitent une authentification via une clé API. Vous pouvez obtenir votre clé API depuis le tableau de bord Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"En-têtes HTTP
import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}N'exposez jamais votre clé API dans du code côté client ou dans des dépôts publics. Utilisez plutôt des variables d'environnement ou un proxy backend.
Soumettre une requête
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Soumettre une requête
Soumettez une requête de génération asynchrone. L'API renvoie un identifiant de prédiction que vous pouvez utiliser pour vérifier le statut et récupérer le résultat.
/api/v1/model/generateVideoCorps de la requête
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "alibaba/wan-2.6/video-to-video",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")Réponse
{
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}Vérifier le statut
Interrogez le point de terminaison de prédiction pour vérifier le statut actuel de votre requête.
/api/v1/model/prediction/{prediction_id}Exemple d'interrogation
import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)Valeurs de statut
processingLa requête est encore en cours de traitement.completedLa génération est terminée. Les résultats sont disponibles.succeededLa génération a réussi. Les résultats sont disponibles.failedLa génération a échoué. Vérifiez le champ d'erreur.Réponse terminée
{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Télécharger des fichiers
Téléchargez des fichiers vers le stockage Atlas Cloud et obtenez une URL utilisable dans vos requêtes API. Utilisez multipart/form-data pour le téléchargement.
/api/v1/model/uploadMediaExemple de téléchargement
import requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")Réponse
{
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}Schema d'entrée
Les paramètres suivants sont acceptés dans le corps de la requête.
Aucun paramètre disponible.
Exemple de corps de requête
{
"model": "alibaba/wan-2.6/video-to-video"
}Schema de sortie
L'API renvoie une réponse de prédiction avec les URL des résultats générés.
Exemple de réponse
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills
Atlas Cloud Skills intègre plus de 300 modèles d'IA directement dans votre assistant de codage IA. Une seule commande pour installer, puis utilisez le langage naturel pour générer des images, des vidéos et discuter avec des LLM.
Clients pris en charge
Installer
npx skills add AtlasCloudAI/atlas-cloud-skillsConfigurer la clé API
Obtenez votre clé API depuis le tableau de bord Atlas Cloud et définissez-la comme variable d'environnement.
export ATLASCLOUD_API_KEY="your-api-key-here"Fonctionnalités
Une fois installé, vous pouvez utiliser le langage naturel dans votre assistant IA pour accéder à tous les modèles Atlas Cloud.
Serveur MCP
Le serveur MCP Atlas Cloud connecte votre IDE avec plus de 300 modèles d'IA via le Model Context Protocol. Compatible avec tout client compatible MCP.
Clients pris en charge
Installer
npx -y atlascloud-mcpConfiguration
Ajoutez la configuration suivante au fichier de paramètres MCP de votre IDE.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Outils disponibles
Schéma API
Schéma non disponibleVeuillez vous connecter pour voir l'historique des requêtes
Vous devez vous connecter pour accéder à l'historique de vos requêtes de modèle.
Se ConnecterWan 2.6Création Vidéo IA Multi-Plans Professionnelle
La dernière avancée d'Alibaba en génération vidéo par IA. Créez des vidéos 1080p jusqu'à 15 secondes avec narration multi-plans, cohérence des personnages guidée par référence et synchronisation audiovisuelle native. Le premier modèle à véritablement comprendre la logique du storyboard pour des récits cinématographiques.
Percées Révolutionnaires
Ce qui fait de Wan 2.6 le changeur de jeu dans la génération vidéo par IA
Narration Multi-Plans
Premier modèle à comprendre la logique du storyboard. Génère automatiquement des plans séquentiels avec des transitions cohérentes, maintenant l'apparence du personnage et la cohérence de l'environnement à travers les changements de scène—permettant des arcs narratifs complets en une seule génération de 15 secondes.
Référence vers Vidéo (R2V)
Téléchargez une vidéo de référence de 2-30 secondes pour extraire et préserver l'apparence du personnage, les motifs de mouvement et les caractéristiques vocales. Créez des performances de personnages cohérentes sur plusieurs vidéos avec une précision sans précédent.
Rendu de Texte Précis
Capacités de rendu de texte leaders de l'industrie pour l'emballage de produits, la signalisation et le contenu de marque. Génère un texte clair et lisible dans les images vidéo—essentiel pour les applications marketing et commerciales.
Capacités Principales
Durée Étendue de 15 Secondes
Générez jusqu'à 15 secondes par vidéo avec structure complète en "Trois Actes" (Exposition → Action → Résolution)
Qualité Professionnelle 1080p
Sortie native 1080p à 24fps avec qualité cinématographique et stabilité visuelle améliorée
Synchronisation Audio Native
Le dialogue correspond aux mouvements des lèvres, la musique de fond s'aligne sur le rythme, les effets sonores se déclenchent parfaitement
Cohérence des Personnages
Maintenez l'apparence, les costumes et l'identité des personnages à travers les plans et plusieurs vidéos
Contrôle Caméra Cinématographique
Mouvements de caméra professionnels incluant panoramiques, zooms, plans de suivi et mouvements de dolly
Formats d'Image Flexibles
16:9 (YouTube), 9:16 (Reels), 1:1 (Carré) - optimisé pour les plateformes sans recadrage en post-production
Wan 2.6 vs Wan 2.5 : Améliorations Majeures
Découvrez les nouveautés de la dernière version
Trois Modes de Génération Spécialisés
Choisissez le mode adapté à votre flux de travail créatif
Texte vers Vidéo (T2V)
Le Plus PopulaireGénérez des vidéos complètes à partir de prompts texte avec segmentation multi-plans améliorée et traitement de prompts perfectionné. Parfait pour la narration et l'exploration créative.
- Segmentation automatique des plans à partir d'un seul prompt
- Compréhension de l'interaction multi-personnages
- Mouvement de caméra et indices émotionnels
- Préservation des détails environnementaux
Image vers Vidéo (I2V)
AmélioréTransformez des images fixes en vidéos animées avec cohérence de mouvement améliorée. Idéal pour les vitrines de produits, l'animation de photos et la narration visuelle.
- Rendu de texte précis pour les produits
- Cohérence de style entre les images
- Mouvement naturel à partir d'images fixes
- Optimisation visuelle guidée par le récit
Référence vers Vidéo (R2V)
NOUVEAUTéléchargez une vidéo de référence (2-30s) pour préserver l'apparence du personnage, les motifs de mouvement et la voix. La garantie de cohérence la plus forte pour le contenu axé sur les personnages.
- Préservation complète de l'identité du personnage
- Extraction des caractéristiques vocales
- Réplication des motifs de mouvement
- Scènes de co-action multi-personnages
Parfait Pour
Marketing et Publicité
Démos de produits avec rendu de texte, campagnes de marque avec cohérence des personnages et vidéos promotionnelles
Création de Contenu
Vidéos YouTube, reels de réseaux sociaux, narration multi-plans et flux de travail de montage vidéo
E-commerce
Vitrines de produits avec texte précis, vidéos tutoriels et recréation de témoignages clients
Éducation et Formation
Contenu pédagogique, matériel de cours et récits éducatifs multi-scènes
Divertissement
Courts métrages, histoires axées sur les personnages, séquences cinématographiques et expériences créatives
Pré-visualisation
Développement de concepts cinématographiques, création de storyboards et planification de scènes pour les productions
Intégration API Wan 2.6 T2V, I2V et R2V
Suite API complète pour la génération Texte vers Vidéo, Image vers Vidéo et Référence vers Vidéo
API Texte vers Vidéo (T2V API)
Notre API Wan 2.6 T2V transforme les prompts texte en vidéos cinématographiques multi-plans avec segmentation automatique de scènes. Générez des vidéos professionnelles 1080p jusqu'à 15 secondes avec synchronisation audio native.
API Image vers Vidéo (I2V API)
Notre API Wan 2.6 I2V donne vie aux images fixes avec contrôle de mouvement précis et rendu de texte. Parfait pour les vidéos de produits, l'animation de photos et la création de contenu de marque.
API Référence vers Vidéo (R2V API)
Notre API Wan 2.6 R2V préserve l'identité du personnage à partir de vidéos de référence. Téléchargez des clips de 2-30 secondes pour extraire l'apparence, la voix et les motifs de mouvement pour une génération de personnages cohérente.
Suite API Complète
Les trois modes API Wan 2.6 (T2V API, I2V API, R2V API) supportent l'architecture RESTful avec documentation complète. Démarrez avec des SDK pour Python, Node.js et plus. Chaque endpoint inclut la synchronisation audiovisuelle native et les droits d'utilisation commerciale complets.
Comment Démarrer avec Wan 2.6
Commencez à créer des vidéos professionnelles en quelques minutes avec deux chemins simples
Intégration API
Pour les développeurs qui construisent des applications
Inscrivez-vous et Connectez-vous
Créez votre compte Atlas Cloud ou connectez-vous pour accéder à la console
Ajoutez un Moyen de Paiement
Liez votre carte de crédit dans la section Facturation pour approvisionner votre compte
Générez une Clé API
Accédez à Console → Clés API et créez votre clé d'authentification
Commencez à Construire
Utilisez les endpoints API T2V, I2V ou R2V pour intégrer Wan 2.6 dans votre application
Expérience Playground
Pour les tests rapides et l'expérimentation
Inscrivez-vous et Connectez-vous
Créez votre compte Atlas Cloud ou connectez-vous pour accéder à la plateforme
Ajoutez un Moyen de Paiement
Liez votre carte de crédit dans la section Facturation pour commencer
Utilisez le Playground
Allez dans le playground Wan 2.6, choisissez le mode T2V/I2V/R2V et générez des vidéos instantanément
Questions Fréquentes
Qu'est-ce qui rend la capacité multi-plans de Wan 2.6 unique ?
Wan 2.6 est le premier modèle à vraiment comprendre la logique du storyboard. Contrairement à Wan 2.5 qui créait des effets de "morphing" désordonnés, Wan 2.6 peut automatiquement segmenter un seul prompt en plusieurs plans distincts avec des transitions cohérentes, maintenant la cohérence des personnages à travers les changements de scène.
Comment fonctionne Référence vers Vidéo (R2V) ?
Téléchargez une vidéo de référence de 2-30 secondes, et Wan 2.6 extrait l'apparence du personnage, les motifs de mouvement et les caractéristiques vocales. Vous pouvez ensuite générer de nouvelles vidéos mettant en vedette le même personnage avec une identité cohérente—idéal pour créer des séries de contenu axées sur les personnages.
Quels formats et durées vidéo sont supportés ?
Wan 2.6 génère des vidéos 1080p à 24fps avec des durées de 5 à 15 secondes. Les formats d'image supportés incluent 16:9 (YouTube), 9:16 (Instagram Reels/TikTok) et 1:1 (format carré), optimisés pour chaque plateforme sans nécessiter de recadrage en post-production.
Wan 2.6 peut-il rendre du texte dans les vidéos ?
Oui ! Wan 2.6 dispose d'un rendu de texte leader de l'industrie pour l'emballage de produits, la signalisation et le contenu de marque. Le modèle peut générer du texte clair et lisible dans les images vidéo—une caractéristique critique que Seedance et la plupart des concurrents n'ont pas.
Quelle est la différence entre les modes T2V, I2V et R2V ?
T2V (Texte vers Vidéo) génère à partir de prompts texte avec capacité multi-plans. I2V (Image vers Vidéo) anime des images fixes avec rendu de texte précis. R2V (Référence vers Vidéo) utilise des références vidéo pour préserver l'identité du personnage entre les générations. Choisissez selon votre type d'entrée et vos besoins de cohérence.
Ai-je des droits commerciaux sur les vidéos générées ?
Oui ! Chaque création Wan 2.6 vient avec des droits d'utilisation commerciale complets. Les vidéos sont prêtes pour la production pour les campagnes marketing, les livrables clients, le contenu de marque et les applications commerciales sans exigences de licence supplémentaires.
Pourquoi Utiliser Wan 2.6 sur Atlas Cloud ?
Tirez parti d'une infrastructure de niveau entreprise pour vos flux de travail professionnels de génération vidéo
Infrastructure Conçue sur Mesure
Déployez la génération multi-plans et les capacités R2V de Wan 2.6 sur une infrastructure spécifiquement optimisée pour les charges de travail vidéo IA exigeantes. Performance maximale pour la génération 1080p de 15 secondes.
API Unifiée pour Tous les Modèles
Accédez à Wan 2.6 (T2V, I2V, R2V) aux côtés de plus de 300 modèles IA (LLM, image, vidéo, audio) via une API unifiée. Intégration unique pour tous vos besoins en IA générative avec authentification cohérente.
Prix Compétitifs
Économisez jusqu'à 70% par rapport à AWS avec des prix transparents à l'usage. Pas de frais cachés, pas d'engagements—évoluez du prototype à la production sans vous ruiner.
Sécurité Certifiée SOC I & II
Vos vidéos de référence et contenu généré protégés avec certifications SOC I & II et conformité HIPAA. Sécurité de niveau entreprise avec transmission et stockage chiffrés.
SLA de 99,9% de Disponibilité
Fiabilité de niveau entreprise avec garantie de 99,9% de disponibilité. Votre génération vidéo multi-plans Wan 2.6 est toujours disponible pour les campagnes de production et les flux de travail de contenu critiques.
Intégration Facile
Intégration complète en quelques minutes avec API REST et SDK multi-langages (Python, Node.js, Go). Basculez entre les modes T2V, I2V et R2V de manière transparente avec structure d'endpoint unifiée.
Spécifications Techniques
Expérimentez la Génération Vidéo Multi-Plans Professionnelle
Rejoignez les créateurs de contenu, marketeurs et cinéastes du monde entier qui révolutionnent la production vidéo avec les capacités révolutionnaires de narration multi-plans et de cohérence des personnages de Wan 2.6.
Alibaba WAN 2.6 Video-to-Video Model
Alibaba WAN 2.6 is an advanced Video-to-Video model provided by Alibaba Cloud's DashScope platform. This model generates high-quality 480p/720p/1080p videos from text prompts.
What makes it stand out?
-
More affordable: Wan 2.6 is more streamlined and cost-effective - reducing creator expenses and offering more options.
-
One-pass A/V sync: Wan 2.6 creates a fully synchronized video (audio/voiceover + lip-sync) from a single, well-structured prompt - no separate recording or manual alignment required.
-
Multilingual friendly: Wan 2.6 reliably processes like Chinese prompts for A/V-synced videos.
-
Longer duration & more video size options: Wan 2.6 delivers up to 10 seconds and 6 aspect/size options, enabling more storytelling room and publishing flexibility.
-
Multi-shot storytelling: Generates cohesive multi-shot narratives, keeping key details consistent across shots and offering auto shot-split for simple prompts.
-
Video reference generation: Uses a reference video's appearance and voice to guide new videos; supports human or arbitrary subjects, single or dual performers.
-
15s long videos: Produces videos up to 15 seconds, expanding temporal capacity for richer storytelling.
Designed For
-
Marketing teams: Fast, polished demos/tutorials—low cost, consistent style.
-
Global enterprises: Multilingual, lip-synced videos with subtitles for efficient localization.
-
Storytellers & YouTubers: Immersive narratives while maintaining cadence and quality—driving growth.
-
Corporate training teams: HD videos over docs—clearer key points, better communication.
Pricing
The table below lists prices for easy comparsion.
| Output Resolution | Duration (5s) | Duration (10s) |
|---|---|---|
| 480p | $0.2 | $0.4 |
| 720p | $0.4 | $0.8 |
| 1080p | $0.6 | $1.2 |
Billing Rules
-
Minimum charge: 5 seconds
-
Per-second rate = (price per 5 seconds) ÷ 5
-
Billed duration = video length in seconds (rounded up), with a 5-second minimum
-
Total cost = billed duration × per-second rate (by output resolution)
How to Use
-
Write your prompt.
-
Upload an audio file (optional) for voice/music.
-
Choose the video size (resolution/aspect).
-
Select the video duration (e.g., 5s / 10s).
-
Submit and wait for processing.
-
Preview and download the result.






