
Wan 2.6 Video-to-Video API by Alibaba
A speed-optimized video-to-video option that prioritizes lower latency while retaining strong visual fidelity. Ideal for iteration, batch generation, and prompt testing.
Entrada
Salida
InactivoCada ejecución costará $0.07. Con $10 puedes ejecutar aproximadamente 142 veces.
Puedes continuar con:
Ejemplo de código
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "alibaba/wan-2.6/video-to-video",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()Instalar
Instala el paquete necesario para tu lenguaje de programación.
pip install requestsAutenticación
Todas las solicitudes de API requieren autenticación mediante una clave de API. Puedes obtener tu clave de API desde el panel de Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"Encabezados HTTP
import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}Nunca expongas tu clave de API en código del lado del cliente ni en repositorios públicos. Usa variables de entorno o un proxy de backend en su lugar.
Enviar una solicitud
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Enviar una solicitud
Envía una solicitud de generación asíncrona. La API devuelve un ID de predicción que puedes usar para verificar el estado y obtener el resultado.
/api/v1/model/generateVideoCuerpo de la solicitud
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "alibaba/wan-2.6/video-to-video",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")Respuesta
{
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}Verificar estado
Consulta el endpoint de predicción para verificar el estado actual de tu solicitud.
/api/v1/model/prediction/{prediction_id}Ejemplo de polling
import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)Valores de estado
processingLa solicitud aún se está procesando.completedLa generación está completa. Las salidas están disponibles.succeededLa generación fue exitosa. Las salidas están disponibles.failedLa generación falló. Verifica el campo de error.Respuesta completada
{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Subir archivos
Sube archivos al almacenamiento de Atlas Cloud y obtén una URL que puedes usar en tus solicitudes de API. Usa multipart/form-data para subir.
/api/v1/model/uploadMediaEjemplo de carga
import requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")Respuesta
{
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}Schema de entrada
Los siguientes parámetros se aceptan en el cuerpo de la solicitud.
No hay parámetros disponibles.
Ejemplo de cuerpo de solicitud
{
"model": "alibaba/wan-2.6/video-to-video"
}Schema de salida
La API devuelve una respuesta de predicción con las URL de salida generadas.
Ejemplo de respuesta
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills
Atlas Cloud Skills integra más de 300 modelos de IA directamente en tu asistente de codificación con IA. Un solo comando para instalar y luego usa lenguaje natural para generar imágenes, videos y chatear con LLM.
Clientes compatibles
Instalar
npx skills add AtlasCloudAI/atlas-cloud-skillsConfigurar clave de API
Obtén tu clave de API desde el panel de Atlas Cloud y configúrala como variable de entorno.
export ATLASCLOUD_API_KEY="your-api-key-here"Funcionalidades
Una vez instalado, puedes usar lenguaje natural en tu asistente de IA para acceder a todos los modelos de Atlas Cloud.
MCP Server
Atlas Cloud MCP Server conecta tu IDE con más de 300 modelos de IA a través del Model Context Protocol. Funciona con cualquier cliente compatible con MCP.
Clientes compatibles
Instalar
npx -y atlascloud-mcpConfiguración
Agrega la siguiente configuración al archivo de configuración de MCP de tu IDE.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Herramientas disponibles
API Schema
Schema no disponiblePor favor inicia sesión para ver el historial de solicitudes
Necesitas iniciar sesión para acceder al historial de solicitudes del modelo.
Iniciar SesiónWan 2.6Creación Profesional de Videos AI con Multi-Tomas
El último avance de Alibaba en generación de video con IA. Crea videos de hasta 15 segundos en 1080p con narración multi-toma, consistencia de personajes impulsada por referencias y sincronización audiovisual nativa. El primer modelo que verdaderamente comprende la lógica del storyboard para narrativas cinematográficas.
Avances Revolucionarios
Lo que hace de Wan 2.6 el cambio de juego en generación de video con IA
Narración Multi-Toma
Primer modelo que comprende la lógica del storyboard. Genera automáticamente tomas secuenciales con transiciones coherentes, manteniendo la apariencia del personaje y la consistencia del entorno a través de cambios de escena—permitiendo arcos narrativos completos en una sola generación de 15 segundos.
Referencia a Video (R2V)
Sube un video de referencia de 2-30 segundos para extraer y preservar la apariencia del personaje, patrones de movimiento y características de voz. Crea interpretaciones de personajes consistentes en múltiples videos con precisión sin precedentes.
Renderizado de Texto Preciso
Capacidades de renderizado de texto líderes en la industria para empaques de productos, señalización y contenido de marca. Genera texto claro y legible dentro de los cuadros de video—esencial para aplicaciones de marketing y comerciales.
Capacidades Principales
Duración Extendida de 15 Segundos
Genera hasta 15 segundos por video con estructura completa de "Tres Actos" (Planteamiento → Acción → Resolución)
Calidad Profesional 1080p
Salida nativa de 1080p a 24fps con calidad cinematográfica y estabilidad visual mejorada
Sincronización de Audio Nativa
El diálogo coincide con los movimientos de los labios, la música de fondo se alinea con el ritmo, los efectos de sonido se activan perfectamente
Consistencia de Personajes
Mantén la apariencia, vestuario e identidad de los personajes a través de tomas y múltiples videos
Control de Cámara Cinematográfico
Movimientos de cámara profesionales incluyendo panorámicas, zooms, tomas de seguimiento y movimientos de dolly
Relaciones de Aspecto Flexibles
16:9 (YouTube), 9:16 (Reels), 1:1 (Cuadrado) - optimizado para plataformas sin recorte en posproducción
Wan 2.6 vs Wan 2.5: Mejoras Principales
Mira las novedades en el último lanzamiento
Tres Modos de Generación Especializados
Elige el modo adecuado para tu flujo de trabajo creativo
Texto a Video (T2V)
Más PopularGenera videos completos desde prompts de texto con segmentación multi-toma mejorada y manejo de prompts perfeccionado. Perfecto para narración y exploración creativa.
- Segmentación automática de tomas desde un solo prompt
- Comprensión de interacción multi-personaje
- Movimiento de cámara y señales emocionales
- Preservación de detalles ambientales
Imagen a Video (I2V)
MejoradoTransforma imágenes estáticas en videos en movimiento con coherencia de movimiento mejorada. Ideal para exhibiciones de productos, animación de fotos y narración visual.
- Renderizado de texto preciso para productos
- Consistencia de estilo entre cuadros
- Movimiento natural desde imágenes estáticas
- Optimización visual impulsada por narrativa
Referencia a Video (R2V)
NUEVOSube un video de referencia (2-30s) para preservar la apariencia del personaje, patrones de movimiento y voz. La garantía de consistencia más fuerte para contenido impulsado por personajes.
- Preservación completa de identidad del personaje
- Extracción de características de voz
- Replicación de patrones de movimiento
- Escenas de co-actuación multi-personaje
Perfecto Para
Marketing y Publicidad
Demos de productos con renderizado de texto, campañas de marca con consistencia de personajes y videos promocionales
Creación de Contenido
Videos de YouTube, reels de redes sociales, narración multi-toma y flujos de trabajo de edición de video
Comercio Electrónico
Exhibiciones de productos con texto preciso, videos tutoriales y recreación de testimonios de clientes
Educación y Capacitación
Contenido instruccional, materiales de cursos y narrativas educativas multi-escena
Entretenimiento
Cortometrajes, historias impulsadas por personajes, secuencias cinematográficas y experimentos creativos
Pre-visualización
Desarrollo de conceptos cinematográficos, creación de storyboards y planificación de escenas para producciones
Integración API de Wan 2.6 T2V, I2V y R2V
Suite completa de API para generación de Texto a Video, Imagen a Video y Referencia a Video
API de Texto a Video (T2V API)
Nuestra API Wan 2.6 T2V transforma prompts de texto en videos cinematográficos multi-toma con segmentación automática de escenas. Genera videos profesionales de 1080p hasta 15 segundos con sincronización de audio nativa.
API de Imagen a Video (I2V API)
Nuestra API Wan 2.6 I2V da vida a imágenes estáticas con control de movimiento preciso y renderizado de texto. Perfecto para videos de productos, animación de fotos y creación de contenido de marca.
API de Referencia a Video (R2V API)
Nuestra API Wan 2.6 R2V preserva la identidad del personaje desde videos de referencia. Sube clips de 2-30 segundos para extraer apariencia, voz y patrones de movimiento para generación de personajes consistente.
Suite Completa de API
Los tres modos de API Wan 2.6 (T2V API, I2V API, R2V API) soportan arquitectura RESTful con documentación completa. Comienza con SDKs para Python, Node.js y más. Cada endpoint incluye sincronización audiovisual nativa y derechos completos de uso comercial.
Cómo Empezar con Wan 2.6
Comienza a crear videos profesionales en minutos con dos rutas simples
Integración API
Para desarrolladores que construyen aplicaciones
Regístrate e Inicia Sesión
Crea tu cuenta de Atlas Cloud o inicia sesión para acceder a la consola
Agrega Método de Pago
Vincula tu tarjeta de crédito en la sección de Facturación para fondear tu cuenta
Genera Clave API
Navega a Consola → Claves API y crea tu clave de autenticación
Comienza a Construir
Usa endpoints de API T2V, I2V o R2V para integrar Wan 2.6 en tu aplicación
Experiencia Playground
Para pruebas rápidas y experimentación
Regístrate e Inicia Sesión
Crea tu cuenta de Atlas Cloud o inicia sesión para acceder a la plataforma
Agrega Método de Pago
Vincula tu tarjeta de crédito en la sección de Facturación para comenzar
Usa el Playground
Ve al playground de Wan 2.6, elige modo T2V/I2V/R2V y genera videos instantáneamente
Preguntas Frecuentes
¿Qué hace única la capacidad multi-toma de Wan 2.6?
Wan 2.6 es el primer modelo que realmente comprende la lógica del storyboard. A diferencia de Wan 2.5 que creaba efectos de "morphing" desordenados, Wan 2.6 puede segmentar automáticamente un solo prompt en múltiples tomas distintas con transiciones coherentes, manteniendo la consistencia del personaje a través de cambios de escena.
¿Cómo funciona Referencia a Video (R2V)?
Sube un video de referencia de 2-30 segundos, y Wan 2.6 extrae la apariencia del personaje, patrones de movimiento y características de voz. Luego puedes generar nuevos videos presentando al mismo personaje con identidad consistente—ideal para crear series de contenido impulsadas por personajes.
¿Qué formatos y duraciones de video se soportan?
Wan 2.6 genera videos de 1080p a 24fps con duraciones de 5 a 15 segundos. Las relaciones de aspecto soportadas incluyen 16:9 (YouTube), 9:16 (Instagram Reels/TikTok) y 1:1 (formato cuadrado), optimizadas para cada plataforma sin requerir recorte en posproducción.
¿Puede Wan 2.6 renderizar texto en videos?
¡Sí! Wan 2.6 cuenta con renderizado de texto líder en la industria para empaques de productos, señalización y contenido de marca. El modelo puede generar texto claro y legible dentro de los cuadros de video—una característica crítica que Seedance y la mayoría de competidores carecen.
¿Cuál es la diferencia entre modos T2V, I2V y R2V?
T2V (Texto a Video) genera desde prompts de texto con capacidad multi-toma. I2V (Imagen a Video) anima imágenes estáticas con renderizado de texto preciso. R2V (Referencia a Video) usa referencias de video para preservar la identidad del personaje entre generaciones. Elige según tu tipo de entrada y necesidades de consistencia.
¿Tengo derechos comerciales sobre los videos generados?
¡Sí! Cada creación de Wan 2.6 viene con derechos completos de uso comercial. Los videos están listos para producción para campañas de marketing, entregables a clientes, contenido de marca y aplicaciones comerciales sin requisitos de licencia adicionales.
¿Por Qué Usar Wan 2.6 en Atlas Cloud?
Aprovecha infraestructura de grado empresarial para tus flujos de trabajo profesionales de generación de video
Infraestructura Construida con Propósito
Despliega la generación multi-toma y capacidades R2V de Wan 2.6 en infraestructura específicamente optimizada para cargas de trabajo exigentes de video AI. Máximo rendimiento para generación de 1080p de 15 segundos.
API Unificada para Todos los Modelos
Accede a Wan 2.6 (T2V, I2V, R2V) junto con más de 300 modelos AI (LLMs, imagen, video, audio) a través de una API unificada. Integración única para todas tus necesidades de IA generativa con autenticación consistente.
Precios Competitivos
Ahorra hasta 70% comparado con AWS con precios transparentes de pago por uso. Sin tarifas ocultas, sin compromisos—escala desde prototipo a producción sin quebrar el banco.
Seguridad Certificada SOC I & II
Tus videos de referencia y contenido generado protegidos con certificaciones SOC I & II y cumplimiento HIPAA. Seguridad de grado empresarial con transmisión y almacenamiento encriptados.
SLA de 99.9% de Tiempo de Actividad
Confiabilidad de grado empresarial con garantía de 99.9% de tiempo de actividad. Tu generación de video multi-toma Wan 2.6 está siempre disponible para campañas de producción y flujos de trabajo de contenido crítico.
Integración Fácil
Integración completa en minutos con API REST y SDKs multi-lenguaje (Python, Node.js, Go). Cambia entre modos T2V, I2V y R2V sin problemas con estructura de endpoint unificada.
Especificaciones Técnicas
Experimenta la Generación de Video Multi-Toma Profesional
Únete a creadores de contenido, marketers y cineastas en todo el mundo que están revolucionando la producción de video con las capacidades revolucionarias de narración multi-toma y consistencia de personajes de Wan 2.6.
Alibaba WAN 2.6 Video-to-Video Model
Alibaba WAN 2.6 is an advanced Video-to-Video model provided by Alibaba Cloud's DashScope platform. This model generates high-quality 480p/720p/1080p videos from text prompts.
What makes it stand out?
-
More affordable: Wan 2.6 is more streamlined and cost-effective - reducing creator expenses and offering more options.
-
One-pass A/V sync: Wan 2.6 creates a fully synchronized video (audio/voiceover + lip-sync) from a single, well-structured prompt - no separate recording or manual alignment required.
-
Multilingual friendly: Wan 2.6 reliably processes like Chinese prompts for A/V-synced videos.
-
Longer duration & more video size options: Wan 2.6 delivers up to 10 seconds and 6 aspect/size options, enabling more storytelling room and publishing flexibility.
-
Multi-shot storytelling: Generates cohesive multi-shot narratives, keeping key details consistent across shots and offering auto shot-split for simple prompts.
-
Video reference generation: Uses a reference video's appearance and voice to guide new videos; supports human or arbitrary subjects, single or dual performers.
-
15s long videos: Produces videos up to 15 seconds, expanding temporal capacity for richer storytelling.
Designed For
-
Marketing teams: Fast, polished demos/tutorials—low cost, consistent style.
-
Global enterprises: Multilingual, lip-synced videos with subtitles for efficient localization.
-
Storytellers & YouTubers: Immersive narratives while maintaining cadence and quality—driving growth.
-
Corporate training teams: HD videos over docs—clearer key points, better communication.
Pricing
The table below lists prices for easy comparsion.
| Output Resolution | Duration (5s) | Duration (10s) |
|---|---|---|
| 480p | $0.2 | $0.4 |
| 720p | $0.4 | $0.8 |
| 1080p | $0.6 | $1.2 |
Billing Rules
-
Minimum charge: 5 seconds
-
Per-second rate = (price per 5 seconds) ÷ 5
-
Billed duration = video length in seconds (rounded up), with a 5-second minimum
-
Total cost = billed duration × per-second rate (by output resolution)
How to Use
-
Write your prompt.
-
Upload an audio file (optional) for voice/music.
-
Choose the video size (resolution/aspect).
-
Select the video duration (e.g., 5s / 10s).
-
Submit and wait for processing.
-
Preview and download the result.






