
Seedance v1.5 Pro Image-to-Video Spicy API by ByteDance
Seedance V1.5 Pro Spicy transforms images into high-quality cinematic video with smooth motion and expressive animations, optimized for creative content at scale.
Entrée
Sortie
InactifVotre requête coûtera $0.049 par exécution. Avec $10, vous pouvez exécuter ce modèle environ 204 fois.
Vous pouvez continuer avec :
Exemple de code
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/image-to-video-spicy",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()Installer
Installez le package requis pour votre langage.
pip install requestsAuthentification
Toutes les requêtes API nécessitent une authentification via une clé API. Vous pouvez obtenir votre clé API depuis le tableau de bord Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"En-têtes HTTP
import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}N'exposez jamais votre clé API dans du code côté client ou dans des dépôts publics. Utilisez plutôt des variables d'environnement ou un proxy backend.
Soumettre une requête
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Soumettre une requête
Soumettez une requête de génération asynchrone. L'API renvoie un identifiant de prédiction que vous pouvez utiliser pour vérifier le statut et récupérer le résultat.
/api/v1/model/generateVideoCorps de la requête
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/image-to-video-spicy",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")Réponse
{
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}Vérifier le statut
Interrogez le point de terminaison de prédiction pour vérifier le statut actuel de votre requête.
/api/v1/model/prediction/{prediction_id}Exemple d'interrogation
import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)Valeurs de statut
processingLa requête est encore en cours de traitement.completedLa génération est terminée. Les résultats sont disponibles.succeededLa génération a réussi. Les résultats sont disponibles.failedLa génération a échoué. Vérifiez le champ d'erreur.Réponse terminée
{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Télécharger des fichiers
Téléchargez des fichiers vers le stockage Atlas Cloud et obtenez une URL utilisable dans vos requêtes API. Utilisez multipart/form-data pour le téléchargement.
/api/v1/model/uploadMediaExemple de téléchargement
import requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")Réponse
{
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}Schema d'entrée
Les paramètres suivants sont acceptés dans le corps de la requête.
Aucun paramètre disponible.
Exemple de corps de requête
{
"model": "bytedance/seedance-v1.5-pro/image-to-video-spicy"
}Schema de sortie
L'API renvoie une réponse de prédiction avec les URL des résultats générés.
Exemple de réponse
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills
Atlas Cloud Skills intègre plus de 300 modèles d'IA directement dans votre assistant de codage IA. Une seule commande pour installer, puis utilisez le langage naturel pour générer des images, des vidéos et discuter avec des LLM.
Clients pris en charge
Installer
npx skills add AtlasCloudAI/atlas-cloud-skillsConfigurer la clé API
Obtenez votre clé API depuis le tableau de bord Atlas Cloud et définissez-la comme variable d'environnement.
export ATLASCLOUD_API_KEY="your-api-key-here"Fonctionnalités
Une fois installé, vous pouvez utiliser le langage naturel dans votre assistant IA pour accéder à tous les modèles Atlas Cloud.
Serveur MCP
Le serveur MCP Atlas Cloud connecte votre IDE avec plus de 300 modèles d'IA via le Model Context Protocol. Compatible avec tout client compatible MCP.
Clients pris en charge
Installer
npx -y atlascloud-mcpConfiguration
Ajoutez la configuration suivante au fichier de paramètres MCP de votre IDE.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Outils disponibles
Schéma API
Schéma non disponibleVeuillez vous connecter pour voir l'historique des requêtes
Vous devez vous connecter pour accéder à l'historique de vos requêtes de modèle.
Se ConnecterSeedance 1.5 ProSon et Image, Tout en Une Seule Prise
Le modèle d'IA révolutionnaire de ByteDance qui génère simultanément de l'audio et de la vidéo parfaitement synchronisés à partir d'un processus unifié unique. Découvrez la véritable génération audio-visuelle native avec une synchronisation labiale d'une précision milliseconde dans plus de 8 langues.
Innovation Révolutionnaire
Ce qui rend SeeDANCE 1.5 Pro fondamentalement différent
Architecture à Double Branche
Utilise un Transformateur de Diffusion à Double Branche (DB-DiT) de 4,5 milliards de paramètres qui génère l'audio et la vidéo simultanément—pas séquentiellement—garantissant une synchronisation parfaite dès le départ.
Synchronisation Labiale au Niveau des Phonèmes
Comprend les phonèmes individuels et les mappe correctement aux formes des lèvres dans différentes langues, atteignant une synchronisation audio-visuelle avec une précision milliseconde.
Auto-Complétion Narrative
Remplit intelligemment les lacunes narratives en fonction de l'intention du prompt, maintenant une narration cohérente à travers les émotions, expressions et actions des personnages.
Capacités Principales
Qualité Native 1080p
Sortie vidéo HD professionnelle avec qualité cinématographique à 24fps, prenant en charge des durées de 4 à 12 secondes
Support de +8 Langues
Anglais, mandarin, japonais, coréen, espagnol, portugais, indonésien, plus les dialectes chinois
Contrôle de Caméra Cinématographique
Mouvements de caméra complexes incluant les dolly zooms, plans de suivi et techniques cinématographiques professionnelles
Dialogue Multi-Locuteurs
Conversations naturelles avec plusieurs personnages, identités vocales distinctes et alternance réaliste des tours de parole
Mouvement Physiquement Précis
Dynamique réaliste des cheveux, comportements fluides et interactions matérielles pour des visuels réalistes
Cohérence des Personnages
Maintient les vêtements, visages et style à travers les scènes pour une continuité complète de l'histoire
Seedance 1.5 Pro vs Concurrence
Découvrez comment Seedance se démarque des autres modèles de génération vidéo
Parfait Pour
Production de Drames Courts
Créez des clips narratifs centrés sur l'émotion avec un dialogue réaliste des personnages et un éclairage cinématographique
Créatifs Publicitaires
Contenu publicitaire axé sur la performance avec jeu d'acteur naturel, synchronisation labiale parfaite et valeur de production professionnelle
Contenu Multilingue
Atteignez des audiences mondiales avec du contenu audio-visuel de qualité native dans plus de 8 langues
Vidéos Éducatives
Contenu instructif captivant avec narration claire et démonstrations visuelles synchronisées
Réseaux Sociaux
Contenu court prêt à devenir viral avec qualité audio-visuelle professionnelle pour un engagement maximum
Production Cinématographique
Pré-visualisation et développement de concepts avec performances réalistes des personnages et dialogues
Intégration API T2V et I2V de Seedance 1.5 Pro
Puissants endpoints d'API Text-to-Video (T2V) et Image-to-Video (I2V) pour une intégration transparente
API Text-to-Video (T2V API)
Notre API T2V de Seedance 1.5 Pro transforme les prompts textuels en vidéos cinématographiques complètes avec synchronisation audio-visuelle native. Générez des scènes, mouvements de caméra, actions des personnages et dialogues en un seul appel d'API Text-to-Video.
Parfait pour :
- Création automatisée de contenu vidéo à grande échelle
- Narration dynamique et vidéos narratives
- Automatisation des campagnes marketing
- Génération de contenu éducatif
API Image-to-Video (I2V API)
Notre API I2V de Seedance 1.5 Pro donne vie aux images fixes avec mouvement, mouvement de caméra et audio synchronisé. L'API Image-to-Video propose un contrôle avancé des images pour définir des points de départ et d'arrivée précis pour vos animations.
Parfait pour :
- Animation et amélioration de photos
- Cohérence des personnages dans les séquences vidéo
- Présentation de produits avec effets de mouvement
- Visualisation architecturale et visites virtuelles
Intégration Simple des API T2V et I2V
Les modes API T2V et I2V prennent tous deux en charge l'architecture RESTful avec une documentation complète. Démarrez en quelques minutes avec des SDKs pour Python, Node.js et plus encore. Tous les endpoints d'API de Seedance 1.5 Pro incluent la génération automatique d'audio avec synchronisation labiale au niveau des phonèmes pour une création vidéo transparente.
Comment Commencer
Commencez à générer des vidéos en quelques minutes avec deux chemins simples
Intégration API
Pour les développeurs qui construisent des applications
S'Inscrire et Se Connecter
Créez votre compte Atlas Cloud ou connectez-vous pour accéder à la console
Ajouter un Moyen de Paiement
Liez votre carte de crédit dans la section Facturation pour alimenter votre compte
Générer une Clé API
Naviguez vers Console → Clés API et créez votre clé d'authentification
Commencer à Construire
Utilisez la clé API pour faire des requêtes et intégrer SeeDANCE dans votre application
Expérience Playground
Pour les tests rapides et l'expérimentation
S'Inscrire et Se Connecter
Créez votre compte Atlas Cloud ou connectez-vous pour accéder à la plateforme
Ajouter un Moyen de Paiement
Liez votre carte de crédit dans la section Facturation pour commencer
Utiliser le Playground
Allez au playground du modèle, entrez votre prompt et générez des vidéos instantanément avec une interface intuitive
Questions Fréquemment Posées
Qu'est-ce qui rend unique la synchronisation audio-visuelle de Seedance 1.5 Pro ?
Contrairement à d'autres modèles qui génèrent d'abord la vidéo puis ajoutent l'audio, Seedance 1.5 Pro utilise une architecture à double branche pour générer les deux simultanément. Cela garantit une synchronisation parfaite dès le départ, avec une précision de synchronisation labiale au niveau des phonèmes dans toutes les langues prises en charge.
Comment se compare-t-il à Wan 2.5 ou Wan 2.6 ?
Bien que Wan 2.6 prenne en charge des durées plus longues (jusqu'à 15s) et le rendu de texte, Seedance 1.5 Pro excelle dans le contrôle de caméra cinématographique, le support multilingue/dialectal avec audio spatial et le mouvement physiquement précis. Choisissez selon vos besoins : Seedance pour la narration et le contenu multilingue, Wan pour les démos de produits avec texte.
Quels formats vidéo et résolutions sont pris en charge ?
Seedance 1.5 Pro génère des vidéos natives en 1080p à 24fps. Les formats pris en charge incluent 16:9, 9:16, 4:3, 3:4, 1:1 et 21:9. La durée varie de 4 à 12 secondes, avec Durée Intelligente permettant au modèle de sélectionner automatiquement la longueur optimale.
Quelles langues sont prises en charge pour la génération audio ?
Seedance 1.5 Pro prend en charge plus de 8 langues dont l'anglais, le mandarin chinois, le japonais, le coréen, l'espagnol, le portugais, l'indonésien et les dialectes chinois comme le cantonais et le sichuanais. Chaque langue présente une synchronisation labiale précise et une prononciation naturelle.
Puis-je contrôler des mouvements de caméra spécifiques ?
Oui ! Seedance comprend la grammaire technique du cinéma. Vous pouvez spécifier des techniques de caméra comme "Dolly Zoom sur le sujet" (effet Hitchcock), plans de suivi, gros plans ou plans larges. Le modèle interprète ces indications pour créer des résultats cinématographiques professionnels.
Quelle est la différence entre Text-to-Video et Image-to-Video ?
Text-to-Video génère des vidéos complètes à partir de prompts textuels. Image-to-Video utilise une "Première Image" pour verrouiller l'identité du personnage et l'éclairage, avec un contrôle optionnel de "Dernière Image" pour des transitions précises de début à fin. Les deux modes prennent en charge la génération audio complète.
Pourquoi Utiliser Seedance 1.5 Pro sur Atlas Cloud ?
Découvrez des performances, une fiabilité et un support inégalés pour vos besoins de génération vidéo par IA
Infrastructure Dédiée
Notre système est spécifiquement optimisé pour le déploiement de modèles d'IA. Exécutez Seedance 1.5 Pro avec des performances maximales sur une infrastructure adaptée aux charges de travail d'IA exigeantes et à la génération vidéo.
API Unifiée pour Tous les Modèles
Accédez à Seedance 1.5 Pro ainsi qu'à plus de 300 modèles d'IA (LLMs, image, vidéo, audio) via une API unifiée. Gérez tous vos besoins en IA depuis une plateforme unique avec une authentification cohérente.
Tarification Compétitive
Économisez jusqu'à 70% par rapport à AWS avec une tarification transparente au paiement à l'utilisation. Pas de frais cachés, pas d'engagement minimum—payez uniquement ce que vous utilisez avec des remises sur volume disponibles.
Sécurité Certifiée SOC I & II
Vos données et vidéos générées sont protégées avec les certifications SOC I & II et la conformité HIPAA. Sécurité de niveau entreprise avec transmission et stockage de données chiffrés.
SLA de Disponibilité à 99,9%
Fiabilité de niveau entreprise avec 99,9% de disponibilité garantie. Votre génération vidéo avec Seedance 1.5 Pro est toujours disponible pour les applications de production et les flux de travail critiques.
Intégration Facile
Intégration complète en quelques minutes via notre API REST simple et nos SDKs multi-langages (Python, Node.js, Go). Documentation complète et exemples de code pour démarrer rapidement.
Spécifications Techniques
Découvrez la Génération Audio-Visuelle Native
Rejoignez les cinéastes, annonceurs et créateurs du monde entier qui révolutionnent la création de contenu vidéo avec la technologie révolutionnaire de Seedance 1.5 Pro.
1. Introduction
seedance-v1.5-pro-image-to-video-spicy is an advanced image-to-video generation model developed by ByteDance and offered via third-party platforms such as AtlasCloud.ai and WaveSpeed.ai. It specializes in producing high-quality cinematic video clips from static images, integrating smooth and expressive motion alongside optional synchronized audio output. Positioned as a scalable, unlimited-generation tier, it targets creative storytelling and content production at volume.
This model leverages a dual-branch diffusion transformer architecture to generate temporally coherent video frames and audio waveforms simultaneously. Its capability for bold, vivid motion with stable tonal contrast and multi-aspect ratio support makes it a practical tool for content creators seeking dynamic video renditions of still images. The "Spicy" variant is a platform-specific optimization tier for throughput-focused applications rather than an official ByteDance release.
2. Key Features & Innovations
-
Dual-Branch Diffusion Transformer Architecture: Employs a 4.5 billion parameter model that simultaneously generates video frames and synchronized audio waveforms through a cross-modal joint module, ensuring millisecond-level audiovisual alignment.
-
Unlimited-Generation Scalability: Optimized for high-volume production, this tier supports continuous video clip generation without preset usage caps, enabling batch processing at resolutions up to 1080p with durations ranging from 4 to 12 seconds.
-
Expressive Motion Rendering: Produces cinematic-quality animations with physics-accurate motion, including complex camera movements and natural transitions, enhancing storytelling and visual impact.
-
Flexible Output Specifications: Supports multiple resolutions (480p, 720p, 1080p), a variety of aspect ratios (21:9, 16:9, 4:3, 1:1, 3:4, 9:16), and duration control between 4 to 12 seconds, allowing customization per platform or project requirements.
-
Optional Synchronized Audio Generation: Generates multi-language audio with spatial sound effects aligned precisely with video frames, improving the completeness and immersion of audiovisual content.
-
Platform-Specific Pricing Integration: Available through third-party API aggregators with competitive pricing tiers based on resolution, duration, and audio inclusion, offering cost-effective alternatives to official BytePlus API services.
3. Model Architecture & Technical Details
The core of seedance-v1.5-pro-image-to-video-spicy is a dual-branch diffusion transformer architecture with approximately 4.5 billion parameters. It consists of two interconnected generative pathways: one for video frame sequences and another for audio waveform synthesis. These branches are linked by a cross-modal joint module responsible for millisecond-precise audio-visual synchronization.
The model was trained on a large-scale, diverse dataset containing roughly 100 million minutes of paired audio-video clips, spanning various cinematographic styles and languages. Training incorporates progressive multi-resolution inputs to enhance detail and temporal coherence. Post-training employed advanced fine-tuning approaches to stabilize video quality and support optional audio generation without latency or lip-sync issues.
Supported output formats include varying aspect ratios from ultra-widescreen (21:9) to vertical video (9:16), suited for different display contexts. Moreover, the architecture allows optional fixed-camera settings to simulate locked tripod shots, enhancing usability for specific creative workflows.
4. Performance Highlights
Seedance-v1.5-pro-image-to-video-spicy demonstrates a competitive balance of quality and efficiency in the 2026 AI video generation landscape. While direct benchmark scores are limited due to proprietary evaluations, qualitative assessments place it among leading models for synchronized audiovisual output and scalable batch generation.
| Rank | Model | Developer | Pricing per Second (Approx.) | Release Date |
|---|---|---|---|---|
| 1 | Google Veo 3.1 | $0.75/s | Early 2026 | |
| 2 | Grok Imagine | Grok AI | $0.05/s | 2025 |
| 3 | Kling 3.0 | Kling Labs | 0.15/s | Mid 2025 |
| 4 | Seedance V1.5 Pro Spicy | ByteDance / 3rd Party | 0.104/s | Dec 2025 |
| 5 | Runway Gen-4 | Runway | Proprietary pricing | 2026 |
Its strength lies in generating smooth cinematic clips with expressive, physics-informed motion and integrated audio, outperforming several models constrained to sequential or video-only synthesis. However, text rendering quality and longer clip durations beyond 15 seconds remain challenging.
Evaluation is typically conducted using proprietary audiovisual coherence metrics and user feedback from commercial deployments in e-commerce and social media content creation.
5. Intended Use & Applications
-
E-commerce Product Videos: Enables retailers and brands to produce dynamic product demonstrations and promotional clips from static images, enhancing engagement and conversion.
-
Marketing and Social Media Content: Facilitates the creation of vibrant short-form videos ideal for platforms such as Instagram Reels, TikTok, and YouTube Shorts, supporting scalable campaign generation.
-
Cinematic Content and Filmmaking: Provides filmmakers and creatives with tools to animate concept art or storyboard images into lifelike scenes with complex motion and audio.
-
Education and Training: Generates compelling audiovisual materials for instructional and educational purposes, enriching learning experiences with dynamic visual aids.
-
Content Creator Workflows: Assists creators in rapidly iterating visual concepts and animations with fine control over motion, resolution, and audio synchronization, improving productivity.
Sources: Based on ByteDance Seedance documentation and third-party platform data from AtlasCloud.ai, technical literature, and market analysis as of early 2026.






