
Seedance v1.5 Pro Text-to-Video API by ByteDance
Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.
Entrée
Sortie
InactifVotre requête coûtera $0.047 par exécution. Avec $10, vous pouvez exécuter ce modèle environ 212 fois.
Vous pouvez continuer avec :
Exemple de code
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/text-to-video",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()Installer
Installez le package requis pour votre langage.
pip install requestsAuthentification
Toutes les requêtes API nécessitent une authentification via une clé API. Vous pouvez obtenir votre clé API depuis le tableau de bord Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"En-têtes HTTP
import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}N'exposez jamais votre clé API dans du code côté client ou dans des dépôts publics. Utilisez plutôt des variables d'environnement ou un proxy backend.
Soumettre une requête
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Soumettre une requête
Soumettez une requête de génération asynchrone. L'API renvoie un identifiant de prédiction que vous pouvez utiliser pour vérifier le statut et récupérer le résultat.
/api/v1/model/generateVideoCorps de la requête
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/text-to-video",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")Réponse
{
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}Vérifier le statut
Interrogez le point de terminaison de prédiction pour vérifier le statut actuel de votre requête.
/api/v1/model/prediction/{prediction_id}Exemple d'interrogation
import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)Valeurs de statut
processingLa requête est encore en cours de traitement.completedLa génération est terminée. Les résultats sont disponibles.succeededLa génération a réussi. Les résultats sont disponibles.failedLa génération a échoué. Vérifiez le champ d'erreur.Réponse terminée
{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Télécharger des fichiers
Téléchargez des fichiers vers le stockage Atlas Cloud et obtenez une URL utilisable dans vos requêtes API. Utilisez multipart/form-data pour le téléchargement.
/api/v1/model/uploadMediaExemple de téléchargement
import requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")Réponse
{
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}Schema d'entrée
Les paramètres suivants sont acceptés dans le corps de la requête.
Aucun paramètre disponible.
Exemple de corps de requête
{
"model": "bytedance/seedance-v1.5-pro/text-to-video"
}Schema de sortie
L'API renvoie une réponse de prédiction avec les URL des résultats générés.
Exemple de réponse
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills
Atlas Cloud Skills intègre plus de 300 modèles d'IA directement dans votre assistant de codage IA. Une seule commande pour installer, puis utilisez le langage naturel pour générer des images, des vidéos et discuter avec des LLM.
Clients pris en charge
Installer
npx skills add AtlasCloudAI/atlas-cloud-skillsConfigurer la clé API
Obtenez votre clé API depuis le tableau de bord Atlas Cloud et définissez-la comme variable d'environnement.
export ATLASCLOUD_API_KEY="your-api-key-here"Fonctionnalités
Une fois installé, vous pouvez utiliser le langage naturel dans votre assistant IA pour accéder à tous les modèles Atlas Cloud.
Serveur MCP
Le serveur MCP Atlas Cloud connecte votre IDE avec plus de 300 modèles d'IA via le Model Context Protocol. Compatible avec tout client compatible MCP.
Clients pris en charge
Installer
npx -y atlascloud-mcpConfiguration
Ajoutez la configuration suivante au fichier de paramètres MCP de votre IDE.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Outils disponibles
Schéma API
Schéma non disponibleVeuillez vous connecter pour voir l'historique des requêtes
Vous devez vous connecter pour accéder à l'historique de vos requêtes de modèle.
Se ConnecterSeedance 1.5 ProSon et Image, Tout en Une Seule Prise
Le modèle d'IA révolutionnaire de ByteDance qui génère simultanément de l'audio et de la vidéo parfaitement synchronisés à partir d'un processus unifié unique. Découvrez la véritable génération audio-visuelle native avec une synchronisation labiale d'une précision milliseconde dans plus de 8 langues.
Innovation Révolutionnaire
Ce qui rend SeeDANCE 1.5 Pro fondamentalement différent
Architecture à Double Branche
Utilise un Transformateur de Diffusion à Double Branche (DB-DiT) de 4,5 milliards de paramètres qui génère l'audio et la vidéo simultanément—pas séquentiellement—garantissant une synchronisation parfaite dès le départ.
Synchronisation Labiale au Niveau des Phonèmes
Comprend les phonèmes individuels et les mappe correctement aux formes des lèvres dans différentes langues, atteignant une synchronisation audio-visuelle avec une précision milliseconde.
Auto-Complétion Narrative
Remplit intelligemment les lacunes narratives en fonction de l'intention du prompt, maintenant une narration cohérente à travers les émotions, expressions et actions des personnages.
Capacités Principales
Qualité Native 1080p
Sortie vidéo HD professionnelle avec qualité cinématographique à 24fps, prenant en charge des durées de 4 à 12 secondes
Support de +8 Langues
Anglais, mandarin, japonais, coréen, espagnol, portugais, indonésien, plus les dialectes chinois
Contrôle de Caméra Cinématographique
Mouvements de caméra complexes incluant les dolly zooms, plans de suivi et techniques cinématographiques professionnelles
Dialogue Multi-Locuteurs
Conversations naturelles avec plusieurs personnages, identités vocales distinctes et alternance réaliste des tours de parole
Mouvement Physiquement Précis
Dynamique réaliste des cheveux, comportements fluides et interactions matérielles pour des visuels réalistes
Cohérence des Personnages
Maintient les vêtements, visages et style à travers les scènes pour une continuité complète de l'histoire
Seedance 1.5 Pro vs Concurrence
Découvrez comment Seedance se démarque des autres modèles de génération vidéo
Parfait Pour
Production de Drames Courts
Créez des clips narratifs centrés sur l'émotion avec un dialogue réaliste des personnages et un éclairage cinématographique
Créatifs Publicitaires
Contenu publicitaire axé sur la performance avec jeu d'acteur naturel, synchronisation labiale parfaite et valeur de production professionnelle
Contenu Multilingue
Atteignez des audiences mondiales avec du contenu audio-visuel de qualité native dans plus de 8 langues
Vidéos Éducatives
Contenu instructif captivant avec narration claire et démonstrations visuelles synchronisées
Réseaux Sociaux
Contenu court prêt à devenir viral avec qualité audio-visuelle professionnelle pour un engagement maximum
Production Cinématographique
Pré-visualisation et développement de concepts avec performances réalistes des personnages et dialogues
Intégration API T2V et I2V de Seedance 1.5 Pro
Puissants endpoints d'API Text-to-Video (T2V) et Image-to-Video (I2V) pour une intégration transparente
API Text-to-Video (T2V API)
Notre API T2V de Seedance 1.5 Pro transforme les prompts textuels en vidéos cinématographiques complètes avec synchronisation audio-visuelle native. Générez des scènes, mouvements de caméra, actions des personnages et dialogues en un seul appel d'API Text-to-Video.
Parfait pour :
- Création automatisée de contenu vidéo à grande échelle
- Narration dynamique et vidéos narratives
- Automatisation des campagnes marketing
- Génération de contenu éducatif
API Image-to-Video (I2V API)
Notre API I2V de Seedance 1.5 Pro donne vie aux images fixes avec mouvement, mouvement de caméra et audio synchronisé. L'API Image-to-Video propose un contrôle avancé des images pour définir des points de départ et d'arrivée précis pour vos animations.
Parfait pour :
- Animation et amélioration de photos
- Cohérence des personnages dans les séquences vidéo
- Présentation de produits avec effets de mouvement
- Visualisation architecturale et visites virtuelles
Intégration Simple des API T2V et I2V
Les modes API T2V et I2V prennent tous deux en charge l'architecture RESTful avec une documentation complète. Démarrez en quelques minutes avec des SDKs pour Python, Node.js et plus encore. Tous les endpoints d'API de Seedance 1.5 Pro incluent la génération automatique d'audio avec synchronisation labiale au niveau des phonèmes pour une création vidéo transparente.
Comment Commencer
Commencez à générer des vidéos en quelques minutes avec deux chemins simples
Intégration API
Pour les développeurs qui construisent des applications
S'Inscrire et Se Connecter
Créez votre compte Atlas Cloud ou connectez-vous pour accéder à la console
Ajouter un Moyen de Paiement
Liez votre carte de crédit dans la section Facturation pour alimenter votre compte
Générer une Clé API
Naviguez vers Console → Clés API et créez votre clé d'authentification
Commencer à Construire
Utilisez la clé API pour faire des requêtes et intégrer SeeDANCE dans votre application
Expérience Playground
Pour les tests rapides et l'expérimentation
S'Inscrire et Se Connecter
Créez votre compte Atlas Cloud ou connectez-vous pour accéder à la plateforme
Ajouter un Moyen de Paiement
Liez votre carte de crédit dans la section Facturation pour commencer
Utiliser le Playground
Allez au playground du modèle, entrez votre prompt et générez des vidéos instantanément avec une interface intuitive
Questions Fréquemment Posées
Qu'est-ce qui rend unique la synchronisation audio-visuelle de Seedance 1.5 Pro ?
Contrairement à d'autres modèles qui génèrent d'abord la vidéo puis ajoutent l'audio, Seedance 1.5 Pro utilise une architecture à double branche pour générer les deux simultanément. Cela garantit une synchronisation parfaite dès le départ, avec une précision de synchronisation labiale au niveau des phonèmes dans toutes les langues prises en charge.
Comment se compare-t-il à Wan 2.5 ou Wan 2.6 ?
Bien que Wan 2.6 prenne en charge des durées plus longues (jusqu'à 15s) et le rendu de texte, Seedance 1.5 Pro excelle dans le contrôle de caméra cinématographique, le support multilingue/dialectal avec audio spatial et le mouvement physiquement précis. Choisissez selon vos besoins : Seedance pour la narration et le contenu multilingue, Wan pour les démos de produits avec texte.
Quels formats vidéo et résolutions sont pris en charge ?
Seedance 1.5 Pro génère des vidéos natives en 1080p à 24fps. Les formats pris en charge incluent 16:9, 9:16, 4:3, 3:4, 1:1 et 21:9. La durée varie de 4 à 12 secondes, avec Durée Intelligente permettant au modèle de sélectionner automatiquement la longueur optimale.
Quelles langues sont prises en charge pour la génération audio ?
Seedance 1.5 Pro prend en charge plus de 8 langues dont l'anglais, le mandarin chinois, le japonais, le coréen, l'espagnol, le portugais, l'indonésien et les dialectes chinois comme le cantonais et le sichuanais. Chaque langue présente une synchronisation labiale précise et une prononciation naturelle.
Puis-je contrôler des mouvements de caméra spécifiques ?
Oui ! Seedance comprend la grammaire technique du cinéma. Vous pouvez spécifier des techniques de caméra comme "Dolly Zoom sur le sujet" (effet Hitchcock), plans de suivi, gros plans ou plans larges. Le modèle interprète ces indications pour créer des résultats cinématographiques professionnels.
Quelle est la différence entre Text-to-Video et Image-to-Video ?
Text-to-Video génère des vidéos complètes à partir de prompts textuels. Image-to-Video utilise une "Première Image" pour verrouiller l'identité du personnage et l'éclairage, avec un contrôle optionnel de "Dernière Image" pour des transitions précises de début à fin. Les deux modes prennent en charge la génération audio complète.
Pourquoi Utiliser Seedance 1.5 Pro sur Atlas Cloud ?
Découvrez des performances, une fiabilité et un support inégalés pour vos besoins de génération vidéo par IA
Infrastructure Dédiée
Notre système est spécifiquement optimisé pour le déploiement de modèles d'IA. Exécutez Seedance 1.5 Pro avec des performances maximales sur une infrastructure adaptée aux charges de travail d'IA exigeantes et à la génération vidéo.
API Unifiée pour Tous les Modèles
Accédez à Seedance 1.5 Pro ainsi qu'à plus de 300 modèles d'IA (LLMs, image, vidéo, audio) via une API unifiée. Gérez tous vos besoins en IA depuis une plateforme unique avec une authentification cohérente.
Tarification Compétitive
Économisez jusqu'à 70% par rapport à AWS avec une tarification transparente au paiement à l'utilisation. Pas de frais cachés, pas d'engagement minimum—payez uniquement ce que vous utilisez avec des remises sur volume disponibles.
Sécurité Certifiée SOC I & II
Vos données et vidéos générées sont protégées avec les certifications SOC I & II et la conformité HIPAA. Sécurité de niveau entreprise avec transmission et stockage de données chiffrés.
SLA de Disponibilité à 99,9%
Fiabilité de niveau entreprise avec 99,9% de disponibilité garantie. Votre génération vidéo avec Seedance 1.5 Pro est toujours disponible pour les applications de production et les flux de travail critiques.
Intégration Facile
Intégration complète en quelques minutes via notre API REST simple et nos SDKs multi-langages (Python, Node.js, Go). Documentation complète et exemples de code pour démarrer rapidement.
Spécifications Techniques
Découvrez la Génération Audio-Visuelle Native
Rejoignez les cinéastes, annonceurs et créateurs du monde entier qui révolutionnent la création de contenu vidéo avec la technologie révolutionnaire de Seedance 1.5 Pro.
Seedance 1.5 PRO: A Native Audio-Visual Joint Generation Foundation Model
Seedance 1.5 PRO is a foundational model engineered specifically for native joint audio-visual generation, developed by the ByteDance Seed team. It represents a significant leap forward in transforming video generation into a practical, utility-driven tool. By integrating a dual-branch Diffusion Transformer architecture, the model achieves exceptional audio-visual synchronization and superior generation quality, establishing it as a robust engine for professional-grade content creation.
Key Features
Seedance 1.5 PRO introduces several key technical advancements that set a new standard for audio-visual content generation.
- Unified Multimodal Generation : Leverages a unified framework based on the MMDiT architecture to facilitate deep cross-modal interaction, ensuring precise temporal synchronization and semantic consistency between visual and auditory streams.
- Precise Audio-Visual Sync : Achieves high-fidelity alignment of lip movements, intonation, and performance rhythm. It natively supports multiple languages and regional dialects, accurately capturing unique vocal prosody and emotional tonalities.
- Cinematic Camera Control : Possesses autonomous camera scheduling capabilities, enabling the execution of complex movements such as continuous long takes and dolly zooms ("Hitchcock zoom"), significantly enhancing the dynamic tension of the video.
- Enhanced Narrative Coherence : Through strengthened semantic understanding, the model significantly improves the overall narrative coordination of audio-visual segments, providing strong support for professional-grade content creation.
- Efficient Inference Acceleration : An optimized multi-stage distillation framework, combined with quantization and parallelization, boosts the end-to-end inference speed by over 10x while preserving high performance.
Performance Highlights
The model's capabilities were rigorously evaluated against other state-of-the-art video generation models using the comprehensive SeedVideoBench 1.5 framework. Seedance 1.5 PRO demonstrates significant improvements across both video and audio dimensions.
In Text-to-Video (T2V) and Image-to-Video (I2V) tasks, it achieves a leading position in motion quality and instruction following (alignment). The model also shows strong competitiveness in visual aesthetics and motion dynamics. For audio generation, particularly in Chinese-language contexts, Seedance 1.5 PRO consistently outperforms competitors like Veo 3.1, delivering superior audio quality and audio-visual synchronization.
Use Cases
Seedance 1.5 PRO is well-suited for a wide range of professional applications, including:
- Film and Short Drama Production: Creating high-quality, emotionally resonant scenes with precise character performances.
- Advertising and Social Media: Generating engaging and dynamic video content for marketing campaigns.
- Cultural and Artistic Expression: Faithfully rendering traditional performing arts, such as Chinese opera, by capturing distinctive cadences and stylized gestures.
- Multi-Lingual Content: Producing content in various languages and dialects with accurate lip-sync and intonation.






