Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.

Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.
Votre requête coûtera $0.018 par exécution. Avec $10, vous pouvez exécuter ce modèle environ 555 fois.
Vous pouvez continuer avec :
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/image-to-video-fast",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()Installez le package requis pour votre langage.
pip install requestsToutes les requêtes API nécessitent une authentification via une clé API. Vous pouvez obtenir votre clé API depuis le tableau de bord Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}N'exposez jamais votre clé API dans du code côté client ou dans des dépôts publics. Utilisez plutôt des variables d'environnement ou un proxy backend.
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Soumettez une requête de génération asynchrone. L'API renvoie un identifiant de prédiction que vous pouvez utiliser pour vérifier le statut et récupérer le résultat.
/api/v1/model/generateVideoimport requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/image-to-video-fast",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}"){
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}Interrogez le point de terminaison de prédiction pour vérifier le statut actuel de votre requête.
/api/v1/model/prediction/{prediction_id}import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)processingLa requête est encore en cours de traitement.completedLa génération est terminée. Les résultats sont disponibles.succeededLa génération a réussi. Les résultats sont disponibles.failedLa génération a échoué. Vérifiez le champ d'erreur.{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Téléchargez des fichiers vers le stockage Atlas Cloud et obtenez une URL utilisable dans vos requêtes API. Utilisez multipart/form-data pour le téléchargement.
/api/v1/model/uploadMediaimport requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}"){
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}Les paramètres suivants sont acceptés dans le corps de la requête.
Aucun paramètre disponible.
{
"model": "bytedance/seedance-v1.5-pro/image-to-video-fast"
}L'API renvoie une réponse de prédiction avec les URL des résultats générés.
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills intègre plus de 300 modèles d'IA directement dans votre assistant de codage IA. Une seule commande pour installer, puis utilisez le langage naturel pour générer des images, des vidéos et discuter avec des LLM.
npx skills add AtlasCloudAI/atlas-cloud-skillsObtenez votre clé API depuis le tableau de bord Atlas Cloud et définissez-la comme variable d'environnement.
export ATLASCLOUD_API_KEY="your-api-key-here"Une fois installé, vous pouvez utiliser le langage naturel dans votre assistant IA pour accéder à tous les modèles Atlas Cloud.
Le serveur MCP Atlas Cloud connecte votre IDE avec plus de 300 modèles d'IA via le Model Context Protocol. Compatible avec tout client compatible MCP.
npx -y atlascloud-mcpAjoutez la configuration suivante au fichier de paramètres MCP de votre IDE.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Schéma non disponibleVous devez vous connecter pour accéder à l'historique de vos requêtes de modèle.
Se ConnecterLe modèle d'IA révolutionnaire de ByteDance qui génère simultanément de l'audio et de la vidéo parfaitement synchronisés à partir d'un processus unifié unique. Découvrez la véritable génération audio-visuelle native avec une synchronisation labiale d'une précision milliseconde dans plus de 8 langues.
Ce qui rend SeeDANCE 1.5 Pro fondamentalement différent
Utilise un Transformateur de Diffusion à Double Branche (DB-DiT) de 4,5 milliards de paramètres qui génère l'audio et la vidéo simultanément—pas séquentiellement—garantissant une synchronisation parfaite dès le départ.
Comprend les phonèmes individuels et les mappe correctement aux formes des lèvres dans différentes langues, atteignant une synchronisation audio-visuelle avec une précision milliseconde.
Remplit intelligemment les lacunes narratives en fonction de l'intention du prompt, maintenant une narration cohérente à travers les émotions, expressions et actions des personnages.
Sortie vidéo HD professionnelle avec qualité cinématographique à 24fps, prenant en charge des durées de 4 à 12 secondes
Anglais, mandarin, japonais, coréen, espagnol, portugais, indonésien, plus les dialectes chinois
Mouvements de caméra complexes incluant les dolly zooms, plans de suivi et techniques cinématographiques professionnelles
Conversations naturelles avec plusieurs personnages, identités vocales distinctes et alternance réaliste des tours de parole
Dynamique réaliste des cheveux, comportements fluides et interactions matérielles pour des visuels réalistes
Maintient les vêtements, visages et style à travers les scènes pour une continuité complète de l'histoire
Découvrez comment Seedance se démarque des autres modèles de génération vidéo
Créez des clips narratifs centrés sur l'émotion avec un dialogue réaliste des personnages et un éclairage cinématographique
Contenu publicitaire axé sur la performance avec jeu d'acteur naturel, synchronisation labiale parfaite et valeur de production professionnelle
Atteignez des audiences mondiales avec du contenu audio-visuel de qualité native dans plus de 8 langues
Contenu instructif captivant avec narration claire et démonstrations visuelles synchronisées
Contenu court prêt à devenir viral avec qualité audio-visuelle professionnelle pour un engagement maximum
Pré-visualisation et développement de concepts avec performances réalistes des personnages et dialogues
Puissants endpoints d'API Text-to-Video (T2V) et Image-to-Video (I2V) pour une intégration transparente
Notre API T2V de Seedance 1.5 Pro transforme les prompts textuels en vidéos cinématographiques complètes avec synchronisation audio-visuelle native. Générez des scènes, mouvements de caméra, actions des personnages et dialogues en un seul appel d'API Text-to-Video.
Notre API I2V de Seedance 1.5 Pro donne vie aux images fixes avec mouvement, mouvement de caméra et audio synchronisé. L'API Image-to-Video propose un contrôle avancé des images pour définir des points de départ et d'arrivée précis pour vos animations.
Les modes API T2V et I2V prennent tous deux en charge l'architecture RESTful avec une documentation complète. Démarrez en quelques minutes avec des SDKs pour Python, Node.js et plus encore. Tous les endpoints d'API de Seedance 1.5 Pro incluent la génération automatique d'audio avec synchronisation labiale au niveau des phonèmes pour une création vidéo transparente.
Commencez à générer des vidéos en quelques minutes avec deux chemins simples
Pour les développeurs qui construisent des applications
Créez votre compte Atlas Cloud ou connectez-vous pour accéder à la console
Liez votre carte de crédit dans la section Facturation pour alimenter votre compte
Naviguez vers Console → Clés API et créez votre clé d'authentification
Utilisez la clé API pour faire des requêtes et intégrer SeeDANCE dans votre application
Pour les tests rapides et l'expérimentation
Créez votre compte Atlas Cloud ou connectez-vous pour accéder à la plateforme
Liez votre carte de crédit dans la section Facturation pour commencer
Allez au playground du modèle, entrez votre prompt et générez des vidéos instantanément avec une interface intuitive
Contrairement à d'autres modèles qui génèrent d'abord la vidéo puis ajoutent l'audio, Seedance 1.5 Pro utilise une architecture à double branche pour générer les deux simultanément. Cela garantit une synchronisation parfaite dès le départ, avec une précision de synchronisation labiale au niveau des phonèmes dans toutes les langues prises en charge.
Bien que Wan 2.6 prenne en charge des durées plus longues (jusqu'à 15s) et le rendu de texte, Seedance 1.5 Pro excelle dans le contrôle de caméra cinématographique, le support multilingue/dialectal avec audio spatial et le mouvement physiquement précis. Choisissez selon vos besoins : Seedance pour la narration et le contenu multilingue, Wan pour les démos de produits avec texte.
Seedance 1.5 Pro génère des vidéos natives en 1080p à 24fps. Les formats pris en charge incluent 16:9, 9:16, 4:3, 3:4, 1:1 et 21:9. La durée varie de 4 à 12 secondes, avec Durée Intelligente permettant au modèle de sélectionner automatiquement la longueur optimale.
Seedance 1.5 Pro prend en charge plus de 8 langues dont l'anglais, le mandarin chinois, le japonais, le coréen, l'espagnol, le portugais, l'indonésien et les dialectes chinois comme le cantonais et le sichuanais. Chaque langue présente une synchronisation labiale précise et une prononciation naturelle.
Oui ! Seedance comprend la grammaire technique du cinéma. Vous pouvez spécifier des techniques de caméra comme "Dolly Zoom sur le sujet" (effet Hitchcock), plans de suivi, gros plans ou plans larges. Le modèle interprète ces indications pour créer des résultats cinématographiques professionnels.
Text-to-Video génère des vidéos complètes à partir de prompts textuels. Image-to-Video utilise une "Première Image" pour verrouiller l'identité du personnage et l'éclairage, avec un contrôle optionnel de "Dernière Image" pour des transitions précises de début à fin. Les deux modes prennent en charge la génération audio complète.
Découvrez des performances, une fiabilité et un support inégalés pour vos besoins de génération vidéo par IA
Notre système est spécifiquement optimisé pour le déploiement de modèles d'IA. Exécutez Seedance 1.5 Pro avec des performances maximales sur une infrastructure adaptée aux charges de travail d'IA exigeantes et à la génération vidéo.
Accédez à Seedance 1.5 Pro ainsi qu'à plus de 300 modèles d'IA (LLMs, image, vidéo, audio) via une API unifiée. Gérez tous vos besoins en IA depuis une plateforme unique avec une authentification cohérente.
Économisez jusqu'à 70% par rapport à AWS avec une tarification transparente au paiement à l'utilisation. Pas de frais cachés, pas d'engagement minimum—payez uniquement ce que vous utilisez avec des remises sur volume disponibles.
Vos données et vidéos générées sont protégées avec les certifications SOC I & II et la conformité HIPAA. Sécurité de niveau entreprise avec transmission et stockage de données chiffrés.
Fiabilité de niveau entreprise avec 99,9% de disponibilité garantie. Votre génération vidéo avec Seedance 1.5 Pro est toujours disponible pour les applications de production et les flux de travail critiques.
Intégration complète en quelques minutes via notre API REST simple et nos SDKs multi-langages (Python, Node.js, Go). Documentation complète et exemples de code pour démarrer rapidement.
Rejoignez les cinéastes, annonceurs et créateurs du monde entier qui révolutionnent la création de contenu vidéo avec la technologie révolutionnaire de Seedance 1.5 Pro.
Seedance 1.5 PRO is a foundational model engineered specifically for native joint audio-visual generation, developed by the ByteDance Seed team. It represents a significant leap forward in transforming video generation into a practical, utility-driven tool. By integrating a dual-branch Diffusion Transformer architecture, the model achieves exceptional audio-visual synchronization and superior generation quality, establishing it as a robust engine for professional-grade content creation.
Seedance 1.5 PRO introduces several key technical advancements that set a new standard for audio-visual content generation.
The model's capabilities were rigorously evaluated against other state-of-the-art video generation models using the comprehensive SeedVideoBench 1.5 framework. Seedance 1.5 PRO demonstrates significant improvements across both video and audio dimensions.
In Text-to-Video (T2V) and Image-to-Video (I2V) tasks, it achieves a leading position in motion quality and instruction following (alignment). The model also shows strong competitiveness in visual aesthetics and motion dynamics. For audio generation, particularly in Chinese-language contexts, Seedance 1.5 PRO consistently outperforms competitors like Veo 3.1, delivering superior audio quality and audio-visual synchronization.
Seedance 1.5 PRO is well-suited for a wide range of professional applications, including: