bytedance/seedance-v1.5-pro/image-to-video-fast

Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.

IMAGE-TO-VIDEOHOTNEW
Accueil
Explorer
Seedream and Seedance Model Families
Seedance1.5 Models
bytedance/seedance-v1.5-pro/image-to-video-fast
Seedance v1.5 Pro Image-to-Video Fast
image-vers-vidéo
PRO

Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.

Entrée

Chargement de la configuration des paramètres...

Sortie

Inactif
Les vidéos générées apparaîtront ici
Configurez vos paramètres et cliquez sur exécuter pour commencer

Votre requête coûtera $0.018 par exécution. Avec $10, vous pouvez exécuter ce modèle environ 555 fois.

Vous pouvez continuer avec :

Paramètres

Exemple de code

import requests
import time

# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "bytedance/seedance-v1.5-pro/image-to-video-fast",
    "prompt": "A beautiful sunset over the ocean with gentle waves",
    "width": 512,
    "height": 512,
    "duration": 3,
    "fps": 24,
}

generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]

# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"

def check_status():
    while True:
        response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
        result = response.json()

        if result["data"]["status"] in ["completed", "succeeded"]:
            print("Generated video:", result["data"]["outputs"][0])
            return result["data"]["outputs"][0]
        elif result["data"]["status"] == "failed":
            raise Exception(result["data"]["error"] or "Generation failed")
        else:
            # Still processing, wait 2 seconds
            time.sleep(2)

video_url = check_status()

Installer

Installez le package requis pour votre langage.

bash
pip install requests

Authentification

Toutes les requêtes API nécessitent une authentification via une clé API. Vous pouvez obtenir votre clé API depuis le tableau de bord Atlas Cloud.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

En-têtes HTTP

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
Protégez votre clé API

N'exposez jamais votre clé API dans du code côté client ou dans des dépôts publics. Utilisez plutôt des variables d'environnement ou un proxy backend.

Soumettre une requête

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "prompt": "A beautiful landscape"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Soumettre une requête

Soumettez une requête de génération asynchrone. L'API renvoie un identifiant de prédiction que vous pouvez utiliser pour vérifier le statut et récupérer le résultat.

POST/api/v1/model/generateVideo

Corps de la requête

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}

data = {
    "model": "bytedance/seedance-v1.5-pro/image-to-video-fast",
    "input": {
        "prompt": "A beautiful sunset over the ocean with gentle waves"
    }
}

response = requests.post(url, headers=headers, json=data)
result = response.json()

print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")

Réponse

{
  "id": "pred_abc123",
  "status": "processing",
  "model": "model-name",
  "created_at": "2025-01-01T00:00:00Z"
}

Vérifier le statut

Interrogez le point de terminaison de prédiction pour vérifier le statut actuel de votre requête.

GET/api/v1/model/prediction/{prediction_id}

Exemple d'interrogation

import requests
import time

prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

while True:
    response = requests.get(url, headers=headers)
    result = response.json()
    status = result["data"]["status"]
    print(f"Status: {status}")

    if status in ["completed", "succeeded"]:
        output_url = result["data"]["outputs"][0]
        print(f"Output URL: {output_url}")
        break
    elif status == "failed":
        print(f"Error: {result['data'].get('error', 'Unknown')}")
        break

    time.sleep(3)

Valeurs de statut

processingLa requête est encore en cours de traitement.
completedLa génération est terminée. Les résultats sont disponibles.
succeededLa génération a réussi. Les résultats sont disponibles.
failedLa génération a échoué. Vérifiez le champ d'erreur.

Réponse terminée

{
  "data": {
    "id": "pred_abc123",
    "status": "completed",
    "outputs": [
      "https://storage.atlascloud.ai/outputs/result.mp4"
    ],
    "metrics": {
      "predict_time": 45.2
    },
    "created_at": "2025-01-01T00:00:00Z",
    "completed_at": "2025-01-01T00:00:10Z"
  }
}

Télécharger des fichiers

Téléchargez des fichiers vers le stockage Atlas Cloud et obtenez une URL utilisable dans vos requêtes API. Utilisez multipart/form-data pour le téléchargement.

POST/api/v1/model/uploadMedia

Exemple de téléchargement

import requests

url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

with open("image.png", "rb") as f:
    files = {"file": ("image.png", f, "image/png")}
    response = requests.post(url, headers=headers, files=files)

result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")

Réponse

{
  "data": {
    "download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
    "file_name": "image.png",
    "content_type": "image/png",
    "size": 1024000
  }
}

Schema d'entrée

Les paramètres suivants sont acceptés dans le corps de la requête.

Total: 0Requis: 0Optionnel: 0

Aucun paramètre disponible.

Exemple de corps de requête

json
{
  "model": "bytedance/seedance-v1.5-pro/image-to-video-fast"
}

Schema de sortie

L'API renvoie une réponse de prédiction avec les URL des résultats générés.

idstringrequired
Unique identifier for the prediction.
statusstringrequired
Current status of the prediction.
processingcompletedsucceededfailed
modelstringrequired
The model used for generation.
outputsarray[string]
Array of output URLs. Available when status is "completed".
errorstring
Error message if status is "failed".
metricsobject
Performance metrics.
predict_timenumber
Time taken for video generation in seconds.
created_atstringrequired
ISO 8601 timestamp when the prediction was created.
Format: date-time
completed_atstring
ISO 8601 timestamp when the prediction was completed.
Format: date-time

Exemple de réponse

json
{
  "id": "pred_abc123",
  "status": "completed",
  "model": "model-name",
  "outputs": [
    "https://storage.atlascloud.ai/outputs/result.mp4"
  ],
  "metrics": {
    "predict_time": 45.2
  },
  "created_at": "2025-01-01T00:00:00Z",
  "completed_at": "2025-01-01T00:00:10Z"
}

Atlas Cloud Skills

Atlas Cloud Skills intègre plus de 300 modèles d'IA directement dans votre assistant de codage IA. Une seule commande pour installer, puis utilisez le langage naturel pour générer des images, des vidéos et discuter avec des LLM.

Clients pris en charge

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ clients pris en charge

Installer

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

Configurer la clé API

Obtenez votre clé API depuis le tableau de bord Atlas Cloud et définissez-la comme variable d'environnement.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Fonctionnalités

Une fois installé, vous pouvez utiliser le langage naturel dans votre assistant IA pour accéder à tous les modèles Atlas Cloud.

Génération d'imagesGénérez des images avec des modèles comme Nano Banana 2, Z-Image, et plus encore.
Création de vidéosCréez des vidéos à partir de texte ou d'images avec Kling, Vidu, Veo, etc.
Chat LLMDiscutez avec Qwen, DeepSeek et d'autres grands modèles de langage.
Téléchargement de médiasTéléchargez des fichiers locaux pour l'édition d'images et les workflows image-vers-vidéo.

Serveur MCP

Le serveur MCP Atlas Cloud connecte votre IDE avec plus de 300 modèles d'IA via le Model Context Protocol. Compatible avec tout client compatible MCP.

Clients pris en charge

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ clients pris en charge

Installer

bash
npx -y atlascloud-mcp

Configuration

Ajoutez la configuration suivante au fichier de paramètres MCP de votre IDE.

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

Outils disponibles

atlas_generate_imageGénérez des images à partir de prompts textuels.
atlas_generate_videoCréez des vidéos à partir de texte ou d'images.
atlas_chatDiscutez avec de grands modèles de langage.
atlas_list_modelsParcourez plus de 300 modèles d'IA disponibles.
atlas_quick_generateCréation de contenu en une étape avec sélection automatique du modèle.
atlas_upload_mediaTéléchargez des fichiers locaux pour les workflows API.

Schéma API

Schéma non disponible

Veuillez vous connecter pour voir l'historique des requêtes

Vous devez vous connecter pour accéder à l'historique de vos requêtes de modèle.

Se Connecter
GÉNÉRATION AUDIO-VISUELLE NATIVE

Seedance 1.5 ProSon et Image, Tout en Une Seule Prise

Le modèle d'IA révolutionnaire de ByteDance qui génère simultanément de l'audio et de la vidéo parfaitement synchronisés à partir d'un processus unifié unique. Découvrez la véritable génération audio-visuelle native avec une synchronisation labiale d'une précision milliseconde dans plus de 8 langues.

Innovation Révolutionnaire

Ce qui rend SeeDANCE 1.5 Pro fondamentalement différent

Architecture à Double Branche

Utilise un Transformateur de Diffusion à Double Branche (DB-DiT) de 4,5 milliards de paramètres qui génère l'audio et la vidéo simultanément—pas séquentiellement—garantissant une synchronisation parfaite dès le départ.

Synchronisation Labiale au Niveau des Phonèmes

Comprend les phonèmes individuels et les mappe correctement aux formes des lèvres dans différentes langues, atteignant une synchronisation audio-visuelle avec une précision milliseconde.

Auto-Complétion Narrative

Remplit intelligemment les lacunes narratives en fonction de l'intention du prompt, maintenant une narration cohérente à travers les émotions, expressions et actions des personnages.

Capacités Principales

Qualité Native 1080p

Sortie vidéo HD professionnelle avec qualité cinématographique à 24fps, prenant en charge des durées de 4 à 12 secondes

Support de +8 Langues

Anglais, mandarin, japonais, coréen, espagnol, portugais, indonésien, plus les dialectes chinois

Contrôle de Caméra Cinématographique

Mouvements de caméra complexes incluant les dolly zooms, plans de suivi et techniques cinématographiques professionnelles

Dialogue Multi-Locuteurs

Conversations naturelles avec plusieurs personnages, identités vocales distinctes et alternance réaliste des tours de parole

Mouvement Physiquement Précis

Dynamique réaliste des cheveux, comportements fluides et interactions matérielles pour des visuels réalistes

Cohérence des Personnages

Maintient les vêtements, visages et style à travers les scènes pour une continuité complète de l'histoire

Seedance 1.5 Pro vs Concurrence

Découvrez comment Seedance se démarque des autres modèles de génération vidéo

Synchronisation Audiovisuelle
Génération native simultanée
Post-traitement séquentiel
Support Multilingue
8+ langues avec dialectes
Support linguistique limité
Précision de la Synchronisation Labiale
Précision au niveau du phonème
Synchronisation basique
Durée
5-12 secondes optimisées
Wan 2.6: Jusqu'à 15s
Contrôle Caméra
Cinématographie professionnelle
Mouvement caméra standard

Parfait Pour

Production de Drames Courts

Créez des clips narratifs centrés sur l'émotion avec un dialogue réaliste des personnages et un éclairage cinématographique

Créatifs Publicitaires

Contenu publicitaire axé sur la performance avec jeu d'acteur naturel, synchronisation labiale parfaite et valeur de production professionnelle

Contenu Multilingue

Atteignez des audiences mondiales avec du contenu audio-visuel de qualité native dans plus de 8 langues

Vidéos Éducatives

Contenu instructif captivant avec narration claire et démonstrations visuelles synchronisées

Réseaux Sociaux

Contenu court prêt à devenir viral avec qualité audio-visuelle professionnelle pour un engagement maximum

Production Cinématographique

Pré-visualisation et développement de concepts avec performances réalistes des personnages et dialogues

Intégration API T2V et I2V de Seedance 1.5 Pro

Puissants endpoints d'API Text-to-Video (T2V) et Image-to-Video (I2V) pour une intégration transparente

API Text-to-Video (T2V API)

Notre API T2V de Seedance 1.5 Pro transforme les prompts textuels en vidéos cinématographiques complètes avec synchronisation audio-visuelle native. Générez des scènes, mouvements de caméra, actions des personnages et dialogues en un seul appel d'API Text-to-Video.

Génération en une étape avec audio synchronisé
Contrôle total sur la durée, le format et le style
Dialogue multilingue avec synchronisation labiale précise
Cinématographie professionnelle à partir de descriptions textuelles

Parfait pour :

  • Création automatisée de contenu vidéo à grande échelle
  • Narration dynamique et vidéos narratives
  • Automatisation des campagnes marketing
  • Génération de contenu éducatif

API Image-to-Video (I2V API)

Notre API I2V de Seedance 1.5 Pro donne vie aux images fixes avec mouvement, mouvement de caméra et audio synchronisé. L'API Image-to-Video propose un contrôle avancé des images pour définir des points de départ et d'arrivée précis pour vos animations.

Contrôle de la première image pour verrouiller l'identité du personnage
Contrôle de la dernière image pour les points de transition finaux
Préserve le style visuel et la composition
Apparence cohérente du personnage à travers les images

Parfait pour :

  • Animation et amélioration de photos
  • Cohérence des personnages dans les séquences vidéo
  • Présentation de produits avec effets de mouvement
  • Visualisation architecturale et visites virtuelles
💡

Intégration Simple des API T2V et I2V

Les modes API T2V et I2V prennent tous deux en charge l'architecture RESTful avec une documentation complète. Démarrez en quelques minutes avec des SDKs pour Python, Node.js et plus encore. Tous les endpoints d'API de Seedance 1.5 Pro incluent la génération automatique d'audio avec synchronisation labiale au niveau des phonèmes pour une création vidéo transparente.

Comment Commencer

Commencez à générer des vidéos en quelques minutes avec deux chemins simples

Intégration API

Pour les développeurs qui construisent des applications

1

S'Inscrire et Se Connecter

Créez votre compte Atlas Cloud ou connectez-vous pour accéder à la console

2

Ajouter un Moyen de Paiement

Liez votre carte de crédit dans la section Facturation pour alimenter votre compte

3

Générer une Clé API

Naviguez vers Console → Clés API et créez votre clé d'authentification

4

Commencer à Construire

Utilisez la clé API pour faire des requêtes et intégrer SeeDANCE dans votre application

Expérience Playground

Pour les tests rapides et l'expérimentation

1

S'Inscrire et Se Connecter

Créez votre compte Atlas Cloud ou connectez-vous pour accéder à la plateforme

2

Ajouter un Moyen de Paiement

Liez votre carte de crédit dans la section Facturation pour commencer

3

Utiliser le Playground

Allez au playground du modèle, entrez votre prompt et générez des vidéos instantanément avec une interface intuitive

💡
Astuce Rapide : Commencez avec le Playground pour tester les prompts et explorer les fonctionnalités, puis passez à l'intégration API lorsque vous êtes prêt à faire évoluer votre flux de travail de production.

Questions Fréquemment Posées

Qu'est-ce qui rend unique la synchronisation audio-visuelle de Seedance 1.5 Pro ?

Contrairement à d'autres modèles qui génèrent d'abord la vidéo puis ajoutent l'audio, Seedance 1.5 Pro utilise une architecture à double branche pour générer les deux simultanément. Cela garantit une synchronisation parfaite dès le départ, avec une précision de synchronisation labiale au niveau des phonèmes dans toutes les langues prises en charge.

Comment se compare-t-il à Wan 2.5 ou Wan 2.6 ?

Bien que Wan 2.6 prenne en charge des durées plus longues (jusqu'à 15s) et le rendu de texte, Seedance 1.5 Pro excelle dans le contrôle de caméra cinématographique, le support multilingue/dialectal avec audio spatial et le mouvement physiquement précis. Choisissez selon vos besoins : Seedance pour la narration et le contenu multilingue, Wan pour les démos de produits avec texte.

Quels formats vidéo et résolutions sont pris en charge ?

Seedance 1.5 Pro génère des vidéos natives en 1080p à 24fps. Les formats pris en charge incluent 16:9, 9:16, 4:3, 3:4, 1:1 et 21:9. La durée varie de 4 à 12 secondes, avec Durée Intelligente permettant au modèle de sélectionner automatiquement la longueur optimale.

Quelles langues sont prises en charge pour la génération audio ?

Seedance 1.5 Pro prend en charge plus de 8 langues dont l'anglais, le mandarin chinois, le japonais, le coréen, l'espagnol, le portugais, l'indonésien et les dialectes chinois comme le cantonais et le sichuanais. Chaque langue présente une synchronisation labiale précise et une prononciation naturelle.

Puis-je contrôler des mouvements de caméra spécifiques ?

Oui ! Seedance comprend la grammaire technique du cinéma. Vous pouvez spécifier des techniques de caméra comme "Dolly Zoom sur le sujet" (effet Hitchcock), plans de suivi, gros plans ou plans larges. Le modèle interprète ces indications pour créer des résultats cinématographiques professionnels.

Quelle est la différence entre Text-to-Video et Image-to-Video ?

Text-to-Video génère des vidéos complètes à partir de prompts textuels. Image-to-Video utilise une "Première Image" pour verrouiller l'identité du personnage et l'éclairage, avec un contrôle optionnel de "Dernière Image" pour des transitions précises de début à fin. Les deux modes prennent en charge la génération audio complète.

Pourquoi Utiliser Seedance 1.5 Pro sur Atlas Cloud ?

Découvrez des performances, une fiabilité et un support inégalés pour vos besoins de génération vidéo par IA

Infrastructure Dédiée

Notre système est spécifiquement optimisé pour le déploiement de modèles d'IA. Exécutez Seedance 1.5 Pro avec des performances maximales sur une infrastructure adaptée aux charges de travail d'IA exigeantes et à la génération vidéo.

API Unifiée pour Tous les Modèles

Accédez à Seedance 1.5 Pro ainsi qu'à plus de 300 modèles d'IA (LLMs, image, vidéo, audio) via une API unifiée. Gérez tous vos besoins en IA depuis une plateforme unique avec une authentification cohérente.

Tarification Compétitive

Économisez jusqu'à 70% par rapport à AWS avec une tarification transparente au paiement à l'utilisation. Pas de frais cachés, pas d'engagement minimum—payez uniquement ce que vous utilisez avec des remises sur volume disponibles.

Sécurité Certifiée SOC I & II

Vos données et vidéos générées sont protégées avec les certifications SOC I & II et la conformité HIPAA. Sécurité de niveau entreprise avec transmission et stockage de données chiffrés.

SLA de Disponibilité à 99,9%

Fiabilité de niveau entreprise avec 99,9% de disponibilité garantie. Votre génération vidéo avec Seedance 1.5 Pro est toujours disponible pour les applications de production et les flux de travail critiques.

Intégration Facile

Intégration complète en quelques minutes via notre API REST simple et nos SDKs multi-langages (Python, Node.js, Go). Documentation complète et exemples de code pour démarrer rapidement.

99.9%
Disponibilité
70%
Coût Inférieur vs AWS
300+
Modèles d'IA Génératifs
24/7
Support Pro

Spécifications Techniques

Architecture
Transformateur de Diffusion à Double Branche (MMDiT)
Parameters
4,5 Milliards
Resolution
1080p Natif (480p, 720p également pris en charge)
Frame Rate
24 FPS
Duration
4-12 secondes (Durée Intelligente disponible)
Aspect Ratios
16:9, 9:16, 4:3, 3:4, 1:1, 21:9
Languages
Plus de 8 incluant les dialectes
Input Modes
Text-to-Video, Image-to-Video

Découvrez la Génération Audio-Visuelle Native

Rejoignez les cinéastes, annonceurs et créateurs du monde entier qui révolutionnent la création de contenu vidéo avec la technologie révolutionnaire de Seedance 1.5 Pro.

Seedance 1.5 PRO: A Native Audio-Visual Joint Generation Foundation Model

Seedance 1.5 PRO is a foundational model engineered specifically for native joint audio-visual generation, developed by the ByteDance Seed team. It represents a significant leap forward in transforming video generation into a practical, utility-driven tool. By integrating a dual-branch Diffusion Transformer architecture, the model achieves exceptional audio-visual synchronization and superior generation quality, establishing it as a robust engine for professional-grade content creation.

Key Features

Seedance 1.5 PRO introduces several key technical advancements that set a new standard for audio-visual content generation.

  • Unified Multimodal Generation : Leverages a unified framework based on the MMDiT architecture to facilitate deep cross-modal interaction, ensuring precise temporal synchronization and semantic consistency between visual and auditory streams.
  • Precise Audio-Visual Sync : Achieves high-fidelity alignment of lip movements, intonation, and performance rhythm. It natively supports multiple languages and regional dialects, accurately capturing unique vocal prosody and emotional tonalities.
  • Cinematic Camera Control : Possesses autonomous camera scheduling capabilities, enabling the execution of complex movements such as continuous long takes and dolly zooms ("Hitchcock zoom"), significantly enhancing the dynamic tension of the video.
  • Enhanced Narrative Coherence : Through strengthened semantic understanding, the model significantly improves the overall narrative coordination of audio-visual segments, providing strong support for professional-grade content creation.
  • Efficient Inference Acceleration : An optimized multi-stage distillation framework, combined with quantization and parallelization, boosts the end-to-end inference speed by over 10x while preserving high performance.

Performance Highlights

The model's capabilities were rigorously evaluated against other state-of-the-art video generation models using the comprehensive SeedVideoBench 1.5 framework. Seedance 1.5 PRO demonstrates significant improvements across both video and audio dimensions.

In Text-to-Video (T2V) and Image-to-Video (I2V) tasks, it achieves a leading position in motion quality and instruction following (alignment). The model also shows strong competitiveness in visual aesthetics and motion dynamics. For audio generation, particularly in Chinese-language contexts, Seedance 1.5 PRO consistently outperforms competitors like Veo 3.1, delivering superior audio quality and audio-visual synchronization.

Use Cases

Seedance 1.5 PRO is well-suited for a wide range of professional applications, including:

  • Film and Short Drama Production: Creating high-quality, emotionally resonant scenes with precise character performances.
  • Advertising and Social Media: Generating engaging and dynamic video content for marketing campaigns.
  • Cultural and Artistic Expression: Faithfully rendering traditional performing arts, such as Chinese opera, by capturing distinctive cadences and stylized gestures.
  • Multi-Lingual Content: Producing content in various languages and dialects with accurate lip-sync and intonation.

Commencez avec Plus de 300 Modèles,

Explorer tous les modèles