
Seedance v1.5 Pro Image-to-Video API by ByteDance
Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.
Eingabe
Ausgabe
InaktivJede Ausführung kostet $0.047. Für $10 können Sie ca. 212 Mal ausführen.
Sie können fortfahren mit:
Codebeispiel
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/image-to-video",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()Installieren
Installieren Sie das erforderliche Paket für Ihre Programmiersprache.
pip install requestsAuthentifizierung
Alle API-Anfragen erfordern eine Authentifizierung über einen API-Schlüssel. Sie können Ihren API-Schlüssel über das Atlas Cloud Dashboard erhalten.
export ATLASCLOUD_API_KEY="your-api-key-here"HTTP-Header
import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}Geben Sie Ihren API-Schlüssel niemals in clientseitigem Code oder öffentlichen Repositories preis. Verwenden Sie stattdessen Umgebungsvariablen oder einen Backend-Proxy.
Anfrage senden
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Anfrage senden
Senden Sie eine asynchrone Generierungsanfrage. Die API gibt eine Vorhersage-ID zurück, mit der Sie den Status prüfen und das Ergebnis abrufen können.
/api/v1/model/generateVideoAnfragekörper
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/image-to-video",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")Antwort
{
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}Status prüfen
Fragen Sie den Vorhersage-Endpunkt ab, um den aktuellen Status Ihrer Anfrage zu überprüfen.
/api/v1/model/prediction/{prediction_id}Abfrage-Beispiel
import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)Statuswerte
processingDie Anfrage wird noch verarbeitet.completedDie Generierung ist abgeschlossen. Ergebnisse sind verfügbar.succeededDie Generierung war erfolgreich. Ergebnisse sind verfügbar.failedDie Generierung ist fehlgeschlagen. Überprüfen Sie das Fehlerfeld.Abgeschlossene Antwort
{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Dateien hochladen
Laden Sie Dateien in den Atlas Cloud Speicher hoch und erhalten Sie eine URL, die Sie in Ihren API-Anfragen verwenden können. Verwenden Sie multipart/form-data zum Hochladen.
/api/v1/model/uploadMediaUpload-Beispiel
import requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")Antwort
{
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}Eingabe-Schema
Die folgenden Parameter werden im Anfragekörper akzeptiert.
Keine Parameter verfügbar.
Beispiel-Anfragekörper
{
"model": "bytedance/seedance-v1.5-pro/image-to-video"
}Ausgabe-Schema
Die API gibt eine Vorhersage-Antwort mit den generierten Ausgabe-URLs zurück.
Beispielantwort
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills
Atlas Cloud Skills integriert über 300 KI-Modelle direkt in Ihren KI-Coding-Assistenten. Ein Befehl zur Installation, dann verwenden Sie natürliche Sprache, um Bilder, Videos zu generieren und mit LLMs zu chatten.
Unterstützte Clients
Installieren
npx skills add AtlasCloudAI/atlas-cloud-skillsAPI-Schlüssel einrichten
Erhalten Sie Ihren API-Schlüssel über das Atlas Cloud Dashboard und setzen Sie ihn als Umgebungsvariable.
export ATLASCLOUD_API_KEY="your-api-key-here"Funktionen
Nach der Installation können Sie natürliche Sprache in Ihrem KI-Assistenten verwenden, um auf alle Atlas Cloud Modelle zuzugreifen.
MCP-Server
Der Atlas Cloud MCP-Server verbindet Ihre IDE mit über 300 KI-Modellen über das Model Context Protocol. Funktioniert mit jedem MCP-kompatiblen Client.
Unterstützte Clients
Installieren
npx -y atlascloud-mcpKonfiguration
Fügen Sie die folgende Konfiguration zur MCP-Einstellungsdatei Ihrer IDE hinzu.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Verfügbare Werkzeuge
API-Schema
Schema nicht verfügbarAnmelden, um Anfrageverlauf anzuzeigen
Sie müssen angemeldet sein, um auf Ihren Modellanfrageverlauf zuzugreifen.
AnmeldenSeedance 1.5 ProTon und Bild, Alles in Einem Take
ByteDances revolutionäres KI-Modell, das perfekt synchronisierte Audio- und Videoinhalte gleichzeitig aus einem einzigen, einheitlichen Prozess generiert. Erleben Sie echte native audio-visuelle Generierung mit millisekundengenauer Lippensynchronisation in über 8 Sprachen.
Revolutionäre Innovation
Was SeeDANCE 1.5 Pro grundlegend anders macht
Dual-Branch-Architektur
Verwendet einen Dual-Branch-Diffusions-Transformer (DB-DiT) mit 4,5 Milliarden Parametern, der Audio und Video gleichzeitig—nicht nacheinander—generiert und so von Anfang an perfekte Synchronisation gewährleistet.
Phonem-Level-Lippensynchronisation
Versteht einzelne Phoneme und ordnet sie korrekt den Lippenformen in verschiedenen Sprachen zu, wodurch millisekundengenaue audio-visuelle Synchronisation erreicht wird.
Narrative Auto-Vervollständigung
Füllt intelligenterweise narrative Lücken basierend auf der Prompt-Absicht und bewahrt kohärentes Storytelling über Emotionen, Ausdrücke und Aktionen der Charaktere hinweg.
Kernfunktionen
Native 1080p-Qualität
Professionelle HD-Videoausgabe mit kinematografischer Qualität bei 24fps, unterstützt Dauern von 4-12 Sekunden
8+ Sprachen-Unterstützung
Englisch, Mandarin, Japanisch, Koreanisch, Spanisch, Portugiesisch, Indonesisch, plus chinesische Dialekte
Kinematografische Kamerasteuerung
Komplexe Kamerabewegungen einschließlich Dolly-Zooms, Tracking-Shots und professionelle Filmtechniken
Multi-Sprecher-Dialog
Natürliche Konversationen mit mehreren Charakteren, unterschiedliche Stimmidentitäten und realistisches Abwechseln
Physikalisch-akkurate Bewegung
Realistische Haardynamik, Flüssigkeitsverhalten und Materialinteraktionen für lebensechte Visuals
Charakter-Konsistenz
Erhält Kleidung, Gesichter und Stil über Szenen hinweg für vollständige Story-Kontinuität
Seedance 1.5 Pro vs Wettbewerb
Erfahren Sie, wie sich Seedance von anderen Videogenerierungsmodellen unterscheidet
Perfekt Für
Kurzfilm-Produktion
Erstellen Sie emotionsgeladene narrative Clips mit realistischem Charakterdialog und kinematografischer Beleuchtung
Werbekreative
Performance-fokussierte Werbeinhalte mit natürlichem Schauspiel, perfekter Lippensynchronisation und professionellem Produktionswert
Mehrsprachige Inhalte
Erreichen Sie globale Zielgruppen mit audio-visuellen Inhalten in nativer Qualität in über 8 Sprachen
Bildungsvideos
Ansprechende Lehrinhalte mit klarer Erzählung und synchronisierten visuellen Demonstrationen
Social Media
Virale Kurzformate mit professioneller audio-visueller Qualität für maximales Engagement
Filmproduktion
Vor-Visualisierung und Konzeptentwicklung mit realistischen Charakterdarstellungen und Dialogen
Seedance 1.5 Pro T2V- und I2V-API-Integration
Leistungsstarke Text-to-Video (T2V) API- und Image-to-Video (I2V) API-Endpunkte für nahtlose Integration
Text-to-Video API (T2V API)
Unsere Seedance 1.5 Pro T2V API verwandelt Text-Prompts in vollständige kinematografische Videos mit nativer audio-visueller Synchronisation. Generieren Sie Szenen, Kamerabewegungen, Charakteraktionen und Dialoge in einem einzigen Text-to-Video API-Aufruf.
Perfekt für:
- Automatisierte Videoinhaltserstellung im großen Maßstab
- Dynamisches Storytelling und narrative Videos
- Marketing-Kampagnen-Automatisierung
- Bildungsinhalte-Generierung
Image-to-Video API (I2V API)
Unsere Seedance 1.5 Pro I2V API erweckt Standbilder mit Bewegung, Kamerabewegung und synchronisiertem Audio zum Leben. Die Image-to-Video API bietet erweiterte Frame-Steuerung zur Definition präziser Start- und Endpunkte für Ihre Animationen.
Perfekt für:
- Fotoanimation und -verbesserung
- Charakterkonsistenz in Videosequenzen
- Produktpräsentation mit Bewegungseffekten
- Architekturvisualisierung und Rundgänge
Einfache T2V- und I2V-API-Integration
Sowohl T2V API- als auch I2V API-Modi unterstützen RESTful-Architektur mit umfassender Dokumentation. Starten Sie in Minuten mit SDKs für Python, Node.js und mehr. Alle Seedance 1.5 Pro API-Endpunkte beinhalten automatische Audiogenerierung mit Phonem-Level-Lippensynchronisation für nahtlose Videoerstellung.
Wie Sie Beginnen
Beginnen Sie in Minuten mit der Videogenerierung über zwei einfache Wege
API-Integration
Für Entwickler, die Anwendungen erstellen
Registrieren & Anmelden
Erstellen Sie Ihr Atlas Cloud-Konto oder melden Sie sich an, um auf die Konsole zuzugreifen
Zahlungsmethode Hinzufügen
Verknüpfen Sie Ihre Kreditkarte im Abrechnungsbereich, um Ihr Konto aufzuladen
API-Schlüssel Generieren
Navigieren Sie zu Konsole → API-Schlüssel und erstellen Sie Ihren Authentifizierungsschlüssel
Mit dem Aufbau Beginnen
Verwenden Sie den API-Schlüssel, um Anfragen zu stellen und SeeDANCE in Ihre Anwendung zu integrieren
Playground-Erfahrung
Für schnelle Tests und Experimente
Registrieren & Anmelden
Erstellen Sie Ihr Atlas Cloud-Konto oder melden Sie sich an, um auf die Plattform zuzugreifen
Zahlungsmethode Hinzufügen
Verknüpfen Sie Ihre Kreditkarte im Abrechnungsbereich, um zu beginnen
Playground Nutzen
Gehen Sie zum Modell-Playground, geben Sie Ihren Prompt ein und generieren Sie Videos sofort mit einer intuitiven Benutzeroberfläche
Häufig Gestellte Fragen
Was macht die audio-visuelle Synchronisation von Seedance 1.5 Pro einzigartig?
Anders als andere Modelle, die zuerst Video generieren und dann Audio hinzufügen, verwendet Seedance 1.5 Pro eine Dual-Branch-Architektur zur gleichzeitigen Generierung beider. Dies gewährleistet von Anfang an perfekte Synchronisation mit Phonem-Level-Lippensynchronisationsgenauigkeit in allen unterstützten Sprachen.
Wie schneidet es im Vergleich zu Wan 2.5 oder Wan 2.6 ab?
Während Wan 2.6 längere Dauern (bis zu 15s) und Text-Rendering unterstützt, zeichnet sich Seedance 1.5 Pro durch kinematografische Kamerasteuerung, Mehrsprachen-/Dialektunterstützung mit räumlichem Audio und physikalisch-akkurate Bewegung aus. Wählen Sie je nach Bedarf: Seedance für Storytelling und mehrsprachige Inhalte, Wan für Produktdemos mit Text.
Welche Videoformate und Auflösungen werden unterstützt?
Seedance 1.5 Pro generiert native 1080p-Videos bei 24fps. Unterstützte Seitenverhältnisse umfassen 16:9, 9:16, 4:3, 3:4, 1:1 und 21:9. Die Dauer reicht von 4-12 Sekunden, wobei Smart Duration es dem Modell ermöglicht, automatisch die optimale Länge zu wählen.
Welche Sprachen werden für die Audiogenerierung unterstützt?
Seedance 1.5 Pro unterstützt über 8 Sprachen einschließlich Englisch, Mandarin-Chinesisch, Japanisch, Koreanisch, Spanisch, Portugiesisch, Indonesisch und chinesische Dialekte wie Kantonesisch und Sichuanesisch. Jede Sprache bietet akkurate Lippensynchronisation und natürliche Aussprache.
Kann ich spezifische Kamerabewegungen steuern?
Ja! Seedance versteht technische Filmgrammatik. Sie können Kameratechniken wie "Dolly Zoom auf das Motiv" (Hitchcock-Effekt), Tracking-Shots, Nahaufnahmen oder Weitwinkelaufnahmen spezifizieren. Das Modell interpretiert diese, um professionelle kinematografische Ergebnisse zu erstellen.
Was ist der Unterschied zwischen Text-to-Video und Image-to-Video?
Text-to-Video generiert vollständige Videos aus Text-Prompts. Image-to-Video verwendet ein "Erstes Frame", um Charakteridentität und Beleuchtung zu sperren, mit optionaler "Letztes Frame"-Steuerung für präzise Anfangs- und Endpunkt-Übergänge. Beide Modi unterstützen vollständige Audiogenerierung.
Warum Seedance 1.5 Pro auf Atlas Cloud Nutzen?
Erleben Sie unübertroffene Leistung, Zuverlässigkeit und Unterstützung für Ihre KI-Videogenerierungsbedürfnisse
Zweckgebundene Infrastruktur
Unser System ist speziell für KI-Modell-Deployment optimiert. Führen Sie Seedance 1.5 Pro mit maximaler Leistung auf Infrastruktur aus, die für anspruchsvolle KI-Workloads und Videogenerierung maßgeschneidert ist.
Einheitliche API für Alle Modelle
Greifen Sie auf Seedance 1.5 Pro zusammen mit über 300 KI-Modellen (LLMs, Bild, Video, Audio) über eine einheitliche API zu. Verwalten Sie alle Ihre KI-Bedürfnisse von einer einzigen Plattform mit konsistenter Authentifizierung.
Wettbewerbsfähige Preise
Sparen Sie bis zu 70% im Vergleich zu AWS mit transparenter Pay-as-you-go-Preisgestaltung. Keine versteckten Gebühren, keine Mindestbindungen—zahlen Sie nur für das, was Sie nutzen, mit verfügbaren Mengenrabatten.
SOC I & II Zertifizierte Sicherheit
Ihre Daten und generierten Videos sind durch SOC I & II-Zertifizierungen und HIPAA-Compliance geschützt. Unternehmensklasse-Sicherheit mit verschlüsselter Datenübertragung und -speicherung.
99,9% Uptime-SLA
Unternehmensklasse-Zuverlässigkeit mit garantierter 99,9% Uptime. Ihre Seedance 1.5 Pro-Videogenerierung ist immer verfügbar für Produktionsanwendungen und kritische Workflows.
Einfache Integration
Vollständige Integration in Minuten über unsere einfache REST API und mehrsprachige SDKs (Python, Node.js, Go). Umfassende Dokumentation und Code-Beispiele für schnellen Start.
Technische Spezifikationen
Erleben Sie Native Audio-Visuelle Generierung
Schließen Sie sich Filmemachern, Werbetreibenden und Kreativen weltweit an, die mit der bahnbrechenden Technologie von Seedance 1.5 Pro die Videoinhaltserstellung revolutionieren.
Seedance 1.5 PRO: A Native Audio-Visual Joint Generation Foundation Model
Seedance 1.5 PRO is a foundational model engineered specifically for native joint audio-visual generation, developed by the ByteDance Seed team. It represents a significant leap forward in transforming video generation into a practical, utility-driven tool. By integrating a dual-branch Diffusion Transformer architecture, the model achieves exceptional audio-visual synchronization and superior generation quality, establishing it as a robust engine for professional-grade content creation.
Key Features
Seedance 1.5 PRO introduces several key technical advancements that set a new standard for audio-visual content generation.
- Unified Multimodal Generation : Leverages a unified framework based on the MMDiT architecture to facilitate deep cross-modal interaction, ensuring precise temporal synchronization and semantic consistency between visual and auditory streams.
- Precise Audio-Visual Sync : Achieves high-fidelity alignment of lip movements, intonation, and performance rhythm. It natively supports multiple languages and regional dialects, accurately capturing unique vocal prosody and emotional tonalities.
- Cinematic Camera Control : Possesses autonomous camera scheduling capabilities, enabling the execution of complex movements such as continuous long takes and dolly zooms ("Hitchcock zoom"), significantly enhancing the dynamic tension of the video.
- Enhanced Narrative Coherence : Through strengthened semantic understanding, the model significantly improves the overall narrative coordination of audio-visual segments, providing strong support for professional-grade content creation.
- Efficient Inference Acceleration : An optimized multi-stage distillation framework, combined with quantization and parallelization, boosts the end-to-end inference speed by over 10x while preserving high performance.
Performance Highlights
The model's capabilities were rigorously evaluated against other state-of-the-art video generation models using the comprehensive SeedVideoBench 1.5 framework. Seedance 1.5 PRO demonstrates significant improvements across both video and audio dimensions.
In Text-to-Video (T2V) and Image-to-Video (I2V) tasks, it achieves a leading position in motion quality and instruction following (alignment). The model also shows strong competitiveness in visual aesthetics and motion dynamics. For audio generation, particularly in Chinese-language contexts, Seedance 1.5 PRO consistently outperforms competitors like Veo 3.1, delivering superior audio quality and audio-visual synchronization.
Use Cases
Seedance 1.5 PRO is well-suited for a wide range of professional applications, including:
- Film and Short Drama Production: Creating high-quality, emotionally resonant scenes with precise character performances.
- Advertising and Social Media: Generating engaging and dynamic video content for marketing campaigns.
- Cultural and Artistic Expression: Faithfully rendering traditional performing arts, such as Chinese opera, by capturing distinctive cadences and stylized gestures.
- Multi-Lingual Content: Producing content in various languages and dialects with accurate lip-sync and intonation.






