Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.

Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.
每次執行將花費 $0.018。$10 可執行約 555 次。
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/image-to-video-fast",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()為您的程式語言安裝所需的套件。
pip install requests所有 API 請求都需要透過 API 金鑰進行驗證。您可以從 Atlas Cloud 儀表板取得 API 金鑰。
export ATLASCLOUD_API_KEY="your-api-key-here"import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}切勿在客戶端程式碼或公開儲存庫中暴露您的 API 金鑰。請改用環境變數或後端代理。
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())提交非同步生成請求。API 會傳回一個預測 ID,您可以用它來檢查狀態並取得結果。
/api/v1/model/generateVideoimport requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/image-to-video-fast",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}"){
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}輪詢預測端點以檢查請求的當前狀態。
/api/v1/model/prediction/{prediction_id}import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)processing請求仍在處理中。completed生成完成。輸出已可取得。succeeded生成成功。輸出已可取得。failed生成失敗。請檢查錯誤欄位。{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}上傳檔案至 Atlas Cloud 儲存空間並取得 URL,可用於您的 API 請求。使用 multipart/form-data 上傳。
/api/v1/model/uploadMediaimport requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}"){
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}以下參數可在請求主體中使用。
無可用參數。
{
"model": "bytedance/seedance-v1.5-pro/image-to-video-fast"
}API 傳回包含生成輸出 URL 的預測回應。
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills 將 300 多個 AI 模型直接整合至您的 AI 程式碼助手。一鍵安裝,即可使用自然語言生成圖片、影片,以及與 LLM 對話。
npx skills add AtlasCloudAI/atlas-cloud-skills從 Atlas Cloud 儀表板取得 API 金鑰,並設為環境變數。
export ATLASCLOUD_API_KEY="your-api-key-here"安裝完成後,您可以在 AI 助手中使用自然語言存取所有 Atlas Cloud 模型。
Atlas Cloud MCP Server 透過 Model Context Protocol 將您的 IDE 與 300 多個 AI 模型連接。支援任何 MCP 相容的客戶端。
npx -y atlascloud-mcp將以下設定新增至您 IDE 的 MCP 設定檔中。
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Schema 不可用ByteDance 開創性的 AI 模型,通過單一統一流程同步生成完美同步的音頻和視頻。支持 8 種以上語言,實現毫秒級精準唇音同步的真正原生音視頻生成體驗。
SeeDANCE 1.5 Pro 的根本差異所在
採用 45 億參數的雙分支擴散 Transformer(DB-DiT),同時生成音頻和視頻——而非序列生成——確保從一開始就完美同步。
理解單個音素並正確映射到不同語言的唇形,實現毫秒級精準的音視頻同步。
基於提示意圖智能填補敘事空白,在角色情緒、表情和動作之間保持連貫的故事敘述。
專業高清視頻輸出,電影級質量,24fps,支持 4-12 秒時長
支持英語、普通話、日語、韓語、西班牙語、葡萄牙語、印尼語及中文方言
複雜的鏡頭運動,包括推拉變焦、跟蹤鏡頭和專業電影技術
多角色自然對話,獨特的聲音特徵和逼真的輪流對話
逼真的頭髮動態、流體行為和材質互動,呈現栩栩如生的視覺效果
在場景間保持服裝、面容和風格的連貫性,完整的故事連續性
看看 Seedance 如何從其他視頻生成模型中脫穎而出
創作情感驅動的敘事片段,配有逼真的角色對話和電影級燈光
表現力豐富的廣告內容,自然演技、完美唇音同步和專業製作價值
以 8 種以上語言的原生品質音視頻內容觸達全球受眾
引人入勝的教學內容,清晰的旁白和同步的視覺演示
病毒式傳播的短視頻內容,專業音視頻質量,最大化參與度
預視化和概念開發,逼真的角色表演和對話
強大的文本生成視頻(T2V)API 和圖像生成視頻(I2V)API 端點,實現無縫整合
我們的 Seedance 1.5 Pro T2V API 將文本提示轉換為具有原生音視頻同步的完整電影級視頻。通過單次文本生成視頻 API 調用生成場景、鏡頭運動、角色動作和對話。
我們的 Seedance 1.5 Pro I2V API 為靜態圖像注入動作、鏡頭運動和同步音頻。圖像生成視頻 API 具有高級幀控制功能,可精確定義動畫的起點和終點。
T2V API 和 I2V API 模式均支持 RESTful 架構,配有全面的文檔。通過 Python、Node.js 等 SDK 快速上手。所有 Seedance 1.5 Pro API 端點均包含音素級唇音同步的自動音頻生成,實現無縫視頻創作。
通過兩種簡單路徑,數分鐘內開始生成視頻
適合開發者構建應用程序
創建您的 Atlas Cloud 帳戶或登錄以訪問控制台
在計費部分綁定您的信用卡以為帳戶充值
導航至控制台 → API 金鑰並創建您的驗證金鑰
使用 API 金鑰發起請求並將 SeeDANCE 整合到您的應用程序中
適合快速測試和實驗
創建您的 Atlas Cloud 帳戶或登錄以訪問平台
在計費部分綁定您的信用卡以開始使用
前往模型 playground,輸入您的提示,通過直觀界面即時生成視頻
與其他先生成視頻再添加音頻的模型不同,Seedance 1.5 Pro 使用雙分支架構同時生成兩者。這確保從一開始就完美同步,在所有支持的語言中實現音素級唇音同步精度。
雖然 Wan 2.6 支持更長時長(最長 15 秒)和文本渲染,但 Seedance 1.5 Pro 在電影級鏡頭控制、多語言/方言支持(配空間音頻)和物理精準動作方面表現出色。根據需求選擇:Seedance 適合敘事和多語言內容,Wan 適合帶文字的產品演示。
Seedance 1.5 Pro 生成原生 1080p 視頻,24fps。支持的縱橫比包括 16:9、9:16、4:3、3:4、1:1 和 21:9。時長範圍為 4-12 秒,智能時長模式允許模型自動選擇最佳長度。
Seedance 1.5 Pro 支持 8 種以上語言,包括英語、普通話、日語、韓語、西班牙語、葡萄牙語、印尼語,以及粵語和川話等中文方言。每種語言都具有精準的唇音同步和自然發音。
可以!Seedance 理解專業電影語法。您可以指定如「對主體進行推拉變焦」(希區柯克效果)、跟蹤鏡頭、特寫或廣角鏡頭等鏡頭技術。模型會解釋這些指令以創造專業的電影效果。
文本生成視頻從文本提示生成完整視頻。圖像生成視頻使用「首幀」來鎖定角色身份和燈光,可選「尾幀」控制以實現精確的起點和終點過渡。兩種模式均支持完整的音頻生成。
為您的 AI 視頻生成需求體驗無與倫比的性能、可靠性和支持
我們的系統專為 AI 模型部署而優化。在為高要求 AI 工作負載和視頻生成量身定制的基礎設施上以最高性能運行 Seedance 1.5 Pro。
通過一個統一 API 訪問 Seedance 1.5 Pro 以及 300 多個 AI 模型(LLM、圖像、視頻、音頻)。從單一平台管理所有 AI 需求,採用一致的身份驗證。
與 AWS 相比節省高達 70%,透明的按使用付費定價。無隱藏費用,無最低承諾——僅為實際使用付費,並提供批量折扣。
您的數據和生成的視頻受 SOC I & II 認證和 HIPAA 合規保護。企業級安全,加密數據傳輸和存儲。
企業級可靠性,保證 99.9% 正常運行時間。您的 Seedance 1.5 Pro 視頻生成始終可用於生產應用程序和關鍵工作流程。
通過我們簡單的 REST API 和多語言 SDK(Python、Node.js、Go)在數分鐘內完成整合。全面的文檔和代碼示例助您快速上手。
加入全球電影製作人、廣告商和創作者的行列,使用 Seedance 1.5 Pro 的突破性技術革新視頻內容創作。
Seedance 1.5 PRO is a foundational model engineered specifically for native joint audio-visual generation, developed by the ByteDance Seed team. It represents a significant leap forward in transforming video generation into a practical, utility-driven tool. By integrating a dual-branch Diffusion Transformer architecture, the model achieves exceptional audio-visual synchronization and superior generation quality, establishing it as a robust engine for professional-grade content creation.
Seedance 1.5 PRO introduces several key technical advancements that set a new standard for audio-visual content generation.
The model's capabilities were rigorously evaluated against other state-of-the-art video generation models using the comprehensive SeedVideoBench 1.5 framework. Seedance 1.5 PRO demonstrates significant improvements across both video and audio dimensions.
In Text-to-Video (T2V) and Image-to-Video (I2V) tasks, it achieves a leading position in motion quality and instruction following (alignment). The model also shows strong competitiveness in visual aesthetics and motion dynamics. For audio generation, particularly in Chinese-language contexts, Seedance 1.5 PRO consistently outperforms competitors like Veo 3.1, delivering superior audio quality and audio-visual synchronization.
Seedance 1.5 PRO is well-suited for a wide range of professional applications, including: