Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.

Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.
每次运行将花费 $0.018。$10 可运行约 555 次。
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/image-to-video-fast",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()安装所需的依赖包。
pip install requests所有 API 请求需要通过 API Key 进行认证。您可以在 Atlas Cloud 控制台获取 API Key。
export ATLASCLOUD_API_KEY="your-api-key-here"import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}切勿在客户端代码或公开仓库中暴露您的 API Key。请使用环境变量或后端代理。
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())提交一个异步生成请求。API 返回一个 prediction ID,您可以用它来检查状态和获取结果。
/api/v1/model/generateVideoimport requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/image-to-video-fast",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}"){
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}轮询 prediction 端点以检查请求的当前状态。
/api/v1/model/prediction/{prediction_id}import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)processing请求仍在处理中。completed生成完成,输出可用。succeeded生成成功,输出可用。failed生成失败,请检查 error 字段。{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}将文件上传到 Atlas Cloud 存储,获取可在 API 请求中使用的 URL。使用 multipart/form-data 上传。
/api/v1/model/uploadMediaimport requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}"){
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}以下参数在请求体中被接受。
暂无可用参数。
{
"model": "bytedance/seedance-v1.5-pro/image-to-video-fast"
}API 返回包含生成输出 URL 的 prediction 响应。
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills 将 300+ AI 模型直接集成到您的 AI 编程助手中。一条命令安装,即可用自然语言生成图像、视频和与 LLM 对话。
npx skills add AtlasCloudAI/atlas-cloud-skills从 Atlas Cloud 控制台获取 API Key,并将其设置为环境变量。
export ATLASCLOUD_API_KEY="your-api-key-here"安装后,您可以在 AI 助手中使用自然语言访问所有 Atlas Cloud 模型。
Atlas Cloud MCP Server 通过 Model Context Protocol 将您的 IDE 与 300+ AI 模型连接。支持任何兼容 MCP 的客户端。
npx -y atlascloud-mcp将以下配置添加到您的 IDE 的 MCP 设置文件中。
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Schema 不可用字节跳动革命性AI模型,通过统一流程同步生成完美协调的音频和视频。体验真正的原生音视频生成,支持8+语言的毫秒级精准唇形同步。
SeeDANCE 1.5 Pro的根本性差异
采用45亿参数的双分支扩散Transformer(DB-DiT),同时生成音频和视频——而非顺序生成——从一开始就确保完美同步。
理解单个音素并将其正确映射到不同语言的唇形,实现毫秒级精准的音视频同步。
基于提示词意图智能填补叙事空白,在角色情感、表情和动作上保持连贯的故事叙述。
专业高清视频输出,24fps电影级画质,支持4-12秒时长
支持英语、中文、日语、韩语、西班牙语、葡萄牙语、印尼语,以及中文方言
复杂镜头运动包括推拉变焦、跟踪镜头和专业电影技法
多角色自然对话,独特的声音特征和真实的轮流发言
真实的头发动力学、流体行为和材质交互,呈现逼真视觉效果
跨场景保持服装、面部和风格,完整的故事连贯性
看看 Seedance 如何从其他视频生成模型中脱颖而出
创作情感丰富的叙事片段,配备真实角色对话和电影级灯光
表现力强的广告内容,自然演技、完美唇形同步和专业制作价值
用8+语言的原生品质音视频内容触达全球受众
引人入胜的教学内容,配备清晰旁白和同步视觉演示
病毒式传播的短视频内容,专业音视频质量实现最大化互动
预可视化和概念开发,真实的角色表演和对话
强大的文生视频(T2V) API和图生视频(I2V) API端点,无缝集成
我们的Seedance 1.5 Pro文生视频API将文本提示词转化为完整的电影级视频,原生音视频同步。通过单次文生视频API调用生成场景、镜头运动、角色动作和对话。
我们的Seedance 1.5 Pro图生视频API让静态图像动起来,配备运动、镜头移动和同步音频。图生视频API具备高级帧控制,精确定义动画的起始和结束点。
文生视频API和图生视频API两种模式都支持RESTful架构,配备完整文档。通过Python、Node.js等SDK在几分钟内开始使用。所有Seedance 1.5 Pro API端点都包含音素级唇形同步的自动音频生成,实现无缝视频创作。
通过两个简单路径在几分钟内开始生成视频
适合开发应用的开发者
创建您的Atlas Cloud账户或登录访问控制台
在账单部分绑定信用卡为账户充值
导航至控制台 → API密钥并创建认证密钥
使用API密钥发起请求并将SeeDANCE集成到您的应用中
适合快速测试和实验
创建您的Atlas Cloud账户或登录访问平台
在账单部分绑定信用卡即可开始
进入模型playground,输入提示词,通过直观界面即时生成视频
与其他先生成视频再添加音频的模型不同,Seedance 1.5 Pro使用双分支架构同时生成两者。这确保从一开始就完美同步,在所有支持的语言中实现音素级唇形同步精度。
Wan 2.6支持更长时长(最长15秒)和文本渲染,而Seedance 1.5 Pro在电影级镜头控制、多语言/方言支持配合空间音频、物理精准运动方面表现出色。根据需求选择:Seedance适合故事叙述和多语言内容,Wan适合带文本的产品演示。
Seedance 1.5 Pro生成原生1080p视频,24fps。支持的宽高比包括16:9、9:16、4:3、3:4、1:1和21:9。时长范围4-12秒,智能时长模式允许模型自动选择最佳长度。
Seedance 1.5 Pro支持8+语言,包括英语、中文普通话、日语、韩语、西班牙语、葡萄牙语、印尼语,以及粤语和四川话等中文方言。每种语言都具备精准唇形同步和自然发音。
可以!Seedance理解专业电影语法。您可以指定镜头技术,如"对主体进行推拉变焦"(希区柯克效果)、跟踪镜头、特写或广角镜头。模型会解释这些指令创作出专业的电影效果。
文生视频从文本提示词生成完整视频。图生视频使用"首帧"锁定角色身份和灯光,可选"尾帧"控制实现精确的开始和结束点转场。两种模式都支持完整音频生成。
为您的AI视频生成需求提供无与伦比的性能、可靠性和支持
我们的系统专为AI模型部署而优化。在为高需求AI工作负载和视频生成量身定制的基础设施上以最高性能运行Seedance 1.5 Pro。
通过统一API访问Seedance 1.5 Pro以及300+个AI模型(LLM、图像、视频、音频)。从单一平台管理所有AI需求,认证一致。
与AWS相比节省高达70%,透明的按需付费定价。无隐藏费用,无最低承诺——只为实际使用付费,提供批量折扣。
您的数据和生成的视频受到SOC I & II认证和HIPAA合规保护。企业级安全,加密数据传输和存储。
企业级可靠性,保证99.9%正常运行时间。您的Seedance 1.5 Pro视频生成始终可用于生产应用和关键工作流。
通过简单的REST API和多语言SDK(Python、Node.js、Go)在几分钟内完成集成。全面的文档和代码示例助您快速上手。
加入全球电影制作人、广告商和创作者行列,用Seedance 1.5 Pro的突破性技术革新视频内容创作。
Seedance 1.5 PRO is a foundational model engineered specifically for native joint audio-visual generation, developed by the ByteDance Seed team. It represents a significant leap forward in transforming video generation into a practical, utility-driven tool. By integrating a dual-branch Diffusion Transformer architecture, the model achieves exceptional audio-visual synchronization and superior generation quality, establishing it as a robust engine for professional-grade content creation.
Seedance 1.5 PRO introduces several key technical advancements that set a new standard for audio-visual content generation.
The model's capabilities were rigorously evaluated against other state-of-the-art video generation models using the comprehensive SeedVideoBench 1.5 framework. Seedance 1.5 PRO demonstrates significant improvements across both video and audio dimensions.
In Text-to-Video (T2V) and Image-to-Video (I2V) tasks, it achieves a leading position in motion quality and instruction following (alignment). The model also shows strong competitiveness in visual aesthetics and motion dynamics. For audio generation, particularly in Chinese-language contexts, Seedance 1.5 PRO consistently outperforms competitors like Veo 3.1, delivering superior audio quality and audio-visual synchronization.
Seedance 1.5 PRO is well-suited for a wide range of professional applications, including: