bytedance/seedance-v1.5-pro/image-to-video-fast

Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.

IMAGE-TO-VIDEOHOTNEW
首页
探索
Seedream and Seedance Model Families
Seedance1.5 Models
bytedance/seedance-v1.5-pro/image-to-video-fast
Seedance v1.5 Pro Image-to-Video Fast
图生视频
PRO

Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.

输入

正在加载参数配置...

输出

空闲
生成的视频将在这里显示
配置参数后点击运行开始生成

每次运行将花费 $0.018。$10 可运行约 555 次。

参数

代码示例

import requests
import time

# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "bytedance/seedance-v1.5-pro/image-to-video-fast",
    "prompt": "A beautiful sunset over the ocean with gentle waves",
    "width": 512,
    "height": 512,
    "duration": 3,
    "fps": 24,
}

generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]

# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"

def check_status():
    while True:
        response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
        result = response.json()

        if result["data"]["status"] in ["completed", "succeeded"]:
            print("Generated video:", result["data"]["outputs"][0])
            return result["data"]["outputs"][0]
        elif result["data"]["status"] == "failed":
            raise Exception(result["data"]["error"] or "Generation failed")
        else:
            # Still processing, wait 2 seconds
            time.sleep(2)

video_url = check_status()

安装

安装所需的依赖包。

bash
pip install requests

认证

所有 API 请求需要通过 API Key 进行认证。您可以在 Atlas Cloud 控制台获取 API Key。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP 请求头

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
保护好您的 API Key

切勿在客户端代码或公开仓库中暴露您的 API Key。请使用环境变量或后端代理。

提交请求

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "prompt": "A beautiful landscape"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

提交请求

提交一个异步生成请求。API 返回一个 prediction ID,您可以用它来检查状态和获取结果。

POST/api/v1/model/generateVideo

请求体

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}

data = {
    "model": "bytedance/seedance-v1.5-pro/image-to-video-fast",
    "input": {
        "prompt": "A beautiful sunset over the ocean with gentle waves"
    }
}

response = requests.post(url, headers=headers, json=data)
result = response.json()

print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")

响应

{
  "id": "pred_abc123",
  "status": "processing",
  "model": "model-name",
  "created_at": "2025-01-01T00:00:00Z"
}

检查状态

轮询 prediction 端点以检查请求的当前状态。

GET/api/v1/model/prediction/{prediction_id}

轮询示例

import requests
import time

prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

while True:
    response = requests.get(url, headers=headers)
    result = response.json()
    status = result["data"]["status"]
    print(f"Status: {status}")

    if status in ["completed", "succeeded"]:
        output_url = result["data"]["outputs"][0]
        print(f"Output URL: {output_url}")
        break
    elif status == "failed":
        print(f"Error: {result['data'].get('error', 'Unknown')}")
        break

    time.sleep(3)

状态值

processing请求仍在处理中。
completed生成完成,输出可用。
succeeded生成成功,输出可用。
failed生成失败,请检查 error 字段。

完成响应

{
  "data": {
    "id": "pred_abc123",
    "status": "completed",
    "outputs": [
      "https://storage.atlascloud.ai/outputs/result.mp4"
    ],
    "metrics": {
      "predict_time": 45.2
    },
    "created_at": "2025-01-01T00:00:00Z",
    "completed_at": "2025-01-01T00:00:10Z"
  }
}

上传文件

将文件上传到 Atlas Cloud 存储,获取可在 API 请求中使用的 URL。使用 multipart/form-data 上传。

POST/api/v1/model/uploadMedia

上传示例

import requests

url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

with open("image.png", "rb") as f:
    files = {"file": ("image.png", f, "image/png")}
    response = requests.post(url, headers=headers, files=files)

result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")

响应

{
  "data": {
    "download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
    "file_name": "image.png",
    "content_type": "image/png",
    "size": 1024000
  }
}

Input Schema

以下参数在请求体中被接受。

总计: 0必填: 0可选: 0

暂无可用参数。

请求体示例

json
{
  "model": "bytedance/seedance-v1.5-pro/image-to-video-fast"
}

Output Schema

API 返回包含生成输出 URL 的 prediction 响应。

idstringrequired
Unique identifier for the prediction.
statusstringrequired
Current status of the prediction.
processingcompletedsucceededfailed
modelstringrequired
The model used for generation.
outputsarray[string]
Array of output URLs. Available when status is "completed".
errorstring
Error message if status is "failed".
metricsobject
Performance metrics.
predict_timenumber
Time taken for video generation in seconds.
created_atstringrequired
ISO 8601 timestamp when the prediction was created.
Format: date-time
completed_atstring
ISO 8601 timestamp when the prediction was completed.
Format: date-time

响应示例

json
{
  "id": "pred_abc123",
  "status": "completed",
  "model": "model-name",
  "outputs": [
    "https://storage.atlascloud.ai/outputs/result.mp4"
  ],
  "metrics": {
    "predict_time": 45.2
  },
  "created_at": "2025-01-01T00:00:00Z",
  "completed_at": "2025-01-01T00:00:10Z"
}

Atlas Cloud Skills

Atlas Cloud Skills 将 300+ AI 模型直接集成到您的 AI 编程助手中。一条命令安装,即可用自然语言生成图像、视频和与 LLM 对话。

支持的客户端

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ 支持的客户端

安装

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

设置 API Key

从 Atlas Cloud 控制台获取 API Key,并将其设置为环境变量。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

功能

安装后,您可以在 AI 助手中使用自然语言访问所有 Atlas Cloud 模型。

图像生成使用 Nano Banana 2、Z-Image 等模型生成图像。
视频创作使用 Kling、Vidu、Veo 等模型从文本或图像创建视频。
LLM 对话与 Qwen、DeepSeek 等大语言模型对话。
媒体上传上传本地文件用于图像编辑和图生视频工作流。

MCP Server

Atlas Cloud MCP Server 通过 Model Context Protocol 将您的 IDE 与 300+ AI 模型连接。支持任何兼容 MCP 的客户端。

支持的客户端

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ 支持的客户端

安装

bash
npx -y atlascloud-mcp

配置

将以下配置添加到您的 IDE 的 MCP 设置文件中。

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

可用工具

atlas_generate_image从文本提示生成图像。
atlas_generate_video从文本或图像创建视频。
atlas_chat与大语言模型对话。
atlas_list_models浏览 300+ 可用 AI 模型。
atlas_quick_generate一步式内容创建,自动选择最佳模型。
atlas_upload_media上传本地文件用于 API 工作流。

API Schema

Schema 不可用

请登录以查看请求历史

您需要登录才能访问模型请求历史记录。

登录
原生音视频同步生成

Seedance 1.5 Pro声画合一,一气呵成

字节跳动革命性AI模型,通过统一流程同步生成完美协调的音频和视频。体验真正的原生音视频生成,支持8+语言的毫秒级精准唇形同步。

革命性创新

SeeDANCE 1.5 Pro的根本性差异

双分支架构

采用45亿参数的双分支扩散Transformer(DB-DiT),同时生成音频和视频——而非顺序生成——从一开始就确保完美同步。

音素级唇形同步

理解单个音素并将其正确映射到不同语言的唇形,实现毫秒级精准的音视频同步。

叙事智能补全

基于提示词意图智能填补叙事空白,在角色情感、表情和动作上保持连贯的故事叙述。

核心能力

原生1080p画质

专业高清视频输出,24fps电影级画质,支持4-12秒时长

8+语言支持

支持英语、中文、日语、韩语、西班牙语、葡萄牙语、印尼语,以及中文方言

电影级镜头控制

复杂镜头运动包括推拉变焦、跟踪镜头和专业电影技法

多角色对话

多角色自然对话,独特的声音特征和真实的轮流发言

物理精准运动

真实的头发动力学、流体行为和材质交互,呈现逼真视觉效果

角色一致性

跨场景保持服装、面部和风格,完整的故事连贯性

Seedance 1.5 Pro vs 竞品对比

看看 Seedance 如何从其他视频生成模型中脱颖而出

音视频同步
原生同步生成
序列后处理
多语言支持
8+ 种语言及方言
有限的语言支持
唇形同步精度
音素级精度
基础同步
时长
5-12 秒优化
Wan 2.6: 最长 15 秒
镜头控制
专业电影摄影
标准镜头移动

完美适用于

短剧制作

创作情感丰富的叙事片段,配备真实角色对话和电影级灯光

广告创意

表现力强的广告内容,自然演技、完美唇形同步和专业制作价值

多语言内容

用8+语言的原生品质音视频内容触达全球受众

教育视频

引人入胜的教学内容,配备清晰旁白和同步视觉演示

社交媒体

病毒式传播的短视频内容,专业音视频质量实现最大化互动

影视制作

预可视化和概念开发,真实的角色表演和对话

Seedance 1.5 Pro 文生视频和图生视频API集成

强大的文生视频(T2V) API和图生视频(I2V) API端点,无缝集成

文生视频API (T2V API)

我们的Seedance 1.5 Pro文生视频API将文本提示词转化为完整的电影级视频,原生音视频同步。通过单次文生视频API调用生成场景、镜头运动、角色动作和对话。

一步生成,音频同步
完全控制时长、宽高比和风格
多语言对话,精准唇形同步
从文本描述生成专业电影摄影

完美适用于:

  • 大规模自动化视频内容创作
  • 动态故事叙述和叙事视频
  • 营销活动自动化
  • 教育内容生成

图生视频API (I2V API)

我们的Seedance 1.5 Pro图生视频API让静态图像动起来,配备运动、镜头移动和同步音频。图生视频API具备高级帧控制,精确定义动画的起始和结束点。

首帧控制锁定角色身份
尾帧控制用于转场端点
保留视觉风格和构图
跨帧一致的角色外观

完美适用于:

  • 照片动画和增强
  • 视频序列中的角色一致性
  • 带运动效果的产品展示
  • 建筑可视化和漫游
💡

简单的文生视频和图生视频API集成

文生视频API和图生视频API两种模式都支持RESTful架构,配备完整文档。通过Python、Node.js等SDK在几分钟内开始使用。所有Seedance 1.5 Pro API端点都包含音素级唇形同步的自动音频生成,实现无缝视频创作。

如何开始使用

通过两个简单路径在几分钟内开始生成视频

API集成

适合开发应用的开发者

1

注册并登录

创建您的Atlas Cloud账户或登录访问控制台

2

添加支付方式

在账单部分绑定信用卡为账户充值

3

生成API密钥

导航至控制台 → API密钥并创建认证密钥

4

开始构建

使用API密钥发起请求并将SeeDANCE集成到您的应用中

Playground体验

适合快速测试和实验

1

注册并登录

创建您的Atlas Cloud账户或登录访问平台

2

添加支付方式

在账单部分绑定信用卡即可开始

3

使用Playground

进入模型playground,输入提示词,通过直观界面即时生成视频

💡
专业提示: 先使用Playground测试提示词和探索功能,准备好扩展生产工作流时再转向API集成。

常见问题

Seedance 1.5 Pro的音视频同步有何独特之处?

与其他先生成视频再添加音频的模型不同,Seedance 1.5 Pro使用双分支架构同时生成两者。这确保从一开始就完美同步,在所有支持的语言中实现音素级唇形同步精度。

与Wan 2.5或Wan 2.6相比如何?

Wan 2.6支持更长时长(最长15秒)和文本渲染,而Seedance 1.5 Pro在电影级镜头控制、多语言/方言支持配合空间音频、物理精准运动方面表现出色。根据需求选择:Seedance适合故事叙述和多语言内容,Wan适合带文本的产品演示。

支持哪些视频格式和分辨率?

Seedance 1.5 Pro生成原生1080p视频,24fps。支持的宽高比包括16:9、9:16、4:3、3:4、1:1和21:9。时长范围4-12秒,智能时长模式允许模型自动选择最佳长度。

音频生成支持哪些语言?

Seedance 1.5 Pro支持8+语言,包括英语、中文普通话、日语、韩语、西班牙语、葡萄牙语、印尼语,以及粤语和四川话等中文方言。每种语言都具备精准唇形同步和自然发音。

我可以控制特定的镜头运动吗?

可以!Seedance理解专业电影语法。您可以指定镜头技术,如"对主体进行推拉变焦"(希区柯克效果)、跟踪镜头、特写或广角镜头。模型会解释这些指令创作出专业的电影效果。

文生视频和图生视频有什么区别?

文生视频从文本提示词生成完整视频。图生视频使用"首帧"锁定角色身份和灯光,可选"尾帧"控制实现精确的开始和结束点转场。两种模式都支持完整音频生成。

为什么在Atlas Cloud上使用Seedance 1.5 Pro?

为您的AI视频生成需求提供无与伦比的性能、可靠性和支持

专为AI优化的基础设施

我们的系统专为AI模型部署而优化。在为高需求AI工作负载和视频生成量身定制的基础设施上以最高性能运行Seedance 1.5 Pro。

统一API管理所有模型

通过统一API访问Seedance 1.5 Pro以及300+个AI模型(LLM、图像、视频、音频)。从单一平台管理所有AI需求,认证一致。

极具竞争力的价格

与AWS相比节省高达70%,透明的按需付费定价。无隐藏费用,无最低承诺——只为实际使用付费,提供批量折扣。

SOC I & II认证安全

您的数据和生成的视频受到SOC I & II认证和HIPAA合规保护。企业级安全,加密数据传输和存储。

99.9% 正常运行时间SLA

企业级可靠性,保证99.9%正常运行时间。您的Seedance 1.5 Pro视频生成始终可用于生产应用和关键工作流。

轻松集成

通过简单的REST API和多语言SDK(Python、Node.js、Go)在几分钟内完成集成。全面的文档和代码示例助您快速上手。

99.9%
正常运行时间
70%
低于AWS成本
300+
生成式AI模型
24/7
专业支持

技术规格

Architecture
双分支扩散Transformer (MMDiT)
Parameters
45亿
Resolution
原生1080p (同时支持480p、720p)
Frame Rate
24 FPS
Duration
4-12秒 (智能时长可用)
Aspect Ratios
16:9, 9:16, 4:3, 3:4, 1:1, 21:9
Languages
8+种语言含方言
Input Modes
文生视频、图生视频

体验原生音视频生成

加入全球电影制作人、广告商和创作者行列,用Seedance 1.5 Pro的突破性技术革新视频内容创作。

Seedance 1.5 PRO: A Native Audio-Visual Joint Generation Foundation Model

Seedance 1.5 PRO is a foundational model engineered specifically for native joint audio-visual generation, developed by the ByteDance Seed team. It represents a significant leap forward in transforming video generation into a practical, utility-driven tool. By integrating a dual-branch Diffusion Transformer architecture, the model achieves exceptional audio-visual synchronization and superior generation quality, establishing it as a robust engine for professional-grade content creation.

Key Features

Seedance 1.5 PRO introduces several key technical advancements that set a new standard for audio-visual content generation.

  • Unified Multimodal Generation : Leverages a unified framework based on the MMDiT architecture to facilitate deep cross-modal interaction, ensuring precise temporal synchronization and semantic consistency between visual and auditory streams.
  • Precise Audio-Visual Sync : Achieves high-fidelity alignment of lip movements, intonation, and performance rhythm. It natively supports multiple languages and regional dialects, accurately capturing unique vocal prosody and emotional tonalities.
  • Cinematic Camera Control : Possesses autonomous camera scheduling capabilities, enabling the execution of complex movements such as continuous long takes and dolly zooms ("Hitchcock zoom"), significantly enhancing the dynamic tension of the video.
  • Enhanced Narrative Coherence : Through strengthened semantic understanding, the model significantly improves the overall narrative coordination of audio-visual segments, providing strong support for professional-grade content creation.
  • Efficient Inference Acceleration : An optimized multi-stage distillation framework, combined with quantization and parallelization, boosts the end-to-end inference speed by over 10x while preserving high performance.

Performance Highlights

The model's capabilities were rigorously evaluated against other state-of-the-art video generation models using the comprehensive SeedVideoBench 1.5 framework. Seedance 1.5 PRO demonstrates significant improvements across both video and audio dimensions.

In Text-to-Video (T2V) and Image-to-Video (I2V) tasks, it achieves a leading position in motion quality and instruction following (alignment). The model also shows strong competitiveness in visual aesthetics and motion dynamics. For audio generation, particularly in Chinese-language contexts, Seedance 1.5 PRO consistently outperforms competitors like Veo 3.1, delivering superior audio quality and audio-visual synchronization.

Use Cases

Seedance 1.5 PRO is well-suited for a wide range of professional applications, including:

  • Film and Short Drama Production: Creating high-quality, emotionally resonant scenes with precise character performances.
  • Advertising and Social Media: Generating engaging and dynamic video content for marketing campaigns.
  • Cultural and Artistic Expression: Faithfully rendering traditional performing arts, such as Chinese opera, by capturing distinctive cadences and stylized gestures.
  • Multi-Lingual Content: Producing content in various languages and dialects with accurate lip-sync and intonation.

300+ 模型,即刻开启,

探索全部模型