Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.

Native audio-visual joint generation model by ByteDance. Supports unified multimodal generation with precise audio-visual sync, cinematic camera control, and enhanced narrative coherence.
แต่ละครั้งจะใช้ $0.018 ด้วย $10 คุณสามารถรันได้ประมาณ 555 ครั้ง
คุณสามารถทำต่อได้:
import requests
import time
# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/image-to-video-fast",
"prompt": "A beautiful sunset over the ocean with gentle waves",
"width": 512,
"height": 512,
"duration": 3,
"fps": 24,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] in ["completed", "succeeded"]:
print("Generated video:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
video_url = check_status()ติดตั้งแพ็คเกจที่จำเป็นสำหรับภาษาของคุณ
pip install requestsคำขอ API ทั้งหมดต้องมีการยืนยันตัวตนผ่าน API key คุณสามารถรับ API key ได้จากแดชบอร์ด Atlas Cloud
export ATLASCLOUD_API_KEY="your-api-key-here"import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}อย่าเปิดเผย API key ของคุณในโค้ดฝั่งไคลเอนต์หรือที่เก็บข้อมูลสาธารณะ ให้ใช้ตัวแปรสภาพแวดล้อมหรือพร็อกซีฝั่งเซิร์ฟเวอร์แทน
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())ส่งคำขอสร้างแบบอะซิงโครนัส API จะส่งคืน prediction ID ที่คุณสามารถใช้ตรวจสอบสถานะและดึงผลลัพธ์ได้
/api/v1/model/generateVideoimport requests
url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "bytedance/seedance-v1.5-pro/image-to-video-fast",
"input": {
"prompt": "A beautiful sunset over the ocean with gentle waves"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}"){
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}สำรวจ prediction endpoint เพื่อตรวจสอบสถานะปัจจุบันของคำขอ
/api/v1/model/prediction/{prediction_id}import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)processingคำขอยังอยู่ระหว่างการประมวลผลcompletedการสร้างเสร็จสมบูรณ์แล้ว ผลลัพธ์พร้อมใช้งานsucceededการสร้างสำเร็จแล้ว ผลลัพธ์พร้อมใช้งานfailedการสร้างล้มเหลว ตรวจสอบฟิลด์ error{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}อัปโหลดไฟล์ไปยังที่เก็บข้อมูล Atlas Cloud และรับ URL ที่คุณสามารถใช้ในคำขอ API ของคุณ ใช้ multipart/form-data ในการอัปโหลด
/api/v1/model/uploadMediaimport requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}"){
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}พารามิเตอร์ต่อไปนี้ยอมรับในเนื้อหาคำขอ
ไม่มีพารามิเตอร์ที่ใช้ได้
{
"model": "bytedance/seedance-v1.5-pro/image-to-video-fast"
}API จะส่งคืนการตอบกลับ prediction พร้อม URL ของผลลัพธ์ที่สร้างขึ้น
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.mp4"
],
"metrics": {
"predict_time": 45.2
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills เชื่อมต่อโมเดล AI กว่า 300+ เข้ากับผู้ช่วยเขียนโค้ด AI ของคุณโดยตรง ติดตั้งด้วยคำสั่งเดียว จากนั้นใช้ภาษาธรรมชาติเพื่อสร้างรูปภาพ วิดีโอ และสนทนากับ LLM
npx skills add AtlasCloudAI/atlas-cloud-skillsรับ API key จากแดชบอร์ด Atlas Cloud และตั้งค่าเป็นตัวแปรสภาพแวดล้อม
export ATLASCLOUD_API_KEY="your-api-key-here"เมื่อติดตั้งแล้ว คุณสามารถใช้ภาษาธรรมชาติในผู้ช่วย AI ของคุณเพื่อเข้าถึงโมเดล Atlas Cloud ทั้งหมด
Atlas Cloud MCP Server เชื่อมต่อ IDE ของคุณกับโมเดล AI กว่า 300+ ผ่าน Model Context Protocol ใช้งานได้กับไคลเอนต์ที่รองรับ MCP ทุกตัว
npx -y atlascloud-mcpเพิ่มการกำหนดค่าต่อไปนี้ลงในไฟล์ตั้งค่า MCP ของ IDE ของคุณ
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}ไม่มี Schemaโมเดล AI ปฏิวัติวงการของ ByteDance ที่สร้างเสียงและวิดีโอที่ซิงค์กันอย่างสมบูรณ์แบบพร้อมกันจากกระบวนการเดียวที่รวมเป็นหนึ่ง สัมผัสประสบการณ์การสร้างเสียงและภาพพื้นเมืองที่แท้จริงด้วยการซิงค์ริมฝีปากที่แม่นยำระดับมิลลิวินาทีในกว่า 8 ภาษา
สิ่งที่ทำให้ SeeDANCE 1.5 Pro แตกต่างจากพื้นฐาน
ใช้ Dual-Branch Diffusion Transformer (DB-DiT) ที่มีพารามิเตอร์ 4.5 พันล้านตัว ที่สร้างเสียงและวิดีโอพร้อมกัน—ไม่ใช่แบบต่อเนื่อง—รับประกันการซิงค์ที่สมบูรณ์แบบตั้งแต่เริ่มต้น
เข้าใจหน่วยเสียงแต่ละตัวและจับคู่กับรูปร่างริมฝีปากในภาษาต่างๆ อย่างถูกต้อง บรรลุการซิงค์เสียงและภาพที่แม่นยำระดับมิลลิวินาที
เติมเต็มช่องว่างในการเล่าเรื่องอย่างชาญฉลาดตามเจตนาของคำสั่ง รักษาการเล่าเรื่องที่สอดคล้องกันตลอดอารมณ์ การแสดงออก และการกระทำของตัวละคร
เอาต์พุตวิดีโอ HD ระดับมืออาชีพด้วยคุณภาพระดับภาพยนตร์ที่ 24fps รองรับความยาว 4-12 วินาที
อังกฤษ จีนกลาง ญี่ปุ่น เกาหลี สเปน โปรตุเกส อินโดนีเซีย รวมถึงภาษาถิ่นจีน
การเคลื่อนไหวกล้องที่ซับซ้อนรวมถึง dolly zoom ภาพติดตาม และเทคนิคภาพยนตร์มืออาชีพ
การสนทนาที่เป็นธรรมชาติกับตัวละครหลายตัว เอกลักษณ์เสียงที่แตกต่างกัน และการสลับผู้พูดที่สมจริง
พลศาสตร์ผมที่สมจริง พฤติกรรมของของเหลว และการโต้ตอบของวัสดุเพื่อภาพที่มีชีวิตชีวา
รักษาเสื้อผ้า ใบหน้า และสไตล์ตลอดฉากเพื่อความต่อเนื่องของเรื่องราวที่สมบูรณ์
ดูว่า Seedance แตกต่างจากโมเดลสร้างวิดีโออื่นอย่างไร
สร้างคลิปเล่าเรื่องที่เน้นอารมณ์ด้วยบทสนทนาตัวละครที่สมจริงและแสงสว่างแบบภาพยนตร์
เนื้อหาโฆษณาที่เน้นประสิทธิภาพด้วยการแสดงที่เป็นธรรมชาติ การซิงค์ริมฝีปากที่สมบูรณ์แบบ และมูลค่าการผลิตระดับมืออาชีพ
เข้าถึงผู้ชมทั่วโลกด้วยเนื้อหาเสียงและภาพคุณภาพพื้นเมืองในกว่า 8 ภาษา
เนื้อหาการสอนที่น่าสนใจด้วยการบรรยายที่ชัดเจนและการสาธิตภาพที่ซิงค์กัน
เนื้อหาแบบสั้นที่พร้อมแพร่ระบาดด้วยคุณภาพเสียงและภาพระดับมืออาชีพเพื่อการมีส่วนร่วมสูงสุด
การสร้างภาพล่วงหน้าและการพัฒนาแนวคิดด้วยการแสดงตัวละครและบทสนทนาที่สมจริง
จุดปลาย API Text-to-Video (T2V) และ Image-to-Video (I2V) ที่ทรงพลังสำหรับการรวมที่ไร้รอยต่อ
API T2V ของ Seedance 1.5 Pro ของเราแปลงคำสั่งข้อความเป็นวิดีโอภาพยนตร์ที่สมบูรณ์ด้วยการซิงค์เสียงและภาพพื้นเมือง สร้างฉาก การเคลื่อนไหวกล้อง การกระทำของตัวละคร และบทสนทนาในการเรียก API Text-to-Video ครั้งเดียว
API I2V ของ Seedance 1.5 Pro ของเราทำให้ภาพนิ่งมีชีวิตด้วยการเคลื่อนไหว การเคลื่อนไหวกล้อง และเสียงที่ซิงค์ API Image-to-Video มีการควบคุมเฟรมขั้นสูงเพื่อกำหนดจุดเริ่มต้นและจุดสิ้นสุดที่แม่นยำสำหรับแอนิเมชันของคุณ
ทั้งโหมด API T2V และ I2V รองรับสถาปัตยกรรม RESTful พร้อมเอกสารที่ครอบคลุม เริ่มต้นในไม่กี่นาทีด้วย SDK สำหรับ Python, Node.js และอื่นๆ จุดปลาย API Seedance 1.5 Pro ทั้งหมดรวมการสร้างเสียงอัตโนมัติพร้อมการซิงค์ริมฝีปากระดับหน่วยเสียงเพื่อการสร้างวิดีโอที่ไร้รอยต่อ
เริ่มสร้างวิดีโอในไม่กี่นาทีด้วยสองเส้นทางง่ายๆ
สำหรับนักพัฒนาที่สร้างแอปพลิเคชัน
สร้างบัญชี Atlas Cloud ของคุณหรือเข้าสู่ระบบเพื่อเข้าถึงคอนโซล
ผูกบัตรเครดิตของคุณในส่วนการเรียกเก็บเงินเพื่อเติมเงินบัญชีของคุณ
ไปที่คอนโซล → คีย์ API และสร้างคีย์การตรวจสอบสิทธิ์ของคุณ
ใช้คีย์ API เพื่อทำคำขอและรวม SeeDANCE เข้ากับแอปพลิเคชันของคุณ
สำหรับการทดสอบและการทดลองอย่างรวดเร็ว
สร้างบัญชี Atlas Cloud ของคุณหรือเข้าสู่ระบบเพื่อเข้าถึงแพลตฟอร์ม
ผูกบัตรเครดิตของคุณในส่วนการเรียกเก็บเงินเพื่อเริ่มต้น
ไปที่ playground ของโมเดล ป้อนคำสั่งของคุณ และสร้างวิดีโอทันทีด้วยอินเทอร์เฟซที่ใช้งานง่าย
ไม่เหมือนโมเดลอื่นที่สร้างวิดีโอก่อนแล้วจึงเพิ่มเสียงในภายหลัง Seedance 1.5 Pro ใช้สถาปัตยกรรมแบบแขนงคู่เพื่อสร้างทั้งสองอย่างพร้อมกัน สิ่งนี้รับประกันการซิงค์ที่สมบูรณ์แบบตั้งแต่เริ่มต้น ด้วยความแม่นยำของการซิงค์ริมฝีปากระดับหน่วยเสียงในทุกภาษาที่รองรับ
แม้ว่า Wan 2.6 จะรองรับความยาวที่ยาวขึ้น (ถึง 15 วินาที) และการเรนเดอร์ข้อความ Seedance 1.5 Pro ก็โดดเด่นในการควบคุมกล้องแบบภาพยนตร์ การรองรับหลายภาษา/ภาษาถิ่นด้วยเสียงเชิงพื้นที่ และการเคลื่อนไหวที่แม่นยำทางฟิสิกส์ เลือกตามความต้องการของคุณ: Seedance สำหรับการเล่าเรื่องและเนื้อหาหลายภาษา Wan สำหรับการสาธิตผลิตภัณฑ์พร้อมข้อความ
Seedance 1.5 Pro สร้างวิดีโอ 1080p พื้นเมืองที่ 24fps อัตราส่วนภาพที่รองรับรวมถึง 16:9, 9:16, 4:3, 3:4, 1:1 และ 21:9 ความยาวอยู่ในช่วง 4-12 วินาที โดยมีความยาวอัจฉริยะที่ช่วยให้โมเดลเลือกความยาวที่เหมาะสมโดยอัตโนมัติ
Seedance 1.5 Pro รองรับกว่า 8 ภาษา ได้แก่ อังกฤษ จีนกลาง ญี่ปุ่น เกาหลี สเปน โปรตุเกส อินโดนีเซีย และภาษาถิ่นจีนเช่นกวางตุ้งและเสฉวน แต่ละภาษามีการซิงค์ริมฝีปากที่แม่นยำและการออกเสียงที่เป็นธรรมชาติ
ได้! Seedance เข้าใจไวยากรณ์ภาพยนตร์ทางเทคนิค คุณสามารถระบุเทคนิคกล้องได้เช่น "Dolly Zoom บนวัตถุ" (เอฟเฟกต์ Hitchcock) ภาพติดตาม ภาพระยะใกล้ หรือภาพกว้าง โมเดลจะตีความสิ่งเหล่านี้เพื่อสร้างผลลัพธ์ภาพยนตร์ระดับมืออาชีพ
Text-to-Video สร้างวิดีโอที่สมบูรณ์จากคำสั่งข้อความ Image-to-Video ใช้ "เฟรมแรก" เพื่อล็อกเอกลักษณ์ตัวละครและแสงสว่าง พร้อมการควบคุม "เฟรมสุดท้าย" ตัวเลือกสำหรับการเปลี่ยนผ่านจุดเริ่มต้นและจุดสิ้นสุดที่แม่นยำ ทั้งสองโหมดรองรับการสร้างเสียงอย่างสมบูรณ์
สัมผัสประสบการณ์ประสิทธิภาพ ความน่าเชื่อถือ และการสนับสนุนที่ไม่มีใครเทียบได้สำหรับความต้องการการสร้างวิดีโอ AI ของคุณ
ระบบของเราได้รับการปรับแต่งโดยเฉพาะสำหรับการปรับใช้โมเดล AI เรียกใช้ Seedance 1.5 Pro ด้วยประสิทธิภาพสูงสุดบนโครงสร้างพื้นฐานที่ปรับแต่งสำหรับภาระงาน AI ที่ต้องการมากและการสร้างวิดีโอ
เข้าถึง Seedance 1.5 Pro พร้อมกับโมเดล AI กว่า 300 รายการ (LLM ภาพ วิดีโอ เสียง) ผ่าน API แบบรวมเดียว จัดการความต้องการ AI ทั้งหมดของคุณจากแพลตฟอร์มเดียวด้วยการตรวจสอบสิทธิ์ที่สอดคล้องกัน
ประหยัดได้ถึง 70% เมื่อเทียบกับ AWS ด้วยราคาแบบจ่ายตามการใช้งานที่โปร่งใส ไม่มีค่าธรรมเนียมแอบแฝง ไม่มีข้อผูกมัดขั้นต่ำ—จ่ายเฉพาะสิ่งที่คุณใช้พร้อมส่วนลดตามปริมาณที่มีให้
ข้อมูลและวิดีโอที่สร้างของคุณได้รับการปกป้องด้วยการรับรอง SOC I & II และการปฏิบัติตาม HIPAA ความปลอดภัยระดับองค์กรพร้อมการส่งและจัดเก็บข้อมูลที่เข้ารหัส
ความน่าเชื่อถือระดับองค์กรพร้อมเวลาใช้งานที่รับประกัน 99.9% การสร้างวิดีโอ Seedance 1.5 Pro ของคุณพร้อมใช้งานเสมอสำหรับแอปพลิเคชันการผลิตและเวิร์กโฟลว์ที่สำคัญ
การรวมที่สมบูรณ์ในไม่กี่นาทีผ่าน REST API ที่เรียบง่ายและ SDK หลายภาษา (Python, Node.js, Go) เอกสารที่ครอบคลุมและตัวอย่างโค้ดเพื่อเริ่มต้นอย่างรวดเร็ว
เข้าร่วมกับผู้สร้างภาพยนตร์ ผู้โฆษณา และผู้สร้างสรรค์ทั่วโลกที่กำลังปฏิวัติการสร้างเนื้อหาวิดีโอด้วยเทคโนโลยีล้ำสมัยของ Seedance 1.5 Pro
Seedance 1.5 PRO is a foundational model engineered specifically for native joint audio-visual generation, developed by the ByteDance Seed team. It represents a significant leap forward in transforming video generation into a practical, utility-driven tool. By integrating a dual-branch Diffusion Transformer architecture, the model achieves exceptional audio-visual synchronization and superior generation quality, establishing it as a robust engine for professional-grade content creation.
Seedance 1.5 PRO introduces several key technical advancements that set a new standard for audio-visual content generation.
The model's capabilities were rigorously evaluated against other state-of-the-art video generation models using the comprehensive SeedVideoBench 1.5 framework. Seedance 1.5 PRO demonstrates significant improvements across both video and audio dimensions.
In Text-to-Video (T2V) and Image-to-Video (I2V) tasks, it achieves a leading position in motion quality and instruction following (alignment). The model also shows strong competitiveness in visual aesthetics and motion dynamics. For audio generation, particularly in Chinese-language contexts, Seedance 1.5 PRO consistently outperforms competitors like Veo 3.1, delivering superior audio quality and audio-visual synchronization.
Seedance 1.5 PRO is well-suited for a wide range of professional applications, including: