kwaivgi/kling-v2.6-pro/motion-control

Kling 2.6 Pro Motion Control turns reference motion clips (dance, action, gesture) into smooth, realistic animations. Upload a character image (or source video) and a motion video; the model transfers the movement while preserving identity and temporal consistency.

IMAGE-TO-VIDEONEW
หน้าหลัก
สำรวจ
kwaivgi/kling-v2.6-pro/motion-control
Kling v2.6 Pro Motion Control
ภาพเป็นวิดีโอ
PRO

Kling 2.6 Pro Motion Control turns reference motion clips (dance, action, gesture) into smooth, realistic animations. Upload a character image (or source video) and a motion video; the model transfers the movement while preserving identity and temporal consistency.

อินพุต

กำลังโหลดการตั้งค่าพารามิเตอร์...

เอาต์พุต

รอดำเนินการ
วิดีโอที่สร้างจะแสดงที่นี่
ตั้งค่าพารามิเตอร์แล้วคลิกรันเพื่อเริ่มสร้าง

แต่ละครั้งจะใช้ 0.095 ด้วย $10 คุณสามารถรันได้ประมาณ 105 ครั้ง

คุณสามารถทำต่อได้:

พารามิเตอร์

ตัวอย่างโค้ด

import requests
import time

# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "kwaivgi/kling-v2.6-pro/motion-control",
    "prompt": "A beautiful sunset over the ocean with gentle waves",
    "width": 512,
    "height": 512,
    "duration": 3,
    "fps": 24,
}

generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]

# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"

def check_status():
    while True:
        response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
        result = response.json()

        if result["data"]["status"] in ["completed", "succeeded"]:
            print("Generated video:", result["data"]["outputs"][0])
            return result["data"]["outputs"][0]
        elif result["data"]["status"] == "failed":
            raise Exception(result["data"]["error"] or "Generation failed")
        else:
            # Still processing, wait 2 seconds
            time.sleep(2)

video_url = check_status()

ติดตั้ง

ติดตั้งแพ็คเกจที่จำเป็นสำหรับภาษาของคุณ

bash
pip install requests

การยืนยันตัวตน

คำขอ API ทั้งหมดต้องมีการยืนยันตัวตนผ่าน API key คุณสามารถรับ API key ได้จากแดชบอร์ด Atlas Cloud

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP Headers

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
รักษา API key ของคุณให้ปลอดภัย

อย่าเปิดเผย API key ของคุณในโค้ดฝั่งไคลเอนต์หรือที่เก็บข้อมูลสาธารณะ ให้ใช้ตัวแปรสภาพแวดล้อมหรือพร็อกซีฝั่งเซิร์ฟเวอร์แทน

ส่งคำขอ

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "prompt": "A beautiful landscape"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

ส่งคำขอ

ส่งคำขอสร้างแบบอะซิงโครนัส API จะส่งคืน prediction ID ที่คุณสามารถใช้ตรวจสอบสถานะและดึงผลลัพธ์ได้

POST/api/v1/model/generateVideo

เนื้อหาคำขอ

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}

data = {
    "model": "kwaivgi/kling-v2.6-pro/motion-control",
    "input": {
        "prompt": "A beautiful sunset over the ocean with gentle waves"
    }
}

response = requests.post(url, headers=headers, json=data)
result = response.json()

print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")

การตอบกลับ

{
  "id": "pred_abc123",
  "status": "processing",
  "model": "model-name",
  "created_at": "2025-01-01T00:00:00Z"
}

ตรวจสอบสถานะ

สำรวจ prediction endpoint เพื่อตรวจสอบสถานะปัจจุบันของคำขอ

GET/api/v1/model/prediction/{prediction_id}

ตัวอย่างการสำรวจ

import requests
import time

prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

while True:
    response = requests.get(url, headers=headers)
    result = response.json()
    status = result["data"]["status"]
    print(f"Status: {status}")

    if status in ["completed", "succeeded"]:
        output_url = result["data"]["outputs"][0]
        print(f"Output URL: {output_url}")
        break
    elif status == "failed":
        print(f"Error: {result['data'].get('error', 'Unknown')}")
        break

    time.sleep(3)

ค่าสถานะ

processingคำขอยังอยู่ระหว่างการประมวลผล
completedการสร้างเสร็จสมบูรณ์แล้ว ผลลัพธ์พร้อมใช้งาน
succeededการสร้างสำเร็จแล้ว ผลลัพธ์พร้อมใช้งาน
failedการสร้างล้มเหลว ตรวจสอบฟิลด์ error

การตอบกลับที่เสร็จสมบูรณ์

{
  "data": {
    "id": "pred_abc123",
    "status": "completed",
    "outputs": [
      "https://storage.atlascloud.ai/outputs/result.mp4"
    ],
    "metrics": {
      "predict_time": 45.2
    },
    "created_at": "2025-01-01T00:00:00Z",
    "completed_at": "2025-01-01T00:00:10Z"
  }
}

อัปโหลดไฟล์

อัปโหลดไฟล์ไปยังที่เก็บข้อมูล Atlas Cloud และรับ URL ที่คุณสามารถใช้ในคำขอ API ของคุณ ใช้ multipart/form-data ในการอัปโหลด

POST/api/v1/model/uploadMedia

ตัวอย่างการอัปโหลด

import requests

url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

with open("image.png", "rb") as f:
    files = {"file": ("image.png", f, "image/png")}
    response = requests.post(url, headers=headers, files=files)

result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")

การตอบกลับ

{
  "data": {
    "download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
    "file_name": "image.png",
    "content_type": "image/png",
    "size": 1024000
  }
}

Input Schema

พารามิเตอร์ต่อไปนี้ยอมรับในเนื้อหาคำขอ

ทั้งหมด: 0จำเป็น: 0ไม่บังคับ: 0

ไม่มีพารามิเตอร์ที่ใช้ได้

ตัวอย่างเนื้อหาคำขอ

json
{
  "model": "kwaivgi/kling-v2.6-pro/motion-control"
}

Output Schema

API จะส่งคืนการตอบกลับ prediction พร้อม URL ของผลลัพธ์ที่สร้างขึ้น

idstringrequired
Unique identifier for the prediction.
statusstringrequired
Current status of the prediction.
processingcompletedsucceededfailed
modelstringrequired
The model used for generation.
outputsarray[string]
Array of output URLs. Available when status is "completed".
errorstring
Error message if status is "failed".
metricsobject
Performance metrics.
predict_timenumber
Time taken for video generation in seconds.
created_atstringrequired
ISO 8601 timestamp when the prediction was created.
Format: date-time
completed_atstring
ISO 8601 timestamp when the prediction was completed.
Format: date-time

ตัวอย่างการตอบกลับ

json
{
  "id": "pred_abc123",
  "status": "completed",
  "model": "model-name",
  "outputs": [
    "https://storage.atlascloud.ai/outputs/result.mp4"
  ],
  "metrics": {
    "predict_time": 45.2
  },
  "created_at": "2025-01-01T00:00:00Z",
  "completed_at": "2025-01-01T00:00:10Z"
}

Atlas Cloud Skills

Atlas Cloud Skills เชื่อมต่อโมเดล AI กว่า 300+ เข้ากับผู้ช่วยเขียนโค้ด AI ของคุณโดยตรง ติดตั้งด้วยคำสั่งเดียว จากนั้นใช้ภาษาธรรมชาติเพื่อสร้างรูปภาพ วิดีโอ และสนทนากับ LLM

ไคลเอนต์ที่รองรับ

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ ไคลเอนต์ที่รองรับ

ติดตั้ง

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

ตั้งค่า API Key

รับ API key จากแดชบอร์ด Atlas Cloud และตั้งค่าเป็นตัวแปรสภาพแวดล้อม

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

ความสามารถ

เมื่อติดตั้งแล้ว คุณสามารถใช้ภาษาธรรมชาติในผู้ช่วย AI ของคุณเพื่อเข้าถึงโมเดล Atlas Cloud ทั้งหมด

สร้างรูปภาพสร้างรูปภาพด้วยโมเดลเช่น Nano Banana 2, Z-Image และอื่นๆ
สร้างวิดีโอสร้างวิดีโอจากข้อความหรือรูปภาพด้วย Kling, Vidu, Veo เป็นต้น
สนทนา LLMสนทนากับ Qwen, DeepSeek และโมเดลภาษาขนาดใหญ่อื่นๆ
อัปโหลดสื่ออัปโหลดไฟล์จากเครื่องสำหรับการแก้ไขรูปภาพและเวิร์กโฟลว์รูปภาพเป็นวิดีโอ
เรียนรู้เพิ่มเติม

github.com/AtlasCloudAI/atlas-cloud-skills

MCP Server

Atlas Cloud MCP Server เชื่อมต่อ IDE ของคุณกับโมเดล AI กว่า 300+ ผ่าน Model Context Protocol ใช้งานได้กับไคลเอนต์ที่รองรับ MCP ทุกตัว

ไคลเอนต์ที่รองรับ

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ ไคลเอนต์ที่รองรับ

ติดตั้ง

bash
npx -y atlascloud-mcp

การกำหนดค่า

เพิ่มการกำหนดค่าต่อไปนี้ลงในไฟล์ตั้งค่า MCP ของ IDE ของคุณ

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

เครื่องมือที่ใช้ได้

atlas_generate_imageสร้างรูปภาพจากข้อความ prompt
atlas_generate_videoสร้างวิดีโอจากข้อความหรือรูปภาพ
atlas_chatสนทนากับโมเดลภาษาขนาดใหญ่
atlas_list_modelsเรียกดูโมเดล AI กว่า 300+ ที่ใช้ได้
atlas_quick_generateสร้างเนื้อหาขั้นตอนเดียวพร้อมเลือกโมเดลอัตโนมัติ
atlas_upload_mediaอัปโหลดไฟล์จากเครื่องสำหรับเวิร์กโฟลว์ API
เรียนรู้เพิ่มเติม

github.com/AtlasCloudAI/mcp-server

API Schema

ไม่มี Schema

กรุณาเข้าสู่ระบบเพื่อดูประวัติคำขอ

คุณต้องเข้าสู่ระบบเพื่อเข้าถึงประวัติคำขอโมเดล

เข้าสู่ระบบ

Kling v2.6 Pro Motion Control

Kling v2.6 Pro Motion Control is Kuaishou's advanced motion transfer model that animates a reference image by applying the movement from a reference video. Upload a character image and a motion clip (like a dance or action sequence), and the model extracts the motion path to generate smooth, realistic video where your subject performs those exact movements.

Key capabilities

  • Motion extraction and transfer Upload a 3 to 30-second reference video showing any movement (dance, walk cycle, martial arts, gestures), and the model captures the full motion sequence frame-by-frame to apply it to your image.
  • Full-body motion accuracy The system captures detailed movements including posture, limb positions, and complex actions, ensuring smooth and natural-looking animation even for fast or intricate sequences.
  • Flexible character orientation control Choose whether the final video follows the reference image's aspect ratio and composition ("image" mode) or the reference video's framing ("video" mode), with duration limits adjusted accordingly.
  • Audio preservation option Retain the original audio from your reference video or generate silent output, giving you control over the final soundscape.
  • Prompt-guided refinement Use text prompts to adjust scene details, styling, lighting, and atmosphere while maintaining the core motion transfer from the reference video.

Parameters and how to use

  • image: (required) The reference image showing the subject you want to animate
  • video: (required) The reference video containing the motion sequence to transfer
  • character_orientation: (required) Controls output framing and duration limits
  • prompt: Text description to refine scene details, style, and atmosphere
  • keep_original_sound: Whether to preserve audio from the reference video
  • negative_prompt: Elements to avoid in the generated video

How to use

  • Prompt

Describe the scene setting, visual style, lighting, and atmosphere you want while the motion is being transferred. The model will apply your reference video's movement to your reference image, so focus your prompt on environmental details rather than the action itself.

Example: "cinematic lighting, shallow depth of field, urban street background, golden hour, film grain"

Media requirements

Images

  • Max file size: 10 MB
  • Tip: Use clear, well-lit images showing the full subject for best motion transfer results

Videos

  • Duration limits depend on character_orientation setting (see below)

Other parameters

  • character_orientation – (required) Choose one:

image – Output matches the reference image's framing and composition. video – Output matches the reference video's framing and composition. Reference video can be up to 30 seconds.

  • keep_original_sound – Boolean, defaults to true

true – Preserve audio from the reference video false – Generate silent video output

  • negative_prompt – Optional text to specify unwanted elements like "blurry, distorted, watermark, low quality, flickering". Max 2,500 characters.

After you finish configuring the parameters, click Run, preview the result, and iterate if needed.

Pricing

Duration (s)Billed Duration (s)Total Price (USD)
55$0.560
1010$1.120
1515$1.680
3030$3.360

Notes

Best practices:

  • For complex movements like dance or martial arts, use reference videos between 3 and 10 seconds showing clear, unobstructed motion
  • Ensure your reference image shows the subject in good lighting with minimal occlusion
  • Start with the default settings and use prompts primarily for scene styling rather than motion instructions
  • The model works best when the reference image subject and reference video subject are similar in type (e.g., both human characters)

Use cases:

  • Animate character illustrations with real dance choreography or action sequences
  • Create product demonstration videos by transferring human gestures to animated mascots
  • Generate character performance clips for storyboarding and concept work
  • Produce social media content by applying trending motion clips to custom characters
  • Kling v2.6 Pro Image-to-Video – Generate videos from a single image with prompt-driven motion and optional native audio.
  • Kling v2.6 Pro Text-to-Video – Create videos entirely from text prompts with cinematic visuals and audio–video co-generation.
  • Kling Omni Video O1 Reference-to-Video – Maintain subject identity across frames using multi-reference inputs for character-consistent video generation.

เริ่มต้นจากโมเดลกว่า 300 รายการ

สำรวจโมเดลทั้งหมด