kwaivgi/kling-v2.6-pro/motion-control

Kling 2.6 Pro Motion Control turns reference motion clips (dance, action, gesture) into smooth, realistic animations. Upload a character image (or source video) and a motion video; the model transfers the movement while preserving identity and temporal consistency.

IMAGE-TO-VIDEONEW
ホーム
探索
kwaivgi/kling-v2.6-pro/motion-control
Kling v2.6 Pro Motion Control
画像から動画
PRO

Kling 2.6 Pro Motion Control turns reference motion clips (dance, action, gesture) into smooth, realistic animations. Upload a character image (or source video) and a motion video; the model transfers the movement while preserving identity and temporal consistency.

入力

パラメータ設定を読み込み中...

出力

待機中
生成された動画がここに表示されます
設定を構成して「実行」をクリックして開始

各実行には0.095かかります。$10で約105回実行できます。

パラメータ

コード例

import requests
import time

# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "kwaivgi/kling-v2.6-pro/motion-control",
    "prompt": "A beautiful sunset over the ocean with gentle waves",
    "width": 512,
    "height": 512,
    "duration": 3,
    "fps": 24,
}

generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]

# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"

def check_status():
    while True:
        response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
        result = response.json()

        if result["data"]["status"] in ["completed", "succeeded"]:
            print("Generated video:", result["data"]["outputs"][0])
            return result["data"]["outputs"][0]
        elif result["data"]["status"] == "failed":
            raise Exception(result["data"]["error"] or "Generation failed")
        else:
            # Still processing, wait 2 seconds
            time.sleep(2)

video_url = check_status()

インストール

お使いの言語に必要なパッケージをインストールしてください。

bash
pip install requests

認証

すべての API リクエストには API キーによる認証が必要です。API キーは Atlas Cloud ダッシュボードから取得できます。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

HTTP ヘッダー

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
API キーを安全に保管してください

API キーをクライアントサイドのコードや公開リポジトリに公開しないでください。代わりに環境変数またはバックエンドプロキシを使用してください。

リクエストを送信

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "prompt": "A beautiful landscape"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

リクエストを送信

非同期生成リクエストを送信します。API は予測 ID を返し、それを使用してステータスの確認や結果の取得ができます。

POST/api/v1/model/generateVideo

リクエストボディ

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}

data = {
    "model": "kwaivgi/kling-v2.6-pro/motion-control",
    "input": {
        "prompt": "A beautiful sunset over the ocean with gentle waves"
    }
}

response = requests.post(url, headers=headers, json=data)
result = response.json()

print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")

レスポンス

{
  "id": "pred_abc123",
  "status": "processing",
  "model": "model-name",
  "created_at": "2025-01-01T00:00:00Z"
}

ステータスを確認

予測エンドポイントをポーリングして、リクエストの現在のステータスを確認します。

GET/api/v1/model/prediction/{prediction_id}

ポーリング例

import requests
import time

prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

while True:
    response = requests.get(url, headers=headers)
    result = response.json()
    status = result["data"]["status"]
    print(f"Status: {status}")

    if status in ["completed", "succeeded"]:
        output_url = result["data"]["outputs"][0]
        print(f"Output URL: {output_url}")
        break
    elif status == "failed":
        print(f"Error: {result['data'].get('error', 'Unknown')}")
        break

    time.sleep(3)

ステータス値

processingリクエストはまだ処理中です。
completed生成が完了しました。出力が利用可能です。
succeeded生成が成功しました。出力が利用可能です。
failed生成に失敗しました。エラーフィールドを確認してください。

完了レスポンス

{
  "data": {
    "id": "pred_abc123",
    "status": "completed",
    "outputs": [
      "https://storage.atlascloud.ai/outputs/result.mp4"
    ],
    "metrics": {
      "predict_time": 45.2
    },
    "created_at": "2025-01-01T00:00:00Z",
    "completed_at": "2025-01-01T00:00:10Z"
  }
}

ファイルをアップロード

Atlas Cloud ストレージにファイルをアップロードし、API リクエストで使用できる URL を取得します。multipart/form-data を使用してアップロードします。

POST/api/v1/model/uploadMedia

アップロード例

import requests

url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

with open("image.png", "rb") as f:
    files = {"file": ("image.png", f, "image/png")}
    response = requests.post(url, headers=headers, files=files)

result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")

レスポンス

{
  "data": {
    "download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
    "file_name": "image.png",
    "content_type": "image/png",
    "size": 1024000
  }
}

入力 Schema

以下のパラメータがリクエストボディで使用できます。

合計: 0必須: 0任意: 0

利用可能なパラメータはありません。

リクエストボディの例

json
{
  "model": "kwaivgi/kling-v2.6-pro/motion-control"
}

出力 Schema

API は生成された出力 URL を含む予測レスポンスを返します。

idstringrequired
Unique identifier for the prediction.
statusstringrequired
Current status of the prediction.
processingcompletedsucceededfailed
modelstringrequired
The model used for generation.
outputsarray[string]
Array of output URLs. Available when status is "completed".
errorstring
Error message if status is "failed".
metricsobject
Performance metrics.
predict_timenumber
Time taken for video generation in seconds.
created_atstringrequired
ISO 8601 timestamp when the prediction was created.
Format: date-time
completed_atstring
ISO 8601 timestamp when the prediction was completed.
Format: date-time

レスポンス例

json
{
  "id": "pred_abc123",
  "status": "completed",
  "model": "model-name",
  "outputs": [
    "https://storage.atlascloud.ai/outputs/result.mp4"
  ],
  "metrics": {
    "predict_time": 45.2
  },
  "created_at": "2025-01-01T00:00:00Z",
  "completed_at": "2025-01-01T00:00:10Z"
}

Atlas Cloud Skills

Atlas Cloud Skills は 300 以上の AI モデルを AI コーディングアシスタントに直接統合します。ワンコマンドでインストールし、自然言語で画像・動画生成や LLM との対話が可能です。

対応クライアント

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ 対応クライアント

インストール

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

API キーの設定

Atlas Cloud ダッシュボードから API キーを取得し、環境変数として設定してください。

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

機能

インストール後、AI アシスタントで自然言語を使用してすべての Atlas Cloud モデルにアクセスできます。

画像生成Nano Banana 2、Z-Image などのモデルで画像を生成します。
動画作成Kling、Vidu、Veo などでテキストや画像から動画を作成します。
LLM チャットQwen、DeepSeek などの大規模言語モデルと対話します。
メディアアップロード画像編集や画像から動画へのワークフロー用にローカルファイルをアップロードします。

MCP Server

Atlas Cloud MCP Server は Model Context Protocol を通じて IDE と 300 以上の AI モデルを接続します。MCP 対応のあらゆるクライアントで動作します。

対応クライアント

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ 対応クライアント

インストール

bash
npx -y atlascloud-mcp

設定

以下の設定を IDE の MCP 設定ファイルに追加してください。

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

利用可能なツール

atlas_generate_imageテキストプロンプトから画像を生成します。
atlas_generate_videoテキストや画像から動画を作成します。
atlas_chat大規模言語モデルと対話します。
atlas_list_models300 以上の利用可能な AI モデルを閲覧します。
atlas_quick_generateモデル自動選択によるワンステップコンテンツ作成。
atlas_upload_mediaAPI ワークフロー用にローカルファイルをアップロードします。

APIスキーマ

スキーマが利用できません

リクエスト履歴を表示するにはログインしてください

モデルのリクエスト履歴にアクセスするにはログインが必要です。

ログイン

Kling v2.6 Pro Motion Control

Kling v2.6 Pro Motion Control is Kuaishou's advanced motion transfer model that animates a reference image by applying the movement from a reference video. Upload a character image and a motion clip (like a dance or action sequence), and the model extracts the motion path to generate smooth, realistic video where your subject performs those exact movements.

Key capabilities

  • Motion extraction and transfer Upload a 3 to 30-second reference video showing any movement (dance, walk cycle, martial arts, gestures), and the model captures the full motion sequence frame-by-frame to apply it to your image.
  • Full-body motion accuracy The system captures detailed movements including posture, limb positions, and complex actions, ensuring smooth and natural-looking animation even for fast or intricate sequences.
  • Flexible character orientation control Choose whether the final video follows the reference image's aspect ratio and composition ("image" mode) or the reference video's framing ("video" mode), with duration limits adjusted accordingly.
  • Audio preservation option Retain the original audio from your reference video or generate silent output, giving you control over the final soundscape.
  • Prompt-guided refinement Use text prompts to adjust scene details, styling, lighting, and atmosphere while maintaining the core motion transfer from the reference video.

Parameters and how to use

  • image: (required) The reference image showing the subject you want to animate
  • video: (required) The reference video containing the motion sequence to transfer
  • character_orientation: (required) Controls output framing and duration limits
  • prompt: Text description to refine scene details, style, and atmosphere
  • keep_original_sound: Whether to preserve audio from the reference video
  • negative_prompt: Elements to avoid in the generated video

How to use

  • Prompt

Describe the scene setting, visual style, lighting, and atmosphere you want while the motion is being transferred. The model will apply your reference video's movement to your reference image, so focus your prompt on environmental details rather than the action itself.

Example: "cinematic lighting, shallow depth of field, urban street background, golden hour, film grain"

Media requirements

Images

  • Max file size: 10 MB
  • Tip: Use clear, well-lit images showing the full subject for best motion transfer results

Videos

  • Duration limits depend on character_orientation setting (see below)

Other parameters

  • character_orientation – (required) Choose one:

image – Output matches the reference image's framing and composition. video – Output matches the reference video's framing and composition. Reference video can be up to 30 seconds.

  • keep_original_sound – Boolean, defaults to true

true – Preserve audio from the reference video false – Generate silent video output

  • negative_prompt – Optional text to specify unwanted elements like "blurry, distorted, watermark, low quality, flickering". Max 2,500 characters.

After you finish configuring the parameters, click Run, preview the result, and iterate if needed.

Pricing

Duration (s)Billed Duration (s)Total Price (USD)
55$0.560
1010$1.120
1515$1.680
3030$3.360

Notes

Best practices:

  • For complex movements like dance or martial arts, use reference videos between 3 and 10 seconds showing clear, unobstructed motion
  • Ensure your reference image shows the subject in good lighting with minimal occlusion
  • Start with the default settings and use prompts primarily for scene styling rather than motion instructions
  • The model works best when the reference image subject and reference video subject are similar in type (e.g., both human characters)

Use cases:

  • Animate character illustrations with real dance choreography or action sequences
  • Create product demonstration videos by transferring human gestures to animated mascots
  • Generate character performance clips for storyboarding and concept work
  • Produce social media content by applying trending motion clips to custom characters
  • Kling v2.6 Pro Image-to-Video – Generate videos from a single image with prompt-driven motion and optional native audio.
  • Kling v2.6 Pro Text-to-Video – Create videos entirely from text prompts with cinematic visuals and audio–video co-generation.
  • Kling Omni Video O1 Reference-to-Video – Maintain subject identity across frames using multi-reference inputs for character-consistent video generation.

300以上のモデルから始める、

すべてのモデルを探索