Accueil
Explorer
Kling Models
kwaivgi/kling-v2.5-turbo-pro/text-to-video
Kling v2.5 Turbo Pro Text-to-video
texte-vers-vidéo
TURBOPRO

Kling v2.5 Turbo Pro Text-to-Video API by Kuaishou

kwaivgi/kling-v2.5-turbo-pro/text-to-video
Text-to-video

Delivers high-speed text-to-video generation with cinematic motion precision and enhanced temporal stability.

Entrée

Chargement de la configuration des paramètres...

Sortie

Inactif
Les vidéos générées apparaîtront ici
Configurez vos paramètres et cliquez sur exécuter pour commencer

Votre requête coûtera $0.06 par exécution. Avec $10, vous pouvez exécuter ce modèle environ 166 fois.

Vous pouvez continuer avec :

Paramètres

Exemple de code

import requests
import time

# Step 1: Start video generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "kwaivgi/kling-v2.5-turbo-pro/text-to-video",
    "prompt": "A beautiful sunset over the ocean with gentle waves",
    "width": 512,
    "height": 512,
    "duration": 3,
    "fps": 24,
}

generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]

# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"

def check_status():
    while True:
        response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
        result = response.json()

        if result["data"]["status"] in ["completed", "succeeded"]:
            print("Generated video:", result["data"]["outputs"][0])
            return result["data"]["outputs"][0]
        elif result["data"]["status"] == "failed":
            raise Exception(result["data"]["error"] or "Generation failed")
        else:
            # Still processing, wait 2 seconds
            time.sleep(2)

video_url = check_status()

Installer

Installez le package requis pour votre langage.

bash
pip install requests

Authentification

Toutes les requêtes API nécessitent une authentification via une clé API. Vous pouvez obtenir votre clé API depuis le tableau de bord Atlas Cloud.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

En-têtes HTTP

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
Protégez votre clé API

N'exposez jamais votre clé API dans du code côté client ou dans des dépôts publics. Utilisez plutôt des variables d'environnement ou un proxy backend.

Soumettre une requête

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "prompt": "A beautiful landscape"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Soumettre une requête

Soumettez une requête de génération asynchrone. L'API renvoie un identifiant de prédiction que vous pouvez utiliser pour vérifier le statut et récupérer le résultat.

POST/api/v1/model/generateVideo

Corps de la requête

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateVideo"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}

data = {
    "model": "kwaivgi/kling-v2.5-turbo-pro/text-to-video",
    "input": {
        "prompt": "A beautiful sunset over the ocean with gentle waves"
    }
}

response = requests.post(url, headers=headers, json=data)
result = response.json()

print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")

Réponse

{
  "id": "pred_abc123",
  "status": "processing",
  "model": "model-name",
  "created_at": "2025-01-01T00:00:00Z"
}

Vérifier le statut

Interrogez le point de terminaison de prédiction pour vérifier le statut actuel de votre requête.

GET/api/v1/model/prediction/{prediction_id}

Exemple d'interrogation

import requests
import time

prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

while True:
    response = requests.get(url, headers=headers)
    result = response.json()
    status = result["data"]["status"]
    print(f"Status: {status}")

    if status in ["completed", "succeeded"]:
        output_url = result["data"]["outputs"][0]
        print(f"Output URL: {output_url}")
        break
    elif status == "failed":
        print(f"Error: {result['data'].get('error', 'Unknown')}")
        break

    time.sleep(3)

Valeurs de statut

processingLa requête est encore en cours de traitement.
completedLa génération est terminée. Les résultats sont disponibles.
succeededLa génération a réussi. Les résultats sont disponibles.
failedLa génération a échoué. Vérifiez le champ d'erreur.

Réponse terminée

{
  "data": {
    "id": "pred_abc123",
    "status": "completed",
    "outputs": [
      "https://storage.atlascloud.ai/outputs/result.mp4"
    ],
    "metrics": {
      "predict_time": 45.2
    },
    "created_at": "2025-01-01T00:00:00Z",
    "completed_at": "2025-01-01T00:00:10Z"
  }
}

Télécharger des fichiers

Téléchargez des fichiers vers le stockage Atlas Cloud et obtenez une URL utilisable dans vos requêtes API. Utilisez multipart/form-data pour le téléchargement.

POST/api/v1/model/uploadMedia

Exemple de téléchargement

import requests

url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

with open("image.png", "rb") as f:
    files = {"file": ("image.png", f, "image/png")}
    response = requests.post(url, headers=headers, files=files)

result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")

Réponse

{
  "data": {
    "download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
    "file_name": "image.png",
    "content_type": "image/png",
    "size": 1024000
  }
}

Schema d'entrée

Les paramètres suivants sont acceptés dans le corps de la requête.

Total: 0Requis: 0Optionnel: 0

Aucun paramètre disponible.

Exemple de corps de requête

json
{
  "model": "kwaivgi/kling-v2.5-turbo-pro/text-to-video"
}

Schema de sortie

L'API renvoie une réponse de prédiction avec les URL des résultats générés.

idstringrequired
Unique identifier for the prediction.
statusstringrequired
Current status of the prediction.
processingcompletedsucceededfailed
modelstringrequired
The model used for generation.
outputsarray[string]
Array of output URLs. Available when status is "completed".
errorstring
Error message if status is "failed".
metricsobject
Performance metrics.
predict_timenumber
Time taken for video generation in seconds.
created_atstringrequired
ISO 8601 timestamp when the prediction was created.
Format: date-time
completed_atstring
ISO 8601 timestamp when the prediction was completed.
Format: date-time

Exemple de réponse

json
{
  "id": "pred_abc123",
  "status": "completed",
  "model": "model-name",
  "outputs": [
    "https://storage.atlascloud.ai/outputs/result.mp4"
  ],
  "metrics": {
    "predict_time": 45.2
  },
  "created_at": "2025-01-01T00:00:00Z",
  "completed_at": "2025-01-01T00:00:10Z"
}

Atlas Cloud Skills

Atlas Cloud Skills intègre plus de 300 modèles d'IA directement dans votre assistant de codage IA. Une seule commande pour installer, puis utilisez le langage naturel pour générer des images, des vidéos et discuter avec des LLM.

Clients pris en charge

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ clients pris en charge

Installer

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

Configurer la clé API

Obtenez votre clé API depuis le tableau de bord Atlas Cloud et définissez-la comme variable d'environnement.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Fonctionnalités

Une fois installé, vous pouvez utiliser le langage naturel dans votre assistant IA pour accéder à tous les modèles Atlas Cloud.

Génération d'imagesGénérez des images avec des modèles comme Nano Banana 2, Z-Image, et plus encore.
Création de vidéosCréez des vidéos à partir de texte ou d'images avec Kling, Vidu, Veo, etc.
Chat LLMDiscutez avec Qwen, DeepSeek et d'autres grands modèles de langage.
Téléchargement de médiasTéléchargez des fichiers locaux pour l'édition d'images et les workflows image-vers-vidéo.

Serveur MCP

Le serveur MCP Atlas Cloud connecte votre IDE avec plus de 300 modèles d'IA via le Model Context Protocol. Compatible avec tout client compatible MCP.

Clients pris en charge

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ clients pris en charge

Installer

bash
npx -y atlascloud-mcp

Configuration

Ajoutez la configuration suivante au fichier de paramètres MCP de votre IDE.

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

Outils disponibles

atlas_generate_imageGénérez des images à partir de prompts textuels.
atlas_generate_videoCréez des vidéos à partir de texte ou d'images.
atlas_chatDiscutez avec de grands modèles de langage.
atlas_list_modelsParcourez plus de 300 modèles d'IA disponibles.
atlas_quick_generateCréation de contenu en une étape avec sélection automatique du modèle.
atlas_upload_mediaTéléchargez des fichiers locaux pour les workflows API.

Schéma API

Schéma non disponible

Veuillez vous connecter pour voir l'historique des requêtes

Vous devez vous connecter pour accéder à l'historique de vos requêtes de modèle.

Se Connecter

Kling 2.5 Turbo Pro (Text-to-Video)

Kling 2.5 Turbo Pro is an advanced text-to-video model that produces ultra-smooth motion, cinematic visuals, and accurate prompt adherence.

Its improved dynamic processing and text-to-motion control allow for seamless transitions while maintaining style fidelity across various looks.

What makes it different?

  • Enhanced multi-step instruction understanding A new text-and-timing controller processes multi-step prompts to transform static inputs into coherent, controllable narrative scenes.

  • High-motion quality and stability Better training and data balance create realistic dynamics, enabling quick and complex movements with fewer artifacts like jitter, tearing, or frame drops.

  • Faster inference Optimized pipelines reduce end-to-end delay, providing faster delivery of high-quality results without compromising visual fidelity.

  • Consistent style Enhanced style conditioning preserves the reference look (palette, lighting, brushwork, mood), ensuring frames stay consistent - even during dynamic scenes.

Designed for

  • Marketing & Brand Teams – Produce style-consistent ads, feature demos, and campaign assets fast.
  • Content Creators / YouTubers / Short-form Teams – Improve watch-through with stronger narrative flow and motion.
  • Film/Animation Studios – Use for previz, technique exploration, and style studies with reliable dynamic consistency.
  • Training & Education – Turn documents into clear, high-resolution explainer videos for scalable distribution.

Pricing

DurationPrice
5s$0.35
10s$0.70

Billing Rules

  • Minimum charge: 5 seconds
  • Per-second rate = (price per 5 seconds) ÷ 5
  • Billed duration = video length in seconds (rounded up), with a 5-second minimum
  • Total cost = billed duration × per-second rate (by output resolution)

How to use

  1. Write the prompt – Specify subject, scene, actions, camera movement, and style keywords; include multi-step/causal logic if needed.

  2. Choose aspect – Match output to your channel and quality targets.

  3. Set duration – Help models understand how long of the result.

  4. Set guidance_scale – Controls how strongly the model follows your prompt. The higher the value, the less creative freedom the model has.

  5. Generate – Leverage accelerated inference to get a first pass quickly.

  6. Review & iterate – Refine timing, angles, or style strength and re-render for final delivery (Set the seed).

Commencez avec Plus de 300 Modèles,

Explorer tous les modèles

Join our Discord community

Join the Discord community for the latest model updates, prompts, and support.