alibaba/wan-2.6/text-to-image

Generates images based on text, supports various artistic styles and realistic photographic effects, and meets diverse creative needs.

TEXT-TO-IMAGEHOTNEW
Wan-2.6 Text-to-image
texte-vers-image

Generates images based on text, supports various artistic styles and realistic photographic effects, and meets diverse creative needs.

Entrée

Chargement de la configuration des paramètres...

Sortie

Inactif
Les images générées apparaîtront ici
Configurez vos paramètres et cliquez sur exécuter pour commencer

Votre requête coûtera 0.021 par exécution. Avec $10, vous pouvez exécuter ce modèle environ 476 fois.

Vous pouvez continuer avec :

Paramètres

Exemple de code

import requests
import time

# Step 1: Start image generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "alibaba/wan-2.6/text-to-image",
    "prompt": "A beautiful landscape with mountains and lake",
    "width": 512,
    "height": 512,
    "steps": 20,
    "guidance_scale": 7.5,
}

generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]

# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"

def check_status():
    while True:
        response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
        result = response.json()

        if result["data"]["status"] == "completed":
            print("Generated image:", result["data"]["outputs"][0])
            return result["data"]["outputs"][0]
        elif result["data"]["status"] == "failed":
            raise Exception(result["data"]["error"] or "Generation failed")
        else:
            # Still processing, wait 2 seconds
            time.sleep(2)

image_url = check_status()

Installer

Installez le package requis pour votre langage.

bash
pip install requests

Authentification

Toutes les requêtes API nécessitent une authentification via une clé API. Vous pouvez obtenir votre clé API depuis le tableau de bord Atlas Cloud.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

En-têtes HTTP

python
import os

API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
    "Content-Type": "application/json",
    "Authorization": f"Bearer {API_KEY}"
}
Protégez votre clé API

N'exposez jamais votre clé API dans du code côté client ou dans des dépôts publics. Utilisez plutôt des variables d'environnement ou un proxy backend.

Soumettre une requête

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
    "model": "your-model",
    "prompt": "A beautiful landscape"
}

response = requests.post(url, headers=headers, json=data)
print(response.json())

Soumettre une requête

Soumettez une requête de génération asynchrone. L'API renvoie un identifiant de prédiction que vous pouvez utiliser pour vérifier le statut et récupérer le résultat.

POST/api/v1/model/generateImage

Corps de la requête

import requests

url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
    "Content-Type": "application/json",
    "Authorization": "Bearer $ATLASCLOUD_API_KEY"
}

data = {
    "model": "alibaba/wan-2.6/text-to-image",
    "input": {
        "prompt": "A beautiful landscape with mountains and lake"
    }
}

response = requests.post(url, headers=headers, json=data)
result = response.json()

print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}")

Réponse

{
  "id": "pred_abc123",
  "status": "processing",
  "model": "model-name",
  "created_at": "2025-01-01T00:00:00Z"
}

Vérifier le statut

Interrogez le point de terminaison de prédiction pour vérifier le statut actuel de votre requête.

GET/api/v1/model/prediction/{prediction_id}

Exemple d'interrogation

import requests
import time

prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

while True:
    response = requests.get(url, headers=headers)
    result = response.json()
    status = result["data"]["status"]
    print(f"Status: {status}")

    if status in ["completed", "succeeded"]:
        output_url = result["data"]["outputs"][0]
        print(f"Output URL: {output_url}")
        break
    elif status == "failed":
        print(f"Error: {result['data'].get('error', 'Unknown')}")
        break

    time.sleep(3)

Valeurs de statut

processingLa requête est encore en cours de traitement.
completedLa génération est terminée. Les résultats sont disponibles.
succeededLa génération a réussi. Les résultats sont disponibles.
failedLa génération a échoué. Vérifiez le champ d'erreur.

Réponse terminée

{
  "data": {
    "id": "pred_abc123",
    "status": "completed",
    "outputs": [
      "https://storage.atlascloud.ai/outputs/result.png"
    ],
    "metrics": {
      "predict_time": 8.3
    },
    "created_at": "2025-01-01T00:00:00Z",
    "completed_at": "2025-01-01T00:00:10Z"
  }
}

Télécharger des fichiers

Téléchargez des fichiers vers le stockage Atlas Cloud et obtenez une URL utilisable dans vos requêtes API. Utilisez multipart/form-data pour le téléchargement.

POST/api/v1/model/uploadMedia

Exemple de téléchargement

import requests

url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }

with open("image.png", "rb") as f:
    files = {"file": ("image.png", f, "image/png")}
    response = requests.post(url, headers=headers, files=files)

result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}")

Réponse

{
  "data": {
    "download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
    "file_name": "image.png",
    "content_type": "image/png",
    "size": 1024000
  }
}

Schema d'entrée

Les paramètres suivants sont acceptés dans le corps de la requête.

Total: 0Requis: 0Optionnel: 0

Aucun paramètre disponible.

Exemple de corps de requête

json
{
  "model": "alibaba/wan-2.6/text-to-image"
}

Schema de sortie

L'API renvoie une réponse de prédiction avec les URL des résultats générés.

idstringrequired
Unique identifier for the prediction.
statusstringrequired
Current status of the prediction.
processingcompletedsucceededfailed
modelstringrequired
The model used for generation.
outputsarray[string]
Array of output URLs. Available when status is "completed".
errorstring
Error message if status is "failed".
metricsobject
Performance metrics.
predict_timenumber
Time taken for image generation in seconds.
created_atstringrequired
ISO 8601 timestamp when the prediction was created.
Format: date-time
completed_atstring
ISO 8601 timestamp when the prediction was completed.
Format: date-time

Exemple de réponse

json
{
  "id": "pred_abc123",
  "status": "completed",
  "model": "model-name",
  "outputs": [
    "https://storage.atlascloud.ai/outputs/result.png"
  ],
  "metrics": {
    "predict_time": 8.3
  },
  "created_at": "2025-01-01T00:00:00Z",
  "completed_at": "2025-01-01T00:00:10Z"
}

Atlas Cloud Skills

Atlas Cloud Skills intègre plus de 300 modèles d'IA directement dans votre assistant de codage IA. Une seule commande pour installer, puis utilisez le langage naturel pour générer des images, des vidéos et discuter avec des LLM.

Clients pris en charge

Claude Code
OpenAI Codex
Gemini CLI
Cursor
Windsurf
VS Code
Trae
GitHub Copilot
Cline
Roo Code
Amp
Goose
Replit
40+ clients pris en charge

Installer

bash
npx skills add AtlasCloudAI/atlas-cloud-skills

Configurer la clé API

Obtenez votre clé API depuis le tableau de bord Atlas Cloud et définissez-la comme variable d'environnement.

bash
export ATLASCLOUD_API_KEY="your-api-key-here"

Fonctionnalités

Une fois installé, vous pouvez utiliser le langage naturel dans votre assistant IA pour accéder à tous les modèles Atlas Cloud.

Génération d'imagesGénérez des images avec des modèles comme Nano Banana 2, Z-Image, et plus encore.
Création de vidéosCréez des vidéos à partir de texte ou d'images avec Kling, Vidu, Veo, etc.
Chat LLMDiscutez avec Qwen, DeepSeek et d'autres grands modèles de langage.
Téléchargement de médiasTéléchargez des fichiers locaux pour l'édition d'images et les workflows image-vers-vidéo.

Serveur MCP

Le serveur MCP Atlas Cloud connecte votre IDE avec plus de 300 modèles d'IA via le Model Context Protocol. Compatible avec tout client compatible MCP.

Clients pris en charge

Cursor
VS Code
Windsurf
Claude Code
OpenAI Codex
Gemini CLI
Cline
Roo Code
100+ clients pris en charge

Installer

bash
npx -y atlascloud-mcp

Configuration

Ajoutez la configuration suivante au fichier de paramètres MCP de votre IDE.

json
{
  "mcpServers": {
    "atlascloud": {
      "command": "npx",
      "args": [
        "-y",
        "atlascloud-mcp"
      ],
      "env": {
        "ATLASCLOUD_API_KEY": "your-api-key-here"
      }
    }
  }
}

Outils disponibles

atlas_generate_imageGénérez des images à partir de prompts textuels.
atlas_generate_videoCréez des vidéos à partir de texte ou d'images.
atlas_chatDiscutez avec de grands modèles de langage.
atlas_list_modelsParcourez plus de 300 modèles d'IA disponibles.
atlas_quick_generateCréation de contenu en une étape avec sélection automatique du modèle.
atlas_upload_mediaTéléchargez des fichiers locaux pour les workflows API.

Schéma API

Schéma non disponible

Veuillez vous connecter pour voir l'historique des requêtes

Vous devez vous connecter pour accéder à l'historique de vos requêtes de modèle.

Se Connecter
🎬GÉNÉRATION VIDÉO MULTI-PLANS

Wan 2.6Création Vidéo IA Multi-Plans Professionnelle

La dernière avancée d'Alibaba en génération vidéo par IA. Créez des vidéos 1080p jusqu'à 15 secondes avec narration multi-plans, cohérence des personnages guidée par référence et synchronisation audiovisuelle native. Le premier modèle à véritablement comprendre la logique du storyboard pour des récits cinématographiques.

Percées Révolutionnaires

Ce qui fait de Wan 2.6 le changeur de jeu dans la génération vidéo par IA

Narration Multi-Plans

Premier modèle à comprendre la logique du storyboard. Génère automatiquement des plans séquentiels avec des transitions cohérentes, maintenant l'apparence du personnage et la cohérence de l'environnement à travers les changements de scène—permettant des arcs narratifs complets en une seule génération de 15 secondes.

Référence vers Vidéo (R2V)

Téléchargez une vidéo de référence de 2-30 secondes pour extraire et préserver l'apparence du personnage, les motifs de mouvement et les caractéristiques vocales. Créez des performances de personnages cohérentes sur plusieurs vidéos avec une précision sans précédent.

Rendu de Texte Précis

Capacités de rendu de texte leaders de l'industrie pour l'emballage de produits, la signalisation et le contenu de marque. Génère un texte clair et lisible dans les images vidéo—essentiel pour les applications marketing et commerciales.

Capacités Principales

Durée Étendue de 15 Secondes

Générez jusqu'à 15 secondes par vidéo avec structure complète en "Trois Actes" (Exposition → Action → Résolution)

Qualité Professionnelle 1080p

Sortie native 1080p à 24fps avec qualité cinématographique et stabilité visuelle améliorée

Synchronisation Audio Native

Le dialogue correspond aux mouvements des lèvres, la musique de fond s'aligne sur le rythme, les effets sonores se déclenchent parfaitement

Cohérence des Personnages

Maintenez l'apparence, les costumes et l'identité des personnages à travers les plans et plusieurs vidéos

Contrôle Caméra Cinématographique

Mouvements de caméra professionnels incluant panoramiques, zooms, plans de suivi et mouvements de dolly

Formats d'Image Flexibles

16:9 (YouTube), 9:16 (Reels), 1:1 (Carré) - optimisé pour les plateformes sans recadrage en post-production

Wan 2.6 vs Wan 2.5 : Améliorations Majeures

Découvrez les nouveautés de la dernière version

Durée Vidéo
Jusqu'à 15 secondes
Wan 2.5 : Maximum 10 secondes
Capacité Multi-Plans
Comprend la logique du storyboard
Wan 2.5 : Plan unique ou morphing désordonné
Support Vidéo de Référence
Mode R2V avec préservation complète
Wan 2.5 : Référence image uniquement
Cohérence des Personnages
Excellente entre les plans
Wan 2.5 : Problèmes de dérive des personnages
Stabilité du Mouvement
Réduction des tremblements et artefacts
Wan 2.5 : Dérive d'image occasionnelle
Compréhension des Prompts
Scènes complexes multi-personnages
Wan 2.5 : Génération de scènes basique

Trois Modes de Génération Spécialisés

Choisissez le mode adapté à votre flux de travail créatif

Texte vers Vidéo (T2V)

Le Plus Populaire

Générez des vidéos complètes à partir de prompts texte avec segmentation multi-plans améliorée et traitement de prompts perfectionné. Parfait pour la narration et l'exploration créative.

  • Segmentation automatique des plans à partir d'un seul prompt
  • Compréhension de l'interaction multi-personnages
  • Mouvement de caméra et indices émotionnels
  • Préservation des détails environnementaux

Image vers Vidéo (I2V)

Amélioré

Transformez des images fixes en vidéos animées avec cohérence de mouvement améliorée. Idéal pour les vitrines de produits, l'animation de photos et la narration visuelle.

  • Rendu de texte précis pour les produits
  • Cohérence de style entre les images
  • Mouvement naturel à partir d'images fixes
  • Optimisation visuelle guidée par le récit

Référence vers Vidéo (R2V)

NOUVEAU

Téléchargez une vidéo de référence (2-30s) pour préserver l'apparence du personnage, les motifs de mouvement et la voix. La garantie de cohérence la plus forte pour le contenu axé sur les personnages.

  • Préservation complète de l'identité du personnage
  • Extraction des caractéristiques vocales
  • Réplication des motifs de mouvement
  • Scènes de co-action multi-personnages

Parfait Pour

Marketing et Publicité

Démos de produits avec rendu de texte, campagnes de marque avec cohérence des personnages et vidéos promotionnelles

Création de Contenu

Vidéos YouTube, reels de réseaux sociaux, narration multi-plans et flux de travail de montage vidéo

E-commerce

Vitrines de produits avec texte précis, vidéos tutoriels et recréation de témoignages clients

Éducation et Formation

Contenu pédagogique, matériel de cours et récits éducatifs multi-scènes

Divertissement

Courts métrages, histoires axées sur les personnages, séquences cinématographiques et expériences créatives

Pré-visualisation

Développement de concepts cinématographiques, création de storyboards et planification de scènes pour les productions

Intégration API Wan 2.6 T2V, I2V et R2V

Suite API complète pour la génération Texte vers Vidéo, Image vers Vidéo et Référence vers Vidéo

API Texte vers Vidéo (T2V API)

Notre API Wan 2.6 T2V transforme les prompts texte en vidéos cinématographiques multi-plans avec segmentation automatique de scènes. Générez des vidéos professionnelles 1080p jusqu'à 15 secondes avec synchronisation audio native.

Narration multi-plans à partir d'un seul prompt
Durée de 15 secondes avec structure en Trois Actes
Compréhension améliorée des prompts pour scènes complexes
Formats d'image flexibles : 16:9, 9:16, 1:1

API Image vers Vidéo (I2V API)

Notre API Wan 2.6 I2V donne vie aux images fixes avec contrôle de mouvement précis et rendu de texte. Parfait pour les vidéos de produits, l'animation de photos et la création de contenu de marque.

Rendu de texte précis pour produits et signalisation
Cohérence de style dans les images d'animation
Mouvement naturel avec cohérence améliorée
Sortie visuelle optimisée par récit

API Référence vers Vidéo (R2V API)

Notre API Wan 2.6 R2V préserve l'identité du personnage à partir de vidéos de référence. Téléchargez des clips de 2-30 secondes pour extraire l'apparence, la voix et les motifs de mouvement pour une génération de personnages cohérente.

Préservation de l'apparence et de l'identité du personnage
Extraction et réplication des caractéristiques vocales
Analyse et reproduction des motifs de mouvement
Support de scènes multi-personnages
💡

Suite API Complète

Les trois modes API Wan 2.6 (T2V API, I2V API, R2V API) supportent l'architecture RESTful avec documentation complète. Démarrez avec des SDK pour Python, Node.js et plus. Chaque endpoint inclut la synchronisation audiovisuelle native et les droits d'utilisation commerciale complets.

Comment Démarrer avec Wan 2.6

Commencez à créer des vidéos professionnelles en quelques minutes avec deux chemins simples

Intégration API

Pour les développeurs qui construisent des applications

1

Inscrivez-vous et Connectez-vous

Créez votre compte Atlas Cloud ou connectez-vous pour accéder à la console

2

Ajoutez un Moyen de Paiement

Liez votre carte de crédit dans la section Facturation pour approvisionner votre compte

3

Générez une Clé API

Accédez à Console → Clés API et créez votre clé d'authentification

4

Commencez à Construire

Utilisez les endpoints API T2V, I2V ou R2V pour intégrer Wan 2.6 dans votre application

Expérience Playground

Pour les tests rapides et l'expérimentation

1

Inscrivez-vous et Connectez-vous

Créez votre compte Atlas Cloud ou connectez-vous pour accéder à la plateforme

2

Ajoutez un Moyen de Paiement

Liez votre carte de crédit dans la section Facturation pour commencer

3

Utilisez le Playground

Allez dans le playground Wan 2.6, choisissez le mode T2V/I2V/R2V et générez des vidéos instantanément

💡
Conseil Pro : Testez d'abord différents modes de génération dans le Playground pour comprendre lequel fonctionne le mieux pour votre cas d'usage, puis intégrez l'API correspondante pour une échelle de production.

Questions Fréquentes

Qu'est-ce qui rend la capacité multi-plans de Wan 2.6 unique ?

Wan 2.6 est le premier modèle à vraiment comprendre la logique du storyboard. Contrairement à Wan 2.5 qui créait des effets de "morphing" désordonnés, Wan 2.6 peut automatiquement segmenter un seul prompt en plusieurs plans distincts avec des transitions cohérentes, maintenant la cohérence des personnages à travers les changements de scène.

Comment fonctionne Référence vers Vidéo (R2V) ?

Téléchargez une vidéo de référence de 2-30 secondes, et Wan 2.6 extrait l'apparence du personnage, les motifs de mouvement et les caractéristiques vocales. Vous pouvez ensuite générer de nouvelles vidéos mettant en vedette le même personnage avec une identité cohérente—idéal pour créer des séries de contenu axées sur les personnages.

Quels formats et durées vidéo sont supportés ?

Wan 2.6 génère des vidéos 1080p à 24fps avec des durées de 5 à 15 secondes. Les formats d'image supportés incluent 16:9 (YouTube), 9:16 (Instagram Reels/TikTok) et 1:1 (format carré), optimisés pour chaque plateforme sans nécessiter de recadrage en post-production.

Wan 2.6 peut-il rendre du texte dans les vidéos ?

Oui ! Wan 2.6 dispose d'un rendu de texte leader de l'industrie pour l'emballage de produits, la signalisation et le contenu de marque. Le modèle peut générer du texte clair et lisible dans les images vidéo—une caractéristique critique que Seedance et la plupart des concurrents n'ont pas.

Quelle est la différence entre les modes T2V, I2V et R2V ?

T2V (Texte vers Vidéo) génère à partir de prompts texte avec capacité multi-plans. I2V (Image vers Vidéo) anime des images fixes avec rendu de texte précis. R2V (Référence vers Vidéo) utilise des références vidéo pour préserver l'identité du personnage entre les générations. Choisissez selon votre type d'entrée et vos besoins de cohérence.

Ai-je des droits commerciaux sur les vidéos générées ?

Oui ! Chaque création Wan 2.6 vient avec des droits d'utilisation commerciale complets. Les vidéos sont prêtes pour la production pour les campagnes marketing, les livrables clients, le contenu de marque et les applications commerciales sans exigences de licence supplémentaires.

Pourquoi Utiliser Wan 2.6 sur Atlas Cloud ?

Tirez parti d'une infrastructure de niveau entreprise pour vos flux de travail professionnels de génération vidéo

Infrastructure Conçue sur Mesure

Déployez la génération multi-plans et les capacités R2V de Wan 2.6 sur une infrastructure spécifiquement optimisée pour les charges de travail vidéo IA exigeantes. Performance maximale pour la génération 1080p de 15 secondes.

API Unifiée pour Tous les Modèles

Accédez à Wan 2.6 (T2V, I2V, R2V) aux côtés de plus de 300 modèles IA (LLM, image, vidéo, audio) via une API unifiée. Intégration unique pour tous vos besoins en IA générative avec authentification cohérente.

Prix Compétitifs

Économisez jusqu'à 70% par rapport à AWS avec des prix transparents à l'usage. Pas de frais cachés, pas d'engagements—évoluez du prototype à la production sans vous ruiner.

Sécurité Certifiée SOC I & II

Vos vidéos de référence et contenu généré protégés avec certifications SOC I & II et conformité HIPAA. Sécurité de niveau entreprise avec transmission et stockage chiffrés.

SLA de 99,9% de Disponibilité

Fiabilité de niveau entreprise avec garantie de 99,9% de disponibilité. Votre génération vidéo multi-plans Wan 2.6 est toujours disponible pour les campagnes de production et les flux de travail de contenu critiques.

Intégration Facile

Intégration complète en quelques minutes avec API REST et SDK multi-langages (Python, Node.js, Go). Basculez entre les modes T2V, I2V et R2V de manière transparente avec structure d'endpoint unifiée.

99.9%
Disponibilité
70%
Coût Inférieur vs AWS
300+
Modèles IA Génératives
24/7
Support Pro

Spécifications Techniques

Architecture
Transformer Avancé avec Compréhension Multi-Modale
Resolution
1080p (Full HD)
Frame Rate
24 FPS
Duration
5-15 secondes (selon le mode)
Aspect Ratios
16:9, 9:16, 1:1
Generation Modes
T2V, I2V, R2V
Audio
Synchronisation native avec lip-sync
Commercial Rights
Utilisation commerciale complète incluse

Expérimentez la Génération Vidéo Multi-Plans Professionnelle

Rejoignez les créateurs de contenu, marketeurs et cinéastes du monde entier qui révolutionnent la production vidéo avec les capacités révolutionnaires de narration multi-plans et de cohérence des personnages de Wan 2.6.

Alibaba WAN 2.6 Text-to-Image Model

Alibaba WAN 2.6 is a cutting-edge text-to-image model on Alibaba Cloud’s DashScope. It generates high-quality, detailed images directly from text prompts and supports multiple output resolutions. The Tongyi Wanxiang text-to-image model generates images based on text, supporting various artistic styles and realistic photography effects to meet diverse creative needs.

What makes it stand out?

  • High Fidelity: Wan 2.6 produces crisp, detailed images that capture complex scene descriptions and artistic styles.
  • Creative Flexibility: From product design mockups to character art, Wan 2.6 supports diverse use cases and genres.
  • Multiple Styles & Formats: Choose from photo-realistic, anime, sketch, or artistic rendering modes—adaptable to your creative vision.
  • Customizable Size: Easily adjust width and height with simple sliders. Set the exact dimensions you need.

Designed For

  • Design teams: Quick iterations on visuals, product concepts, and campaign mockups.
  • Content creators: Generate unique visuals for blogs, social posts, and digital branding.
  • Storytellers & artists: Visualize characters, scenes, and worlds from simple text prompts.
  • Enterprises: Efficiently produce consistent visuals across marketing, training, and documentation.

Pricing

  • Every image is just cost $0.03!!

Billing Rules

  • Minimum charge: 1 image.
  • Total cost = number of images × price per resolution.

How to Use

  1. Write your prompt.
  2. Submit your request.
  3. Preview and download the generated image.

Commencez avec Plus de 300 Modèles,

Explorer tous les modèles