Generates images based on text, supports various artistic styles and realistic photographic effects, and meets diverse creative needs.

Generates images based on text, supports various artistic styles and realistic photographic effects, and meets diverse creative needs.
Your request will cost 0.021 per run. For $10 you can run this model approximately 476 times.
Here's what you can do next:
import requests
import time
# Step 1: Start image generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "alibaba/wan-2.6/text-to-image",
"prompt": "A beautiful landscape with mountains and lake",
"width": 512,
"height": 512,
"steps": 20,
"guidance_scale": 7.5,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] == "completed":
print("Generated image:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
image_url = check_status()Installa il pacchetto richiesto per il tuo linguaggio.
pip install requestsTutte le richieste API richiedono l'autenticazione tramite una chiave API. Puoi ottenere la tua chiave API dalla dashboard di Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}Non esporre mai la tua chiave API nel codice lato client o nei repository pubblici. Utilizza invece variabili d'ambiente o un proxy backend.
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Invia una richiesta di generazione asincrona. L'API restituisce un ID di previsione che puoi usare per controllare lo stato e recuperare il risultato.
/api/v1/model/generateImageimport requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "alibaba/wan-2.6/text-to-image",
"input": {
"prompt": "A beautiful landscape with mountains and lake"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}"){
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}Interroga l'endpoint di previsione per verificare lo stato attuale della tua richiesta.
/api/v1/model/prediction/{prediction_id}import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)processingLa richiesta è ancora in fase di elaborazione.completedLa generazione è completata. I risultati sono disponibili.succeededLa generazione è riuscita. I risultati sono disponibili.failedLa generazione è fallita. Controlla il campo errore.{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Carica file nello storage Atlas Cloud e ottieni un URL utilizzabile nelle tue richieste API. Usa multipart/form-data per il caricamento.
/api/v1/model/uploadMediaimport requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}"){
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}I seguenti parametri sono accettati nel corpo della richiesta.
Nessun parametro disponibile.
{
"model": "alibaba/wan-2.6/text-to-image"
}L'API restituisce una risposta di previsione con gli URL degli output generati.
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills integra oltre 300 modelli di IA direttamente nel tuo assistente di codifica IA. Un comando per installare, poi usa il linguaggio naturale per generare immagini, video e chattare con LLM.
npx skills add AtlasCloudAI/atlas-cloud-skillsOttieni la tua chiave API dalla dashboard di Atlas Cloud e impostala come variabile d'ambiente.
export ATLASCLOUD_API_KEY="your-api-key-here"Una volta installato, puoi usare il linguaggio naturale nel tuo assistente IA per accedere a tutti i modelli Atlas Cloud.
Il server MCP di Atlas Cloud collega il tuo IDE con oltre 300 modelli di IA tramite il Model Context Protocol. Funziona con qualsiasi client compatibile MCP.
npx -y atlascloud-mcpAggiungi la seguente configurazione al file delle impostazioni MCP del tuo IDE.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Schema not availableYou need to be logged in to access your model request history.
Log InL'ultimo progresso di Alibaba nella generazione video con IA. Crea video 1080p fino a 15 secondi con narrazione multi-inquadrature, coerenza dei personaggi guidata da riferimenti e sincronizzazione audiovisiva nativa. Il primo modello a comprendere veramente la logica dello storyboard per narrative cinematografiche.
Cosa rende Wan 2.6 il game-changer nella generazione video con IA
Primo modello a comprendere la logica dello storyboard. Genera automaticamente inquadrature sequenziali con transizioni coerenti, mantenendo l'aspetto del personaggio e la coerenza ambientale attraverso i cambi di scena—consentendo archi narrativi completi in un'unica generazione di 15 secondi.
Carica un video di riferimento di 2-30 secondi per estrarre e preservare l'aspetto del personaggio, i pattern di movimento e le caratteristiche vocali. Crea performance di personaggi coerenti su più video con precisione senza precedenti.
Capacità di rendering testo leader del settore per packaging prodotti, segnaletica e contenuti di brand. Genera testo chiaro e leggibile all'interno dei frame video—essenziale per applicazioni marketing e commerciali.
Genera fino a 15 secondi per video con struttura completa in "Tre Atti" (Esposizione → Azione → Risoluzione)
Output nativo 1080p a 24fps con qualità cinematografica e stabilità visiva migliorata
Il dialogo corrisponde ai movimenti delle labbra, la musica di sottofondo si allinea al ritmo, gli effetti sonori si attivano perfettamente
Mantieni aspetto, costumi e identità dei personaggi attraverso inquadrature e più video
Movimenti di camera professionali inclusi panoramiche, zoom, riprese di inseguimento e movimenti dolly
16:9 (YouTube), 9:16 (Reels), 1:1 (Quadrato) - ottimizzato per le piattaforme senza ritaglio in post-produzione
Scopri le novità nell'ultimo rilascio
Scegli la modalità giusta per il tuo flusso di lavoro creativo
Genera video completi da prompt testuali con segmentazione multi-inquadrature migliorata e gestione prompt perfezionata. Perfetto per storytelling ed esplorazione creativa.
Trasforma immagini statiche in video in movimento con coerenza del movimento migliorata. Ideale per vetrine prodotti, animazione foto e storytelling visivo.
Carica un video di riferimento (2-30s) per preservare aspetto del personaggio, pattern di movimento e voce. La garanzia di coerenza più forte per contenuti guidati dai personaggi.
Demo prodotti con rendering testo, campagne di brand con coerenza personaggi e video promozionali
Video YouTube, reel social media, storytelling multi-inquadrature e flussi di lavoro editing video
Vetrine prodotti con testo preciso, video tutorial e ricreazione testimonianze clienti
Contenuti didattici, materiali di corso e narrative educative multi-scena
Cortometraggi, storie guidate dai personaggi, sequenze cinematografiche ed esperimenti creativi
Sviluppo concetti cinematografici, creazione storyboard e pianificazione scene per produzioni
Suite API completa per generazione Testo a Video, Immagine a Video e Riferimento a Video
La nostra API Wan 2.6 T2V trasforma prompt testuali in video cinematografici multi-inquadrature con segmentazione automatica delle scene. Genera video professionali 1080p fino a 15 secondi con sincronizzazione audio nativa.
La nostra API Wan 2.6 I2V dà vita alle immagini statiche con controllo del movimento preciso e rendering testo. Perfetto per video prodotti, animazione foto e creazione contenuti di brand.
La nostra API Wan 2.6 R2V preserva l'identità del personaggio da video di riferimento. Carica clip di 2-30 secondi per estrarre aspetto, voce e pattern di movimento per generazione personaggi coerente.
Tutte e tre le modalità API Wan 2.6 (T2V API, I2V API, R2V API) supportano architettura RESTful con documentazione completa. Inizia con SDK per Python, Node.js e altro. Ogni endpoint include sincronizzazione audiovisiva nativa e diritti di uso commerciale completi.
Inizia a creare video professionali in pochi minuti con due percorsi semplici
Per sviluppatori che costruiscono applicazioni
Crea il tuo account Atlas Cloud o accedi per accedere alla console
Collega la tua carta di credito nella sezione Fatturazione per finanziare il tuo account
Vai a Console → Chiavi API e crea la tua chiave di autenticazione
Usa gli endpoint API T2V, I2V o R2V per integrare Wan 2.6 nella tua applicazione
Per test rapidi e sperimentazione
Crea il tuo account Atlas Cloud o accedi per accedere alla piattaforma
Collega la tua carta di credito nella sezione Fatturazione per iniziare
Vai al playground Wan 2.6, scegli la modalità T2V/I2V/R2V e genera video istantaneamente
Wan 2.6 è il primo modello a comprendere veramente la logica dello storyboard. A differenza di Wan 2.5 che creava effetti di "morphing" disordinati, Wan 2.6 può segmentare automaticamente un singolo prompt in più inquadrature distinte con transizioni coerenti, mantenendo la coerenza dei personaggi attraverso i cambi di scena.
Carica un video di riferimento di 2-30 secondi, e Wan 2.6 estrae l'aspetto del personaggio, i pattern di movimento e le caratteristiche vocali. Puoi quindi generare nuovi video con lo stesso personaggio con identità coerente—ideale per creare serie di contenuti guidati dai personaggi.
Wan 2.6 genera video 1080p a 24fps con durate da 5 a 15 secondi. I rapporti di aspetto supportati includono 16:9 (YouTube), 9:16 (Instagram Reels/TikTok) e 1:1 (formato quadrato), ottimizzati per ogni piattaforma senza richiedere ritaglio in post-produzione.
Sì! Wan 2.6 dispone di rendering testo leader del settore per packaging prodotti, segnaletica e contenuti di brand. Il modello può generare testo chiaro e leggibile all'interno dei frame video—una caratteristica critica che Seedance e la maggior parte dei concorrenti non hanno.
T2V (Testo a Video) genera da prompt testuali con capacità multi-inquadrature. I2V (Immagine a Video) anima immagini statiche con rendering testo preciso. R2V (Riferimento a Video) usa riferimenti video per preservare l'identità del personaggio tra le generazioni. Scegli in base al tuo tipo di input e alle esigenze di coerenza.
Sì! Ogni creazione Wan 2.6 viene fornita con diritti di uso commerciale completi. I video sono pronti per la produzione per campagne marketing, deliverable clienti, contenuti di brand e applicazioni commerciali senza requisiti di licenza aggiuntivi.
Sfrutta l'infrastruttura di livello enterprise per i tuoi flussi di lavoro professionali di generazione video
Implementa la generazione multi-inquadrature e le capacità R2V di Wan 2.6 su infrastruttura specificamente ottimizzata per carichi di lavoro video AI impegnativi. Massime prestazioni per generazione 1080p di 15 secondi.
Accedi a Wan 2.6 (T2V, I2V, R2V) insieme a oltre 300 modelli AI (LLM, immagine, video, audio) tramite un'API unificata. Integrazione singola per tutte le tue esigenze di IA generativa con autenticazione coerente.
Risparmia fino al 70% rispetto ad AWS con prezzi trasparenti pay-as-you-go. Nessun costo nascosto, nessun impegno—scala dal prototipo alla produzione senza svuotare il portafoglio.
I tuoi video di riferimento e contenuti generati protetti con certificazioni SOC I & II e conformità HIPAA. Sicurezza di livello enterprise con trasmissione e archiviazione crittografate.
Affidabilità di livello enterprise con garanzia di uptime 99,9%. La tua generazione video multi-inquadrature Wan 2.6 è sempre disponibile per campagne di produzione e flussi di lavoro di contenuti critici.
Integrazione completa in pochi minuti con API REST e SDK multi-linguaggio (Python, Node.js, Go). Passa tra modalità T2V, I2V e R2V senza problemi con struttura endpoint unificata.
Unisciti a creatori di contenuti, marketer e cineasti in tutto il mondo che stanno rivoluzionando la produzione video con le capacità rivoluzionarie di storytelling multi-inquadrature e coerenza dei personaggi di Wan 2.6.
Alibaba WAN 2.6 is a cutting-edge text-to-image model on Alibaba Cloud’s DashScope. It generates high-quality, detailed images directly from text prompts and supports multiple output resolutions. The Tongyi Wanxiang text-to-image model generates images based on text, supporting various artistic styles and realistic photography effects to meet diverse creative needs.