Generates images based on text, supports various artistic styles and realistic photographic effects, and meets diverse creative needs.

Generates images based on text, supports various artistic styles and realistic photographic effects, and meets diverse creative needs.
Każde uruchomienie będzie kosztować 0.021. Za $10 możesz uruchomić ten model około 476 razy.
Co możesz zrobić dalej:
import requests
import time
# Step 1: Start image generation
generate_url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "alibaba/wan-2.6/text-to-image",
"prompt": "A beautiful landscape with mountains and lake",
"width": 512,
"height": 512,
"steps": 20,
"guidance_scale": 7.5,
}
generate_response = requests.post(generate_url, headers=headers, json=data)
generate_result = generate_response.json()
prediction_id = generate_result["data"]["id"]
# Step 2: Poll for result
poll_url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
def check_status():
while True:
response = requests.get(poll_url, headers={"Authorization": "Bearer $ATLASCLOUD_API_KEY"})
result = response.json()
if result["data"]["status"] == "completed":
print("Generated image:", result["data"]["outputs"][0])
return result["data"]["outputs"][0]
elif result["data"]["status"] == "failed":
raise Exception(result["data"]["error"] or "Generation failed")
else:
# Still processing, wait 2 seconds
time.sleep(2)
image_url = check_status()Zainstaluj wymagany pakiet dla swojego języka programowania.
pip install requestsWszystkie żądania API wymagają uwierzytelnienia za pomocą klucza API. Klucz API możesz uzyskać z panelu Atlas Cloud.
export ATLASCLOUD_API_KEY="your-api-key-here"import os
API_KEY = os.environ.get("ATLASCLOUD_API_KEY")
headers = {
"Content-Type": "application/json",
"Authorization": f"Bearer {API_KEY}"
}Nigdy nie ujawniaj swojego klucza API w kodzie po stronie klienta ani w publicznych repozytoriach. Zamiast tego użyj zmiennych środowiskowych lub proxy backendowego.
import requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "your-model",
"prompt": "A beautiful landscape"
}
response = requests.post(url, headers=headers, json=data)
print(response.json())Wyślij asynchroniczne żądanie generowania. API zwróci identyfikator predykcji, którego możesz użyć do sprawdzania statusu i pobierania wyniku.
/api/v1/model/generateImageimport requests
url = "https://api.atlascloud.ai/api/v1/model/generateImage"
headers = {
"Content-Type": "application/json",
"Authorization": "Bearer $ATLASCLOUD_API_KEY"
}
data = {
"model": "alibaba/wan-2.6/text-to-image",
"input": {
"prompt": "A beautiful landscape with mountains and lake"
}
}
response = requests.post(url, headers=headers, json=data)
result = response.json()
print(f"Prediction ID: {result['id']}")
print(f"Status: {result['status']}"){
"id": "pred_abc123",
"status": "processing",
"model": "model-name",
"created_at": "2025-01-01T00:00:00Z"
}Odpytuj endpoint predykcji, aby sprawdzić bieżący status żądania.
/api/v1/model/prediction/{prediction_id}import requests
import time
prediction_id = "pred_abc123"
url = f"https://api.atlascloud.ai/api/v1/model/prediction/{prediction_id}"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
while True:
response = requests.get(url, headers=headers)
result = response.json()
status = result["data"]["status"]
print(f"Status: {status}")
if status in ["completed", "succeeded"]:
output_url = result["data"]["outputs"][0]
print(f"Output URL: {output_url}")
break
elif status == "failed":
print(f"Error: {result['data'].get('error', 'Unknown')}")
break
time.sleep(3)processingŻądanie jest wciąż przetwarzane.completedGenerowanie zakończone. Wyniki są dostępne.succeededGenerowanie powiodło się. Wyniki są dostępne.failedGenerowanie nie powiodło się. Sprawdź pole błędu.{
"data": {
"id": "pred_abc123",
"status": "completed",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}
}Prześlij pliki do magazynu Atlas Cloud i uzyskaj URL, którego możesz użyć w swoich żądaniach API. Użyj multipart/form-data do przesyłania.
/api/v1/model/uploadMediaimport requests
url = "https://api.atlascloud.ai/api/v1/model/uploadMedia"
headers = { "Authorization": "Bearer $ATLASCLOUD_API_KEY" }
with open("image.png", "rb") as f:
files = {"file": ("image.png", f, "image/png")}
response = requests.post(url, headers=headers, files=files)
result = response.json()
download_url = result["data"]["download_url"]
print(f"File URL: {download_url}"){
"data": {
"download_url": "https://storage.atlascloud.ai/uploads/abc123/image.png",
"file_name": "image.png",
"content_type": "image/png",
"size": 1024000
}
}Następujące parametry są akceptowane w treści żądania.
Brak dostępnych parametrów.
{
"model": "alibaba/wan-2.6/text-to-image"
}API zwraca odpowiedź predykcji z URL-ami wygenerowanych wyników.
{
"id": "pred_abc123",
"status": "completed",
"model": "model-name",
"outputs": [
"https://storage.atlascloud.ai/outputs/result.png"
],
"metrics": {
"predict_time": 8.3
},
"created_at": "2025-01-01T00:00:00Z",
"completed_at": "2025-01-01T00:00:10Z"
}Atlas Cloud Skills integruje ponad 300 modeli AI bezpośrednio z Twoim asystentem kodowania AI. Jedno polecenie do instalacji, a następnie używaj języka naturalnego do generowania obrazów, filmów i rozmów z LLM.
npx skills add AtlasCloudAI/atlas-cloud-skillsUzyskaj klucz API z panelu Atlas Cloud i ustaw go jako zmienną środowiskową.
export ATLASCLOUD_API_KEY="your-api-key-here"Po zainstalowaniu możesz używać języka naturalnego w swoim asystencie AI, aby uzyskać dostęp do wszystkich modeli Atlas Cloud.
Serwer MCP Atlas Cloud łączy Twoje IDE z ponad 300 modelami AI za pośrednictwem Model Context Protocol. Działa z każdym klientem kompatybilnym z MCP.
npx -y atlascloud-mcpDodaj następującą konfigurację do pliku ustawień MCP w swoim IDE.
{
"mcpServers": {
"atlascloud": {
"command": "npx",
"args": [
"-y",
"atlascloud-mcp"
],
"env": {
"ATLASCLOUD_API_KEY": "your-api-key-here"
}
}
}
}Schema niedostępnaMusisz być zalogowany, aby uzyskać dostęp do historii zapytań modelu.
Zaloguj sięNajnowszy przełom Alibaba w generowaniu wideo AI. Twórz wideo 1080p do 15 sekund z narracją wieloujęciową, spójnością postaci opartą na referencjach i natywną synchronizacją audiowizualną. Pierwszy model, który prawdziwie rozumie logikę storyboardu dla kinematograficznych narracji.
Co czyni Wan 2.6 przełomem w generowaniu wideo AI
Pierwszy model rozumiejący logikę storyboardu. Automatycznie generuje sekwencyjne ujęcia ze spójnymi przejściami, zachowując wygląd postaci i spójność środowiska przez zmiany scen—umożliwiając kompletne łuki fabularne w pojedynczej 15-sekundowej generacji.
Prześlij 2-30 sekundowe wideo referencyjne, aby wyodrębnić i zachować wygląd postaci, wzorce ruchu i cechy głosu. Twórz spójne występy postaci w wielu filmach z bezprecedensową dokładnością.
Wiodące w branży możliwości renderowania tekstu dla opakowań produktów, oznakowania i treści brandowych. Generuj czysty, czytelny tekst w klatkach wideo—niezbędny dla aplikacji marketingowych i komercyjnych.
Generuj do 15 sekund na wideo z kompletną strukturą "Trzech Aktów" (Ekspozycja → Akcja → Rozwiązanie)
Natywne wyjście 1080p przy 24fps z kinematograficzną jakością i ulepszoną stabilnością wizualną
Dialog pasuje do ruchów warg, muzyka w tle dopasowana do tempa, efekty dźwiękowe wyzwalane perfekcyjnie
Zachowaj wygląd, kostiumy i tożsamość postaci przez ujęcia i wiele filmów
Profesjonalne ruchy kamery w tym panoramy, zbliżenia, ujęcia śledzące i ruchy na wózku
16:9 (YouTube), 9:16 (Reels), 1:1 (Kwadrat) - zoptymalizowane pod platformy bez kadrowania w postprodukcji
Zobacz, co nowego w najnowszej wersji
Wybierz odpowiedni tryb dla swojego kreatywnego przepływu pracy
Generuj kompletne wideo z promptów tekstowych z ulepszoną segmentacją wieloujęciową i udoskonaloną obsługą promptów. Idealny dla storytellingu i eksploracji kreatywnej.
Przekształcaj nieruchome obrazy w wideo z ruchem z ulepszoną spójnością ruchu. Idealny dla pokazów produktów, animacji zdjęć i wizualnego storytellingu.
Prześlij wideo referencyjne (2-30s), aby zachować wygląd postaci, wzorce ruchu i głos. Najsilniejsza gwarancja spójności dla treści opartych na postaciach.
Dema produktów z renderowaniem tekstu, kampanie brandowe ze spójnością postaci i wideo promocyjne
Filmy YouTube, reels mediów społecznościowych, storytelling wieloujęciowy i przepływy pracy montażu wideo
Pokazy produktów z precyzyjnym tekstem, filmy tutorialowe i odtwarzanie referencji klientów
Treści instruktażowe, materiały kursowe i narracje edukacyjne z wieloma scenami
Filmy krótkometrażowe, historie oparte na postaciach, sekwencje kinematograficzne i eksperymenty kreatywne
Rozwój koncepcji filmowych, tworzenie storyboardów i planowanie scen dla produkcji
Kompletny pakiet API do generowania Tekst do Wideo, Obraz do Wideo i Referencja do Wideo
Nasze API Wan 2.6 T2V przekształca prompty tekstowe w wieloujęciowe wideo kinematograficzne z automatyczną segmentacją scen. Generuj profesjonalne wideo 1080p do 15 sekund z natywną synchronizacją dźwięku.
Nasze API Wan 2.6 I2V ożywia nieruchome obrazy z precyzyjną kontrolą ruchu i renderowaniem tekstu. Idealny dla filmów produktowych, animacji zdjęć i tworzenia treści brandowych.
Nasze API Wan 2.6 R2V zachowuje tożsamość postaci z wideo referencyjnych. Prześlij klipy 2-30 sekund, aby wyodrębnić wygląd, głos i wzorce ruchu dla spójnego generowania postaci.
Wszystkie trzy tryby API Wan 2.6 (T2V API, I2V API, R2V API) wspierają architekturę RESTful z kompleksową dokumentacją. Zacznij z SDK dla Python, Node.js i więcej. Każdy endpoint zawiera natywną synchronizację audiowizualną i pełne prawa do użytku komercyjnego.
Zacznij tworzyć profesjonalne wideo w kilka minut dzięki dwóm prostym ścieżkom
Dla deweloperów budujących aplikacje
Utwórz konto Atlas Cloud lub zaloguj się, aby uzyskać dostęp do konsoli
Połącz kartę kredytową w sekcji Rozliczenia, aby zasilić konto
Przejdź do Konsola → Klucze API i utwórz swój klucz uwierzytelniania
Użyj endpointów API T2V, I2V lub R2V, aby zintegrować Wan 2.6 w swojej aplikacji
Do szybkich testów i eksperymentów
Utwórz konto Atlas Cloud lub zaloguj się, aby uzyskać dostęp do platformy
Połącz kartę kredytową w sekcji Rozliczenia, aby rozpocząć
Przejdź do playground Wan 2.6, wybierz tryb T2V/I2V/R2V i generuj wideo natychmiast
Wan 2.6 to pierwszy model, który prawdziwie rozumie logikę storyboardu. W przeciwieństwie do Wan 2.5, który tworzył chaotyczne efekty "morphingu", Wan 2.6 może automatycznie segmentować pojedynczy prompt na wiele odrębnych ujęć ze spójnymi przejściami, zachowując spójność postaci przez zmiany scen.
Prześlij 2-30 sekundowe wideo referencyjne, a Wan 2.6 wyodrębni wygląd postaci, wzorce ruchu i cechy głosu. Możesz następnie generować nowe wideo z tą samą postacią ze spójną tożsamością—idealne do tworzenia serii treści opartych na postaciach.
Wan 2.6 generuje wideo 1080p przy 24fps z czasem trwania od 5 do 15 sekund. Obsługiwane proporcje obrazu obejmują 16:9 (YouTube), 9:16 (Instagram Reels/TikTok) i 1:1 (format kwadratowy), zoptymalizowane dla każdej platformy bez wymagania kadrowania w postprodukcji.
Tak! Wan 2.6 ma wiodące w branży renderowanie tekstu dla opakowań produktów, oznakowania i treści brandowych. Model może generować czysty, czytelny tekst w klatkach wideo—kluczowa funkcja, której brakuje Seedance i większości konkurentów.
T2V (Tekst do Wideo) generuje z promptów tekstowych z możliwością wieloujęciową. I2V (Obraz do Wideo) animuje nieruchome obrazy z precyzyjnym renderowaniem tekstu. R2V (Referencja do Wideo) używa referencji wideo, aby zachować tożsamość postaci między generacjami. Wybierz na podstawie typu wejścia i potrzeb spójności.
Tak! Każda kreacja Wan 2.6 posiada pełne prawa do użytku komercyjnego. Wideo są gotowe do produkcji dla kampanii marketingowych, deliverables klientów, treści brandowych i aplikacji komercyjnych bez dodatkowych wymagań licencyjnych.
Wykorzystaj infrastrukturę klasy korporacyjnej dla swoich profesjonalnych przepływów pracy generowania wideo
Wdróż generowanie wieloujęciowe i możliwości R2V Wan 2.6 na infrastrukturze specjalnie zoptymalizowanej dla wymagających obciążeń wideo AI. Maksymalna wydajność dla generowania 1080p przez 15 sekund.
Dostęp do Wan 2.6 (T2V, I2V, R2V) wraz z ponad 300 modelami AI (LLM, obraz, wideo, audio) przez jedno zunifikowane API. Pojedyncza integracja dla wszystkich potrzeb AI generatywnej ze spójnym uwierzytelnianiem.
Oszczędzaj do 70% w porównaniu z AWS dzięki przejrzystym cenom pay-as-you-go. Bez ukrytych opłat, bez zobowiązań—skaluj od prototypu do produkcji bez rujnowania budżetu.
Twoje wideo referencyjne i wygenerowane treści chronione certyfikatami SOC I & II i zgodnością HIPAA. Bezpieczeństwo klasy korporacyjnej z zaszyfrowaną transmisją i przechowywaniem.
Niezawodność klasy korporacyjnej z gwarantowanym 99,9% uptime. Twoje generowanie wideo wieloujęciowego Wan 2.6 jest zawsze dostępne dla kampanii produkcyjnych i krytycznych przepływów pracy treści.
Kompletna integracja w minuty z REST API i wielojęzycznymi SDK (Python, Node.js, Go). Płynnie przełączaj się między trybami T2V, I2V i R2V ze zunifikowaną strukturą endpointów.
Dołącz do twórców treści, marketerów i filmowców na całym świecie, którzy rewolucjonizują produkcję wideo dzięki przełomowym możliwościom storytellingu wieloujęciowego i spójności postaci Wan 2.6.
Alibaba WAN 2.6 is a cutting-edge text-to-image model on Alibaba Cloud’s DashScope. It generates high-quality, detailed images directly from text prompts and supports multiple output resolutions. The Tongyi Wanxiang text-to-image model generates images based on text, supporting various artistic styles and realistic photography effects to meet diverse creative needs.