alibaba/wan-2.6/image-edit

Supports image editing and mixed text and image output to meet diverse generation and integration needs.

IMAGE-TO-IMAGEHOTNEW
obraz-do-obrazu

Supports image editing and mixed text and image output to meet diverse generation and integration needs.

Alibaba WAN 2.6 Image Edit

Alibaba WAN 2.6 Image Edit enables you to upload an existing visual and specify the desired adjustments. The model preserves layout and subject structure while implementing high-quality updates based on natural language.

Why creators love it

  • Structure-preserving edits: Make lighting, color, or object changes without breaking composition.
  • Text-guided styling: Reimagine materials, moods, or art styles with concise prompts.
  • Prompt expansion on demand: Enable automatic prompt enrichment when you need extra detail.
  • Flexible output sizes: Pick the resolution that best matches your downstream workflow.

Perfect for

  • Marketing and design teams refining campaign visuals.
  • E-commerce sellers upgrading product imagery.
  • Content creators polishing thumbnails, covers, and posts.
  • Artists experimenting with variations of their original work.

Billing rules

  • Minimum charge: 1 image.
  • Total cost = number of images × price per resolution.

How to use

  1. Provide the image you want to refine. (Image dimensions must be in (384, 5000))
  2. Describe the desired adjustments in the prompt.
  3. Choose the target resolution and submit.
  4. Review the enhanced output and download the version you like best.

Pro tips

  • Start with clear instructions about colors, lighting, or objects to adjust.
  • Pair positive and negative prompts to control what should or should not appear.
  • Keep source images at or above your target resolution for optimal fidelity.

Note

If you did not upload the image locally, please ensure that the image URL is accessible! A successfully accessible image will display a preview in the interface.


Aspect RatioExact (W×H)Exact PixelsRounded (W×H, ÷64)Rounded Pixels
1:11448 × 14482,096,7041408 × 14081,982,464
3:21773 × 11822,095,6861728 × 11521,990,656
4:31672 × 12542,096,6881664 × 12162,023,424
16:91936 × 10892,108,3041920 × 10882,088,960
21:92212 × 9482,096,9762176 × 9602,088,960
1:11024 × 10241,048,5761024 × 10241,048,576
3:21254 × 8361,048,3441216 × 8321,011,712
4:31182 × 8871,048,4341152 × 8961,032,192
16:91365 × 7681,048,3201344 × 7681,032,192
21:91564 × 6701,047,8801536 × 640983,040
1:1323 × 323104,329320 × 320102,400
3:2397 × 264104,808384 × 25698,304
4:3374 × 280104,720448 × 320143,360
16:9432 × 243104,976448 × 256114,688
21:9495 × 212104,940576 × 256147,456

Szczegółowa Specyfikacja

Przegląd:

Dostawca Modelu:QWEN
Typ Modelu:image-to-image
Wdrożenie:API Inferencji; Playground
Cennik:$0.021/pic

Kluczowe Parametry:

Limit Rozmiaru:do szerokość × wysokość (konfigurowalne przez użytkownika)
Wsparcie LoRA:Nie
Opcje Seed:N/A

Stwórz Swoje Następne Arcydzieło

🎬GENEROWANIE WIDEO WIELOUJĘCIOWEGO

Wan 2.6Profesjonalne Tworzenie Wideo AI z Wieloma Ujęciami

Najnowszy przełom Alibaba w generowaniu wideo AI. Twórz wideo 1080p do 15 sekund z narracją wieloujęciową, spójnością postaci opartą na referencjach i natywną synchronizacją audiowizualną. Pierwszy model, który prawdziwie rozumie logikę storyboardu dla kinematograficznych narracji.

Rewolucyjne Przełomy

Co czyni Wan 2.6 przełomem w generowaniu wideo AI

Narracja Wieloujęciowa

Pierwszy model rozumiejący logikę storyboardu. Automatycznie generuje sekwencyjne ujęcia ze spójnymi przejściami, zachowując wygląd postaci i spójność środowiska przez zmiany scen—umożliwiając kompletne łuki fabularne w pojedynczej 15-sekundowej generacji.

Referencja do Wideo (R2V)

Prześlij 2-30 sekundowe wideo referencyjne, aby wyodrębnić i zachować wygląd postaci, wzorce ruchu i cechy głosu. Twórz spójne występy postaci w wielu filmach z bezprecedensową dokładnością.

Precyzyjne Renderowanie Tekstu

Wiodące w branży możliwości renderowania tekstu dla opakowań produktów, oznakowania i treści brandowych. Generuj czysty, czytelny tekst w klatkach wideo—niezbędny dla aplikacji marketingowych i komercyjnych.

Główne Możliwości

Wydłużony Czas Trwania 15 Sekund

Generuj do 15 sekund na wideo z kompletną strukturą "Trzech Aktów" (Ekspozycja → Akcja → Rozwiązanie)

Profesjonalna Jakość 1080p

Natywne wyjście 1080p przy 24fps z kinematograficzną jakością i ulepszoną stabilnością wizualną

Natywna Synchronizacja Dźwięku

Dialog pasuje do ruchów warg, muzyka w tle dopasowana do tempa, efekty dźwiękowe wyzwalane perfekcyjnie

Spójność Postaci

Zachowaj wygląd, kostiumy i tożsamość postaci przez ujęcia i wiele filmów

Kinematograficzne Sterowanie Kamerą

Profesjonalne ruchy kamery w tym panoramy, zbliżenia, ujęcia śledzące i ruchy na wózku

Elastyczne Proporcje Obrazu

16:9 (YouTube), 9:16 (Reels), 1:1 (Kwadrat) - zoptymalizowane pod platformy bez kadrowania w postprodukcji

Wan 2.6 vs Wan 2.5: Główne Ulepszenia

Zobacz, co nowego w najnowszej wersji

Czas Trwania Wideo
Do 15 sekund
Wan 2.5: Maksymalnie 10 sekund
Możliwość Wieloujęciowa
Rozumie logikę storyboardu
Wan 2.5: Pojedyncze ujęcie lub chaotyczny morphing
Wsparcie Wideo Referencyjnego
Tryb R2V z pełnym zachowaniem
Wan 2.5: Tylko referencja obrazu
Spójność Postaci
Doskonała między ujęciami
Wan 2.5: Problemy z dryfem postaci
Stabilność Ruchu
Zmniejszone drżenia i artefakty
Wan 2.5: Okazjonalny dryf klatek
Rozumienie Promptów
Złożone sceny z wieloma postaciami
Wan 2.5: Podstawowe generowanie scen

Trzy Wyspecjalizowane Tryby Generowania

Wybierz odpowiedni tryb dla swojego kreatywnego przepływu pracy

Tekst do Wideo (T2V)

Najpopularniejszy

Generuj kompletne wideo z promptów tekstowych z ulepszoną segmentacją wieloujęciową i udoskonaloną obsługą promptów. Idealny dla storytellingu i eksploracji kreatywnej.

  • Automatyczna segmentacja ujęć z jednego promptu
  • Rozumienie interakcji wielopostaciowych
  • Ruch kamery i wskazówki emocjonalne
  • Zachowanie szczegółów środowiska

Obraz do Wideo (I2V)

Ulepszony

Przekształcaj nieruchome obrazy w wideo z ruchem z ulepszoną spójnością ruchu. Idealny dla pokazów produktów, animacji zdjęć i wizualnego storytellingu.

  • Precyzyjne renderowanie tekstu dla produktów
  • Spójność stylu między klatkami
  • Naturalny ruch z nieruchomych obrazów
  • Optymalizacja wizualna kierowana narracją

Referencja do Wideo (R2V)

NOWOŚĆ

Prześlij wideo referencyjne (2-30s), aby zachować wygląd postaci, wzorce ruchu i głos. Najsilniejsza gwarancja spójności dla treści opartych na postaciach.

  • Pełne zachowanie tożsamości postaci
  • Ekstrakcja cech głosowych
  • Replikacja wzorców ruchu
  • Sceny współgrające wielopostaciowe

Idealne Do

Marketing i Reklama

Dema produktów z renderowaniem tekstu, kampanie brandowe ze spójnością postaci i wideo promocyjne

Tworzenie Treści

Filmy YouTube, reels mediów społecznościowych, storytelling wieloujęciowy i przepływy pracy montażu wideo

E-commerce

Pokazy produktów z precyzyjnym tekstem, filmy tutorialowe i odtwarzanie referencji klientów

Edukacja i Szkolenia

Treści instruktażowe, materiały kursowe i narracje edukacyjne z wieloma scenami

Rozrywka

Filmy krótkometrażowe, historie oparte na postaciach, sekwencje kinematograficzne i eksperymenty kreatywne

Przewizualizacja

Rozwój koncepcji filmowych, tworzenie storyboardów i planowanie scen dla produkcji

Integracja API Wan 2.6 T2V, I2V i R2V

Kompletny pakiet API do generowania Tekst do Wideo, Obraz do Wideo i Referencja do Wideo

API Tekst do Wideo (T2V API)

Nasze API Wan 2.6 T2V przekształca prompty tekstowe w wieloujęciowe wideo kinematograficzne z automatyczną segmentacją scen. Generuj profesjonalne wideo 1080p do 15 sekund z natywną synchronizacją dźwięku.

Storytelling wieloujęciowy z jednego promptu
Czas trwania 15 sekund ze strukturą Trzech Aktów
Ulepszone rozumienie promptów dla złożonych scen
Elastyczne proporcje obrazu: 16:9, 9:16, 1:1

API Obraz do Wideo (I2V API)

Nasze API Wan 2.6 I2V ożywia nieruchome obrazy z precyzyjną kontrolą ruchu i renderowaniem tekstu. Idealny dla filmów produktowych, animacji zdjęć i tworzenia treści brandowych.

Precyzyjne renderowanie tekstu dla produktów i oznakowania
Spójność stylu w klatkach animacji
Naturalny ruch z ulepszoną spójnością
Wyjście wizualne zoptymalizowane narracją

API Referencja do Wideo (R2V API)

Nasze API Wan 2.6 R2V zachowuje tożsamość postaci z wideo referencyjnych. Prześlij klipy 2-30 sekund, aby wyodrębnić wygląd, głos i wzorce ruchu dla spójnego generowania postaci.

Zachowanie wyglądu i tożsamości postaci
Ekstrakcja i replikacja cech głosowych
Analiza i reprodukcja wzorców ruchu
Wsparcie scen wielopostaciowych
💡

Kompletny Pakiet API

Wszystkie trzy tryby API Wan 2.6 (T2V API, I2V API, R2V API) wspierają architekturę RESTful z kompleksową dokumentacją. Zacznij z SDK dla Python, Node.js i więcej. Każdy endpoint zawiera natywną synchronizację audiowizualną i pełne prawa do użytku komercyjnego.

Jak Zacząć z Wan 2.6

Zacznij tworzyć profesjonalne wideo w kilka minut dzięki dwóm prostym ścieżkom

Integracja API

Dla deweloperów budujących aplikacje

1

Zarejestruj się i Zaloguj

Utwórz konto Atlas Cloud lub zaloguj się, aby uzyskać dostęp do konsoli

2

Dodaj Metodę Płatności

Połącz kartę kredytową w sekcji Rozliczenia, aby zasilić konto

3

Wygeneruj Klucz API

Przejdź do Konsola → Klucze API i utwórz swój klucz uwierzytelniania

4

Zacznij Budować

Użyj endpointów API T2V, I2V lub R2V, aby zintegrować Wan 2.6 w swojej aplikacji

Doświadczenie Playground

Do szybkich testów i eksperymentów

1

Zarejestruj się i Zaloguj

Utwórz konto Atlas Cloud lub zaloguj się, aby uzyskać dostęp do platformy

2

Dodaj Metodę Płatności

Połącz kartę kredytową w sekcji Rozliczenia, aby rozpocząć

3

Użyj Playground

Przejdź do playground Wan 2.6, wybierz tryb T2V/I2V/R2V i generuj wideo natychmiast

💡
Wskazówka Pro: Najpierw przetestuj różne tryby generowania w Playground, aby zrozumieć, który najlepiej działa dla Twojego przypadku użycia, a następnie zintegruj odpowiednie API dla skali produkcyjnej.

Najczęściej Zadawane Pytania

Co czyni możliwość wieloujęciową Wan 2.6 wyjątkową?

Wan 2.6 to pierwszy model, który prawdziwie rozumie logikę storyboardu. W przeciwieństwie do Wan 2.5, który tworzył chaotyczne efekty "morphingu", Wan 2.6 może automatycznie segmentować pojedynczy prompt na wiele odrębnych ujęć ze spójnymi przejściami, zachowując spójność postaci przez zmiany scen.

Jak działa Referencja do Wideo (R2V)?

Prześlij 2-30 sekundowe wideo referencyjne, a Wan 2.6 wyodrębni wygląd postaci, wzorce ruchu i cechy głosu. Możesz następnie generować nowe wideo z tą samą postacią ze spójną tożsamością—idealne do tworzenia serii treści opartych na postaciach.

Jakie formaty i czasy trwania wideo są obsługiwane?

Wan 2.6 generuje wideo 1080p przy 24fps z czasem trwania od 5 do 15 sekund. Obsługiwane proporcje obrazu obejmują 16:9 (YouTube), 9:16 (Instagram Reels/TikTok) i 1:1 (format kwadratowy), zoptymalizowane dla każdej platformy bez wymagania kadrowania w postprodukcji.

Czy Wan 2.6 może renderować tekst w wideo?

Tak! Wan 2.6 ma wiodące w branży renderowanie tekstu dla opakowań produktów, oznakowania i treści brandowych. Model może generować czysty, czytelny tekst w klatkach wideo—kluczowa funkcja, której brakuje Seedance i większości konkurentów.

Jaka jest różnica między trybami T2V, I2V i R2V?

T2V (Tekst do Wideo) generuje z promptów tekstowych z możliwością wieloujęciową. I2V (Obraz do Wideo) animuje nieruchome obrazy z precyzyjnym renderowaniem tekstu. R2V (Referencja do Wideo) używa referencji wideo, aby zachować tożsamość postaci między generacjami. Wybierz na podstawie typu wejścia i potrzeb spójności.

Czy mam prawa komercyjne do generowanych wideo?

Tak! Każda kreacja Wan 2.6 posiada pełne prawa do użytku komercyjnego. Wideo są gotowe do produkcji dla kampanii marketingowych, deliverables klientów, treści brandowych i aplikacji komercyjnych bez dodatkowych wymagań licencyjnych.

Dlaczego Używać Wan 2.6 na Atlas Cloud?

Wykorzystaj infrastrukturę klasy korporacyjnej dla swoich profesjonalnych przepływów pracy generowania wideo

Dedykowana Infrastruktura

Wdróż generowanie wieloujęciowe i możliwości R2V Wan 2.6 na infrastrukturze specjalnie zoptymalizowanej dla wymagających obciążeń wideo AI. Maksymalna wydajność dla generowania 1080p przez 15 sekund.

Zunifikowane API dla Wszystkich Modeli

Dostęp do Wan 2.6 (T2V, I2V, R2V) wraz z ponad 300 modelami AI (LLM, obraz, wideo, audio) przez jedno zunifikowane API. Pojedyncza integracja dla wszystkich potrzeb AI generatywnej ze spójnym uwierzytelnianiem.

Konkurencyjne Ceny

Oszczędzaj do 70% w porównaniu z AWS dzięki przejrzystym cenom pay-as-you-go. Bez ukrytych opłat, bez zobowiązań—skaluj od prototypu do produkcji bez rujnowania budżetu.

Certyfikowane Bezpieczeństwo SOC I & II

Twoje wideo referencyjne i wygenerowane treści chronione certyfikatami SOC I & II i zgodnością HIPAA. Bezpieczeństwo klasy korporacyjnej z zaszyfrowaną transmisją i przechowywaniem.

99,9% SLA Uptime

Niezawodność klasy korporacyjnej z gwarantowanym 99,9% uptime. Twoje generowanie wideo wieloujęciowego Wan 2.6 jest zawsze dostępne dla kampanii produkcyjnych i krytycznych przepływów pracy treści.

Łatwa Integracja

Kompletna integracja w minuty z REST API i wielojęzycznymi SDK (Python, Node.js, Go). Płynnie przełączaj się między trybami T2V, I2V i R2V ze zunifikowaną strukturą endpointów.

99.9%
Uptime
70%
Niższe Koszty vs AWS
300+
Modele Gen AI
24/7
Wsparcie Pro

Specyfikacje Techniczne

Architecture
Zaawansowany Transformer z Rozumieniem Multi-Modalnym
Resolution
1080p (Full HD)
Frame Rate
24 FPS
Duration
5-15 sekund (zależne od trybu)
Aspect Ratios
16:9, 9:16, 1:1
Generation Modes
T2V, I2V, R2V
Audio
Natywna synchronizacja z lip-sync
Commercial Rights
Pełny użytek komercyjny włączony

Doświadcz Profesjonalnego Generowania Wideo Wieloujęciowego

Dołącz do twórców treści, marketerów i filmowców na całym świecie, którzy rewolucjonizują produkcję wideo dzięki przełomowym możliwościom storytellingu wieloujęciowego i spójności postaci Wan 2.6.

Zacznij Od 300+ Modeli,

Tylko w Atlas Cloud.