Hurtig billedsyntese i høj opløsning med latent adversarial diffusionsdestillation

Hurtig billedsyntese i høj opløsning med latent adversarial diffusionsdestillation

Arxiv Link

  1. marts 2024

"Hurtig højopløsningsbilledsyntese med latent adversarial diffusionsdestillation" præsenterer en ny destillationsmetode kendt som latent adversarial diffusionsdestillation (LADD). Denne tilgang er designet til at adressere begrænsningerne ved eksisterende diffusionsmodeller, især udfordringen med langsom inferenshastighed, som hæmmer realtidsapplikationer. LADD muliggør billedsyntese i høj opløsning, multi-aspect ratio ved effektivt at destillere store latente diffusionsmodeller (LDM'er), hvilket væsentligt forenkler træningsprocessen og forbedrer ydeevnen sammenlignet med tidligere metoder .

Vi vil opsummere de vigtigste ting fra dette papir.

Introduktion

Diffusionsmodeller er dukket op som et kraftfuldt værktøj til billed- og videosyntese og -redigering, der giver resultater i høj kvalitet. Imidlertid har deres iterative karakter, der kræver adskillige netværksevalueringer for at omdanne støj til sammenhængende billeder, begrænset deres praktiske anvendelse til realtidsapplikationer. Forskellige strategier er blevet foreslået til at accelerere diffusionsmodeller. LADD introducerer en ny strategi, der udnytter generative funktioner fra fortrænede LDM'er, hvilket muliggør effektiv billedsyntese i høj opløsning i en brøkdel af de trin, der kræves af traditionelle metoder.

Baggrund

Papiret starter med at give et overblik over diffusionsmodeller og deres destillation. Traditionelle diffusionsmodeller fungerer ved gradvist at forringe et billede gennem mange iterative trin, hvilket gør processen langsom og beregningsmæssigt dyr. Destillationsmetoder, herunder Adversarial Diffusion Destillation (ADD), har forsøgt at strømline denne proces ved at reducere antallet af nødvendige trin. ADD står imidlertid over for begrænsninger såsom en fast træningsopløsning og nødvendigheden af ​​at afkode til RGB-plads for at destillere latente diffusionsmodeller, hvilket kan begrænse træning i høj opløsning.

Metodik

LADD løser disse problemer ved at destillere direkte i latent rum og derved undgå behovet for at afkode til pixelplads og tillade træning ved højere opløsninger. I modsætning til ADD, som er afhængig af en fortrænet diskriminator, der opererer i pixelrum, anvender LADD en ny tilgang, hvor diskriminator- og lærermodellen er forenet, og opererer direkte på latente. Denne metode forenkler ikke kun træningsprocessen, men giver også flere fordele, herunder effektivitet, evnen til at give specifik feedback på støjniveau og kapaciteten til Multi-Aspect Ratio (MAR) træning.

Eksperimenter og resultater

Artiklen evaluerer i vid udstrækning LADD gennem forskellige eksperimenter, og demonstrerer dens overlegne ydeevne i syntetisering af billeder i høj opløsning med kun få trin. Navnlig når den anvendes på Stable Diffusion 3 (SD3), resulterer LADD i en model kaldet SD3-Turbo, som opnår billedkvalitet sammenlignelig med tilstanden moderne tekst-til-billede-generatorer i kun fire trin. Eksperimenterne undersøger også virkningen af ​​forskellige lærerstøjfordelinger, brugen af ​​syntetiske data, latente destillationstilgange og LADDs skaleringsadfærd.

Sammenligning med state-of-the-art

LADDs effektivitet understreges yderligere af en sammenligning med nuværende førende metoder inden for tekst-til-billede og billed-til-billede syntese. SD3-Turbo matcher ikke kun ydeevnen af ​​sin lærermodel (SD3) i billedkvalitet, men demonstrerer også betydelige forbedringer i forhold til andre basislinjer med hensyn til inferenshastighed og billed-tekstjustering.

Begrænsninger og fremtidige retninger

På trods af sine fremskridt er LADD ikke uden begrænsninger. Forfatterne bemærker en afvejning mellem modelkapacitet, hurtig justering og inferenshastighed, hvilket kan påvirke modellens evne til at håndtere visse udfordringer med tekst-til-billede syntese. Fremtidige forskningsretninger omfatter at udforske denne afvejning dybere og udvikle strategier til at øge kontrollen over billed- og tekstvejledningens styrker.

Konklusion

"Hurtig højopløsningsbilledsyntese med latent modstridende diffusionsdestillation" introducerer en ny tilgang til billed-/videosyntese, der markant accelererer genereringen af ​​billeder i høj kvalitet fra tekstprompter. Ved at destillere store diffusionsmodeller i latent rum baner LADD vejen for realtidsapplikationer og sætter en ny standard for effektivitet og ydeevne inden for billedsyntese.


Code Labs Academy: Online Coding Bootcamp med fleksible betalingsplaner

Code Labs Academy © 2024 Alle rettigheder forbeholdes.