Detail View

Content-Adaptive Image Style Transfer with Pretrained VQ Autoencoders
Citations

WEB OF SCIENCE

Citations

SCOPUS

Metadata Downloads

DC Field Value Language
dc.contributor.advisor 임성훈 -
dc.contributor.author Kyoungmin Lee -
dc.date.accessioned 2026-01-23T11:03:17Z -
dc.date.available 2026-01-24T06:00:44Z -
dc.date.issued 2025 -
dc.identifier.uri https://scholar.dgist.ac.kr/handle/20.500.11750/59845 -
dc.identifier.uri http://dgist.dcollection.net/common/orgView/200000890372 -
dc.description Style transfer,Image-driven,Image editing,Multimodal model,Vector-quantized model -
dc.description.abstract We introduce Content-Adaptive Style Transfer (CAST), a novel training-free approach for arbitrary style transfer that enhances visual fidelity using vector quantized-based pretrained autoencoder. Our method systematically applies coherent stylization to corresponding content regions. It starts by capturing the global structure of images through vector quantization, then refines local details using our style-injected decoder. CAST consists of three main components: a content-consistent style injection module, which tailors stylization to unique image regions; an adaptive style refinement module, which fine-tunes stylization intensity; and a content refinement module, which ensures content integrity through interpolation and feature distribution maintenance. Experimental results indicate that CAST outperforms existing generative-based and traditional style transfer models in both quantitative and qualitative measures.
Keywords: Style transfer, Image-driven, Image editing, Multimodal model, Vector-quantized model
|본 논문은 스타일 전환의 시각적 완성도를 향상시키기 위한 새로운 학습 없이 가능한 기법인 콘텐츠 적응형 스타일 전환 기술을 제안합니다. 이 방법은 벡터 양자화 기반의 사전 학습된 오토 인코더를 활용하여, 콘텐츠 이미지의 전역 구조를 먼저 포착하고, 이후 정교하게 설계된 스타일 주입 디코더를 통해 국소적인 세부 스타일을 반영합니다. 본 논문에서 제안하는 방법의 핵심 구성 요소는 세 가지입니다. 첫째, 이미지의 고유한 영역별 특성에 맞춰 스타일을 반영하는 콘텐츠 일관 스타일 주입 모듈, 둘째, 스타일 강도를 콘텐츠에 맞게 조절하는 적응형 스타일 정제 모듈, 셋째, 콘텐츠의 구조적 일관성을 유지하기 위한 콘텐츠 정제 모듈입니다. 특히 각 모듈은 특징 분포 유지와 보간 기반 정제 과정을 통해 스타일 전환 과정에서도 원본 콘텐츠의 본질을 보존하는 데 중점을 둡니다. 다양한 실험 결과를 통해, 본 논문에서 제안한 방법이 기존의 생성 기반 및 전통적 스타일 전환 방법보다 정량적 지표와 시각적 평가 모두에서 우수한 성능을 나타냄을 입증하였습니다.
핵심어: 스타일 전환 (Style transfer), 이미지 기반 (Image-driven), 이미지 편집 (Image editing), 멀티모달 모델 (Multimodal model), 벡터 양자화 모델 (Vector-quantized model)
-
dc.description.tableofcontents I. INTRODUCTION 1
II. RELATED WORK 3
2.1 Vector-Quantized image generation 3
2.2 Traditional style transfer 4
2.3 Generative model-based style transfer 4
III. METHOD 5
3.1 Preliminary 5
3.2 Overall pipeline 6
3.3 Content-consistent Style Injection (CSI) 6
3.4 Adaptive Style Refinement (ASR) 7
3.5 Content refinement 8
IV. EXPERIMENTS 9
4.1 Implementation details 9
4.2 Experimental setup 10
4.3 Comparison with state-of-the-art style transfer models 11
4.4 Ablation study 14
4.5 Additional ablation studies 14
4.6 Limitations 15
V. CONCLUSION 16
VI. References 17
VII. 요약문 23
-
dc.format.extent 23 -
dc.language eng -
dc.publisher DGIST -
dc.title Content-Adaptive Image Style Transfer with Pretrained VQ Autoencoders -
dc.title.alternative 콘텐츠 적응형 벡터 양자화 기반 비 학습 스타일 전환 기술 -
dc.type Thesis -
dc.identifier.doi 10.22677/THESIS.200000890372 -
dc.description.degree Master -
dc.contributor.department Artificial Intelligence Major -
dc.contributor.coadvisor Jinhyun So -
dc.date.awarded 2025-08-01 -
dc.publisher.location Daegu -
dc.description.database dCollection -
dc.citation XT.AM 이14 202508 -
dc.date.accepted 2025-07-21 -
dc.contributor.alternativeDepartment 학제학과인공지능전공 -
dc.subject.keyword Style transfer,Image-driven,Image editing,Multimodal model,Vector-quantized model -
dc.contributor.affiliatedAuthor Kyoungmin Lee -
dc.contributor.affiliatedAuthor Sunghoon Im -
dc.contributor.affiliatedAuthor Jinhyun So -
dc.contributor.alternativeName 이경민 -
dc.contributor.alternativeName Sunghoon Im -
dc.contributor.alternativeName 소진현 -
Show Simple Item Record

File Downloads

  • There are no files associated with this item.

공유

qrcode
공유하기

Total Views & Downloads