Cited time in webofscience Cited time in scopus

Full metadata record

DC Field Value Language
dc.contributor.advisor 이성진 -
dc.contributor.author Gwonhyu Jin -
dc.date.accessioned 2022-07-07T02:29:02Z -
dc.date.available 2022-07-07T02:29:02Z -
dc.date.issued 2021 -
dc.identifier.uri http://dgist.dcollection.net/common/orgView/200000362196 en_US
dc.identifier.uri http://hdl.handle.net/20.500.11750/16656 -
dc.description.abstract With the rapid advancement of hardware accelerators, the bottleneck in deep learning systems is moving from computation to I/O. This bottleneck can be observed especially during transfer learning that uses a fixed feature extractor because the feature extraction is an I/O intensive task. Due to the limited bandwidth of Direct Media Interface (DMI), GPUs failed to fully perform despite the advent of high-performance SSDs.
To address the problem that the performance of transfer learning is limited by the DMI bandwidth, we propose a novel transfer learning system that adapts in-storage processing. The feature extraction is executed in SSDs using a high-performance mobile GPU. Because the feature extraction can be executed in parallel, the feature extraction in aggregated SSDs is fast and scalable. Moreover, the feature extraction can be optimized by adapting optimization techniques such as 16-bit floating-point quantization, layer fusion, kernel auto-tuning, removing transformation overhead, and data prefetching. Our proposed system could catch up with the GPU system using 6 aggregated SSDs in a power-efficient way.
-
dc.description.statementofresponsibility N -
dc.description.tableofcontents I. Introduction
II. Background
2.1 Transfer Learning
2.2 Direct Media Interface (DMI)
III. Motivation
IV. Design of SSD-Off
4.1 System Overview
4.2 Feature Extraction on SSD
4.3 Serialized Files in SSD
4.4 Operation Process
V. Optimization
5.1 Feature Extraction Optimization
5.2 Transformation Overhead Removal
5.3 Data Prefetching
VI. Evaluation
6.1 Experiment Setup
6.2 Experiment Results
6.2.1 Effect of Transformation Overhead Removal
6.2.2 Effect of Feature Extraction Optimization and Data Prefetching
6.2.3 Performance of Single SSD
6.2.4 Performance of Aggregated SSDs
6.2.5 Performance of SSD Cluster
VII. Related Works
7.1 Inference-Enabled Solid-State Drives (IESSD)
7.2 In-storage Processing Using Edge TPU
VIII. Conclusions
8.1 Conclusions
8.2 Future work
References
-
dc.format.extent 36 -
dc.language eng -
dc.publisher DGIST -
dc.subject Deep Learning, Transfer Learning, Convolutional Neural Network, In-storage Processing, I/O bottleneck -
dc.title Toward Fast and Scalable Transfer Learning with In-storage Processing -
dc.title.alternative 인-스토리지 연산을 이용한 빠르고 확장성있는 전이학습 기법 -
dc.type Thesis -
dc.identifier.doi 10.22677/thesis.200000362196 -
dc.description.alternativeAbstract 최근 하드웨어 가속기의 엄청난 성능 발전으로 인해, 딥 러닝 시스템에서 기존 연산과정에서 발생하던 병목현상 대신 보조기억장치에서의 입출력 과정에서 병목현상이 관측되기 시작했다. 이 병목현상은 여러 전이학습 기법 중에서 특히 딥러닝 모델의 가장 마지막 층만 재학습하는 기법에서 두드러지게 나타나며, Direct Media Interface (DMI)의 대역폭 제한 때문에 고성능의 저장장치를 탑재한 환경에서 그래픽 처리 장치가 제 성능을 발휘하지 못하는 상황을 관측할 수 있다.
본 논문은 DMI의 대역폭 때문에 전체 시스템의 성능이 제한되는 문제점을 인-스토리지 연산 기법을 이용하여 데이터 전송을 줄이는 방식으로 해결한다. 마지막 층의 학습에 필요한 특징들의 추출이 고성능의 모바일 그래픽 연산장치를 이용해 저장장치 안에서 수행되며, 이 과정은 다수의 저장장치에서 병렬적으로 수행되기 때문에 빠르면서도 확장성이 있다. 또한 각각의 저장장치 내에서 발생하는 반복적인 작업을 최소화하고, 16비트 실수 양자화, 프리패칭 등 여러 최적화 기법을 도입해 성능을 극대화했다. 제안한 기법은 총 6대의 저장장치를 병렬적으로 구성한 환경에서 기존 시스템 대비 적은 전력 사용량으로 동일한 성능을 보인다.
-
dc.description.degree Master -
dc.contributor.department Information and Communication Engineering -
dc.contributor.coadvisor Yeseong Kim -
dc.date.awarded 2021/02 -
dc.publisher.location Daegu -
dc.description.database dCollection -
dc.citation XT.ID 홍56 202102 -
dc.contributor.alternativeDepartment 정보통신융합전공 -
dc.embargo.liftdate 2024-02-28 -
dc.contributor.affiliatedAuthor Gwonhyu Jin -
dc.contributor.affiliatedAuthor Sungjin Lee -
dc.contributor.affiliatedAuthor Yeseong Kim -
dc.contributor.alternativeName 진권휴 -
dc.contributor.alternativeName Sungjin Lee -
dc.contributor.alternativeName 김예성 -
Files in This Item:

There are no files associated with this item.

Appears in Collections:
Department of Electrical Engineering and Computer Science Theses Master

qrcode

  • twitter
  • facebook
  • mendeley

Items in Repository are protected by copyright, with all rights reserved, unless otherwise indicated.

BROWSE