<?xml version="1.0" encoding="UTF-8"?>
<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns="http://purl.org/rss/1.0/" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/1082">
    <title>Repository Collection: null</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/1082</link>
    <description />
    <items>
      <rdf:Seq>
        <rdf:li rdf:resource="https://scholar.dgist.ac.kr/handle/20.500.11750/12761" />
        <rdf:li rdf:resource="https://scholar.dgist.ac.kr/handle/20.500.11750/10112" />
        <rdf:li rdf:resource="https://scholar.dgist.ac.kr/handle/20.500.11750/9831" />
        <rdf:li rdf:resource="https://scholar.dgist.ac.kr/handle/20.500.11750/9646" />
      </rdf:Seq>
    </items>
    <dc:date>2026-04-05T06:27:25Z</dc:date>
  </channel>
  <item rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/12761">
    <title>대용량 이미지넷 인식을 위한 CNN 기반 Weighted 앙상블 기법</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/12761</link>
    <description>Title: 대용량 이미지넷 인식을 위한 CNN 기반 Weighted 앙상블 기법
Author(s): 정희철; 최민국; 김준광; 권순; 정우영
Abstract: The ImageNet dataset is a large scale dataset and contains various natural scene images. In this paper, we propose a convolutional neural network (CNN)-based weighted ensemble technique for the ImageNet classification task. First, in order to fuse several models, our technique uses weights for each model, unlike the existing average-based ensemble technique. Then we propose an algorithm that automatically finds the coefficients used in later ensemble process. Our algorithm sequentially selects the model with the best performance of the validation set, and then obtains a weight that improves performance when combined with existing selected models. We applied the proposed algorithm to a total of 13 heterogeneous models, and as a result, 5 models were selected. These selected models were combined with weights, and we achieved 3.297% Top-5 error rate on the ImageNet test dataset.</description>
    <dc:date>2020-07-31T15:00:00Z</dc:date>
  </item>
  <item rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/10112">
    <title>Why do we need open innovation?: A letter from the guest editor</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/10112</link>
    <description>Title: Why do we need open innovation?: A letter from the guest editor
Author(s): JinHyo Joseph Yun</description>
    <dc:date>2013-12-31T15:00:00Z</dc:date>
  </item>
  <item rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/9831">
    <title>로봇의 이동 경로 추적을 위한 UWB 기반의 실내 측위 시스템 개발</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/9831</link>
    <description>Title: 로봇의 이동 경로 추적을 위한 UWB 기반의 실내 측위 시스템 개발
Author(s): 서준호; 정용환; 배영준; 유홍석; 김영덕; 김동균
Abstract: 최근 쇼핑, 운동, 엔터테인먼트 등의 실내 활동이 증가하는 추세이다. 이에 따라 실내 환경에서 LBS(Location Based Service)를 제공하기 위해 많은 연구들이 진행되었다. 하지만, 기존의 Wi-Fi, Bluetooth 등의 근거리 무선통신 기술을 활용한 LBS는 cm단위의 정밀한 정확도를 요구하는 실내 재난 상황에서 사용하기 어렵다. 반면, UWB(Ultra-Wideband)는 3.1~10.6GHz의 넓은 주파수 대역, 저 전력 통신, 그리고 수 십cm 내외의 높은 정확도로 측위가 가능하다는 점에 착안하여 실내 재난 상황을 가정한 환경에서 활용하기 적합하다고 판단된다. 본 논문에서는 UWB 기술을 바탕으로 화재 진압, 건물 내부 탐색 등을 수행하는 로봇의 실내 위치를 정밀하게 파악할수 있는 측위 모듈을 구현하고, 이에 대한 성능 평가를 정량적으로 수행 및 분석할 수 있는 소프트웨어의 개발을목적으로 한다. 또한, 구현된 소프트웨어를 활용한 실험을 통해 데이터를 수집 분석한다.</description>
    <dc:date>2019-03-31T15:00:00Z</dc:date>
  </item>
  <item rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/9646">
    <title>그림자를 이용한 원거리 차량 인식 및 추적</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/9646</link>
    <description>Title: 그림자를 이용한 원거리 차량 인식 및 추적
Author(s): 안영선; 곽성우
Abstract: 본 논문에서는 무인자율주행자동차를 레이싱 경기에 운용하기 위해 차량의 전면유리 중앙에 설치된 단안카메라를 사용하여 원거리에 있는 차량을 인식하고 추적하는 알고리즘을 제안한다. 차량은 하르(Haar) 특징을 사용하여 탐지하고, 차량바닥에 있는 그림자를 검출하여 차량의 크기와 위치를 판단한다. 인식된 차량의 주변을 ROI(Region Of Interest)로 설정하여 다음 프레임들에서는 ROI 내부의 차량 그림자를 찾아 추적한다. 이를 통하여 차량의 위치, 상대속도와 이동방향을 예측한다. 실험결과는 100m이상의 거리에서 90%이상의 인식율로 차량을 인식하였다.

This paper presents an algorithm for recognizing and tracking a vehicle at a distance using a monocular camera installed at the center of the windshield of a vehicle to operate an autonomous vehicle in a racing. Vehicle is detected using the Haar feature, and the size and position of the vehicle are determined by detecting shadows at the bottom of the vehicle. The region around the recognized vehicle is determined as ROI (Region Of Interest) and the vehicle shadow within the ROI is found and tracked in the next frame. Then the position, relative speed and direction of the vehicle are predicted. Experimental results show that at a distance of more than 100 meters, the vehicle is recognized with a recognition rate of over 90%.</description>
    <dc:date>2019-01-31T15:00:00Z</dc:date>
  </item>
</rdf:RDF>

