<?xml version="1.0" encoding="UTF-8"?>
<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns="http://purl.org/rss/1.0/" xmlns:dc="http://purl.org/dc/elements/1.1/">
  <channel rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/1081">
    <title>Repository Community: null</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/1081</link>
    <description />
    <items>
      <rdf:Seq>
        <rdf:li rdf:resource="https://scholar.dgist.ac.kr/handle/20.500.11750/47277" />
        <rdf:li rdf:resource="https://scholar.dgist.ac.kr/handle/20.500.11750/47275" />
        <rdf:li rdf:resource="https://scholar.dgist.ac.kr/handle/20.500.11750/47273" />
        <rdf:li rdf:resource="https://scholar.dgist.ac.kr/handle/20.500.11750/47272" />
      </rdf:Seq>
    </items>
    <dc:date>2026-04-09T02:23:43Z</dc:date>
  </channel>
  <item rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/47277">
    <title>Gaze Zone Estimation Using Head Pose Angle and Iris Center Localization on Simulation Environment</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/47277</link>
    <description>Title: Gaze Zone Estimation Using Head Pose Angle and Iris Center Localization on Simulation Environment
Author(s): Tayibnapis, Iman Rahmansyah; Choi, Min-Kook; Kwon, Soon
Abstract: Eye gaze estimation has importance role in various computer vision algorithm such as driver monitoring, non-contact human-computer interaction, etc. Various gaze zone estimation have been developed by various researchers and engineers. In this paper, we will show a coarse gaze estimation by using a single RGB camera that implemented on two computer screens. We divided the zone into 8 zones with the same size for each zone. We utilized head pose and iris center as the feature to train a model for estimating gaze zone. To classify the gaze zone, we used support vector machine (SVM) with radial basis function (RBF) kernel. We made two experiment which one experiment only used head pose feature only and the other added with the iris center coordinate. The result shows that by using head pose and iris center coordinate on gaze zone estimation has slightly higher than the head pose-alone experiment. Our proposed method also showed promising result which has accuracy higher than 91%.</description>
    <dc:date>2017-02-14T15:00:00Z</dc:date>
  </item>
  <item rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/47275">
    <title>실감형 HUD 의 향상된 UIUX 를 위한 증강정보 정합 기술</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/47275</link>
    <description>Title: 실감형 HUD 의 향상된 UIUX 를 위한 증강정보 정합 기술
Author(s): 최민국; 구동영; 이진희; 강세진; 권순
Abstract: 본 연구는 실감형 HUD (Head Up Display)의 효과적인 UI (User Interaction) 및 UX (User eXperience) 제공을 위한 향상된 증강정보 정합 기술을 제안한다. 증강정보 기반의 실감형 HUD는 일반 HUD와는 다르게 현재 주행하고 있는 주행 상황에 맞추어 차량 전면 유리(windshield) 상에 운전자를 위한 ADAS (Autonomous Driver Assistant System) 정보를 실제 정보에 매핑하여 보여주게 된다. 본 연구에서는 실감형 HUD 상에 ADAS정보 매핑 시 운전자, 전방 인식 카메라, HUD 상의 좌표계 차이로부터 발생하는 왜곡 보정하기 위해, 운전자 시점 기준으로 서로 다른 좌표계를 정합하는 알고리즘을 제안한다. 제안된 알고리즘으로부터 HUD 상의 ADAS 정보를 운전자 시점의 좌표계로 정합하여 운전자가 느낄 수 있는 ADAS 정보의 기하학적 왜곡을 감소 할 수 있다.</description>
    <dc:date>2017-02-14T15:00:00Z</dc:date>
  </item>
  <item rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/47273">
    <title>초분광 영상의 밴드 선택 기반 차량 후미등 검출</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/47273</link>
    <description>Title: 초분광 영상의 밴드 선택 기반 차량 후미등 검출
Author(s): 김희강; 김영덕; 정우영; 김성호
Abstract: 차량 운행 상태를 파악하기 위한 기존의 차량 검출 방법은 주로 RGB 영상을 이용하였으나 본 논문에서는 초분광 영상을 이용하여 실시간 처리(Real-time processing)를 위한 방법으로 밴드 선택 기반 차량 검출 방법을 제안한다. 한 화소에 수백 개의 밴드가 있는 초분광 영상은 기존의 한 화소에 세 개의 밴드를 가진 RGB 영상보다 많은 정보량을 담고 있으므로 기존 RGB 영상으로 차량 조명을 터널 내의 조명과 구별 할 수 없었으나 초분광 영상은 차량 조명 이외의 조명과 구별이 가능하다. 하지만 대용량의 데이터를 가진 초분광 영상은 실시간 처리가 어렵다는 문제가 발생하는데, 실시간 처리를 위해 제안하는 밴드 선택 기법으로 문제를 해결한다. 이는 야외에서 차량 조명을 학습하여 가로등과의 구별이 가능한 실험 결과를 바탕으로 제안하는 방법을 적용한 차량 후미등 검출이 가능함을 보여준다.</description>
    <dc:date>2017-02-15T15:00:00Z</dc:date>
  </item>
  <item rdf:about="https://scholar.dgist.ac.kr/handle/20.500.11750/47272">
    <title>학습 데이터의 도메인 적응(domain adaptation)에 효과적인 데이터 보충(data augmentation) 기법 연구</title>
    <link>https://scholar.dgist.ac.kr/handle/20.500.11750/47272</link>
    <description>Title: 학습 데이터의 도메인 적응(domain adaptation)에 효과적인 데이터 보충(data augmentation) 기법 연구
Author(s): 박지철; 최민국; 이진희; 권순; 손상혁
Abstract: 본 연구는 효과적인 객체 검출을 위한 CNN (Convolutional Neural Network) 아키텍처의 도메인 적응(domain adaptation) 시 나타날 수 있는 문제점을 해결한다. 일반적으로 특정 과업(task)에 유용한 CNN 아키텍처를 설계할 경우 학습과 성능 검증을 위해 공개된 데이터셋(open dataset)을 활용한다. 공개된 데이터셋은 주어진 과업에 따라 다수의 부류(class)를 포함하는 일반화된(generalized) 데이터 수집을 목표로 하고 있다. 이로 인해 공개된 학습 데이터는 특정 과업에 특화된 실 사례 데이터와 서로 다른 확률분포를 갖게 되고, 이로 인해 공개된 데이터셋과 실 사례에 적용 결과에 큰 성능 차이를 보이게 되고 이를 위해 다양한 도메인 적응 기법을 적용하게 된다. 본 논문에서는 객체 검출을 위한 CNN 아키텍처의 도메인 적응 문제를 해결하기 위해, 알려진 데이터 셋에서 학습된 최신 기술의 CNN 아키텍처의 학습 결과를 보완하는 데이터 보충 (data augmentation) 기법을 제안한다. 이를 해결하기 위해 실 사례 객체 검출 학습 데이터 보충을 위한 어노테이션 도구(annotation tool)을 제작하였으며, 제안된 데이터 보충 기법으로 실 사례 검출 결과가 크게 향상 되는 것을 확인할 수 있다.</description>
    <dc:date>2017-02-16T15:00:00Z</dc:date>
  </item>
</rdf:RDF>

